データ分析

徹夜のExcel分析が1時間に!非エンジニアでもCursorで変わるAIのデータ分析活用を徹底解説

大規模なアンケート調査など、エクセルやスプレッドシートでのデータ分析を行ったことはありませんか?

Googleフォームなどで数千人規模の回答を集めたものの、その後の分析に手間取った経験はないでしょうか。

データは膨大で、エクセルやスプレッドシートで集計するには莫大な時間がかかりますよね。クロス集計が増えれば増えるほど、関数も複雑になって、ちょっとしたミスを修正するだけで全シートを直さなければならない...。結局、徹夜作業になってしまったり、集計だけで息切れしてその後に有効な示唆を出せない、なんて経験をされたことがある方は多いのではないでしょうか?

「いやいや最近はAIやろと。(社内環境のセキュアな)ChatGPTやGeminiに入れてみよう」

そう息巻いてぶち込んでみるも、なんか出てくる結果を見てもあってんだかあってないんだか...と右往左往、結局自力でExcel集計するも無限に時間がかかって辛い。

今回は、Cursorという別のアプローチで、この「分析の手戻り地獄」や「Excelの手元集計地獄」から抜け出す方法について解説したいと思います。

ChatGPTじゃダメなんですか?

先ほど記載した、「あってんだかあってないんだか...」という感覚、例えば、よくあるあるなのが、以下のようなケースです。

  1. 「年代別の満足度を出して」→ 結果が出る
  2. 「あ、20代と30代はボリューム少ないので統合して」→ 全体をやり直し
  3. 「〇〇の設問の無回答は除外して」→ また全体をやり直し
  4. 「...で、満足度出てきたけど、これ定義とか分母とかなんだっけ」→正味わからんくなった...

結果は返ってくるけれど、なんというかしっくりこなかったり、出力結果を信頼できなかったりすることがしばしば起こります。

実はこれ、アンケート集計やデータ分析といった作業と構造的に相性が合わない点に起因すると考えています。次章で解説します。

なぜ相性が合わないのか

この相性の悪さの原因を考えてみると、以下のような構造的な問題があるように思えます。

症状(現場で起きること)

根本原因

分母がズレる

貼り付けでデータが欠落、AIが勝手に想定

言い直し地獄

手順が残らないから全部やり直し

吐き出されたレポートで根拠を追えない

追跡して根拠となる数値を拾うことがしにくい

大規模データで精度がだんだん不安定になる

トークン制約で途中で切れたり精度が落ちたりする

分析を再現できない

AIを使う人に属人化するガチャ感

つまり、ChatGPTやGeminiのような「その場限りの指示」では、アンケート分析に必要な「再現性」「追跡可能性」「段階的な修正」が構造的に難しいということになるかなと思います。

Cursorを使うとどうなる?

Cursorってコード書かない人にとってそもそも何がいいの?ChatGPTと何が違うの?

Cursorは非エンジニアの方には馴染みがまだまだ薄いツールだと思います。
ChatGPTのようなチャットUIだけでなく、AIと一緒にコードや文書を同じ画面で編集するのが特徴です。

たとえば、

  • CSVファイルをドラッグ&ドロップで読み込める
  • AIが自動でPythonコードを書いて、すぐ実行してくれる
  • 結果を表やグラフで確認できる
  • 生成したコードを残して、後から再実行・修正できる

といった形で、分析の「プロセス」や「思考・作業の履歴や文脈」をファイルとして残せるのが強みです。

つまり、ChatGPTが「その場でチャットで回答をもらうAI」だとすれば、Cursorは「一緒に作業するAI」みたいなイメージをもっていただけるといいかなと思います。

黒くて、英語で、文字が小さくてどうやってつかうのかよくわからん、といった雰囲気があるかもしれないですが、自分の作業環境を全部把握して一緒に作業してくれる神が横にいてくれる、みたいなイメージです。

先ほどのChat GPTの相性合わない問題はCursorならなぜ解決される??

Cursorを使うと、AIが書いたコードや分析結果を複数のファイルとして残せるからになります。

データ分析は複数の集計プロセスが連動することが多いですが、Cursorなら各プロセスのつながりや文脈を保ったまま、個別箇所の変更や深掘りができるため、先ほど記載した「ChatGPTの相性の悪さ」を根本から解消することにつながります。

  • そもそも途中でとっちらからない&仮にとっちらかっても個別箇所の修正が容易
  • 結果としてスピードも早くなる

というイメージです。

具体例に入る前に

ここまで、Cursorのメリット紹介を続けてきましたが、具体例や実践的なTipsを紹介する前に、限界や課題の記載もしておきます。

Cursorの限界と前提条件

統計的なリテラシーが必要な場合

「統計的に有意な結果が必要」、「分析の根本にあるバイアスの除去が必要」、「元データのクリーニングが重要」など、精度や厳密性への優先度がより高い場合は、やはり専門的な知識や手順をもとに鉄壁の布陣で行う方が当然安心です。データアナリストの方や分析のリテラシーの高い方が分析自体を行うべきだと思います。

Cursorはツールであって、データ分析のリテラシーを代替するものではありません。

じゃあ意味ないじゃんっていう話なのでしょうか??

いえ、前提条件を理解した上で使えば、十分に価値があると思います。特に、アンケートのクロス集計といった、スプレッドシートやエクセルで元来分析が完結していたような領域であれば、ちょうど落とし所として非エンジニアのCursor導入がしやすいかなという気がします。

具体的に特徴を言語化すると、

  1. クイックアンドダーティが求められるような場合
    • まずは大体の傾向を把握したい
    • 精緻で詳細な分析は後回しで、方向性やインサイト、施策につながる追加仮説をスピーディに降臨させたい
  2. ドメイン知識を持っている人が分析する場合
    • 統計的な知識は少なくても、ある程度数字に強い、ビジネスの文脈を理解している
    • AIが出した結果を、ドメイン知識(自社サービス特有の情報)で判断できる
  3. 分析と企画者が分業になっている場合
    • 分析担当と企画担当が分離していて、依頼しても時間がかかったり、手戻りが多かったりする
    • 「せっかく出してもらった結果なんだけど、うーん、で...」という感じになってしまう
    • 企画者が自分で分析できると、よりアクションに繋げやすい

企画者が自分で仮説を検証できる。その場で「あ、この軸も見てみたい」と試せる。専門家に依頼する前に、自分で探索できる。ただスピードが速いとかコストが浮いたではなく、示唆や施策につなげるための「活きた分析」を最速で行えること、その感動こそが本記事で紹介したアンケートのデータ分析におけるCursorの本当の価値だと思います。

基本的な使い方

実際に使ってみると、思った以上にシンプルです。Cursorを開いてCSVファイルを読み込ませて、日本語で指示を出すだけです。(有料プラン登録が原則必要ですが、14日無料のトライアルが使えます)

ステップ1:CSVファイルを読み込ませる

まずは、分析したいCSVファイルをCursorに読み込ませます。例えば、こんな感じです

「ダウンロードフォルダにあるCSVファイルを読み込んで、内容を確認して」

Cursorは自動的にCSVの構造を理解して、どんな列があるか、どんなデータが入っているかを把握してくれます。

ステップ2:分析を依頼する

あとは、何を分析したいかを日本語で伝えるだけです。実際のやり取りでは、こんな感じでした

「CSVを読み込んで、全質問の集計をして。クロス集計も年代別・性別・地域別で。分母と分子は必ず明記して」

または、リサーチクエスチョンが明確な場合は

以下のリサーチクエスチョンに基づいて分析してください。例えば、以下といった具合です。

1. 属性ごとの加入動機、価値、加入タイミング
2. 継続・非継続理由

ステップ3:結果を確認して微調整

Cursorがコードを書いて実行してくれるので、結果を確認して「この軸も追加して」とか「この部分をもう少し詳しく」と指示すれば、そこの部分だけ修正して再実行してくれます。

例えば、実際のやり取りでは

「7割っていうのは分母分子の数字も知りたい」

と伝えると、Cursorは該当箇所だけを修正して、分母と分子を明記した形で再度分析してくれました。

ポイント:段階的に進める

最初から完璧を求めないことがポイントです。まずは基本集計から始めて、それを見ながら「あ、この軸も見てみたい」と追加していく。そうすると無理なく進められます。

Cursorで分析する際の実践ポイント3選

実際に大規模アンケート分析をCursorで実施して得た実践的なTipsをご紹介します。

Tip 1:分母・分子を必ず明示する

なぜ重要か:「約7割が満足」と言われても、分母がわからないと意味がありません。経営会議で「この数字の根拠は?」と聞かれても、即座に答えられるようにしておくことが重要です。

どう実践するか:最初から「分母と分子を必ず明記して」と指示します。コード上で分母の定義が明確なので、後から確認も簡単です。

「CSVを読み込んで、満足度を集計して。分母と分子を必ず明記して」

Tip 2:リサーチクエスチョンを最初に明確にする

なぜ重要か:何を明らかにしたいのかが曖昧だと、Cursorも適切な分析を提案できません。ビジネスに活用しやすい分析結果にするためには、最初に目的を明確にすることが重要です。

どう実践するか:分析を始める前に、リサーチクエスチョンを明確に伝えます。

以下のリサーチクエスチョンに基づいて分析してください:

1. 属性ごとの加入動機、価値、加入タイミング、経路
2. 継続・非継続理由

Tip 3:段階的に分析を拡張する

なぜ重要か:最初から完璧な分析を求めると、挫折しやすいです。また、一度に全部やろうとすると、エラーが発生したときの原因特定が大変です。

どう実践するか:基本分析→クロス集計→インサイト抽出と、段階的に進めます。

  1. まずは基本集計:「CSVを読み込んで、各質問の単純集計を出して」
  2. 次にクロス集計:「年代別のクロス集計も追加して」
  3. 最後にインサイト:「主要な発見をレポートにまとめて」

各段階で結果を確認できるので、方向性を修正しやすいです。

よくある疑問と回答

Q:プログラミング経験がなくても使える?

A:はい、使えます。「こうしたい」を日本語で伝えれば、AIがコードを書いてくれます。

Q:セキュリティは?

A:Cursorはローカル環境で動作するのと、データを学習されないようなプライバシーモードの設定が可能です。

まとめ

アンケート分析や定例調査のように、「やることは明確だけど手戻りが多い」作業は、ChatGPTのようなチャットAIではどうしても限界が出てしまいます。
その場で答えをもらうことはできても、再現性・追跡性・修正のしやすさが欠けるからです。

Cursorはその欠点を補う、作業の構造をAIと共有するツールです。AIにコードや文書を書かせながら、プロセスや思考の履歴をファイルとして残せる。
その結果、やり直しにかかっていた時間が削減され、分析の透明性や納得感が高まります。

「コードが書けないから自分には関係ない」と思っていた方こそ、一度触ってみると「思考と作業を整理してくれるAI」としての本当の価値を感じるはずです。

もし、毎月の集計や報告が負担になっているなら、まずは、今手元にあるCSVをCursorに読み込ませて、一緒に分析してみると感動があると思うので、ぜひ試してみてください。

お問い合わせ

Kumonoでは、スタートアップの支援に関するご相談を承っております。
お気軽にお問い合わせください。

無料相談を予約する