【完結編】GA4×BigQueryで「見えない顧客」を丸裸に!VSCode+Copilotで挑むデータ分析

前回までの記事で、Google Analytics 4 (GA4) のデータをBigQueryへ連携し、VSCode上でAI(GitHub Copilot)を使って分析する基盤を整えました。

▼これまでの記事はこちら

  1. CopilotでGoogle Analytics 4を分析
  2. 【続編】GA4のローデータをBigQueryへ連携し、Copilotで分析基盤を構築する方法

今回はシリーズ完結編として、実際にデータをこねくり回して**「どんな人がWebサイトを見ているのか?」**を徹底的に分析していきます。

「プログラミングやデータ分析は難しそう…」と思うかもしれませんが、安心してください。SQL(データベース言語)やPython(プログラミング言語)のコードは、すべてAIが書いてくれます。私たちは「何を知りたいか」を日本語で指示するだけです。

今回は少し遊び心を持って、サイト訪問者の「ペルソナ(人物像)」を勝手に妄想するところまでやってみましょう!


🛠️ 下準備:グラフの日本語文字化けを防ぐ

本格的な分析に入る前に、一つだけ技術的な準備をします。 AIにPythonでグラフを作らせると、日本語が「□□□」のように文字化け(豆腐化)してしまうことがよくあります。これを防ぐために、分析環境(今回はWSLのUbuntu)に日本語フォントをインストールしておきましょう。

手順

VSCodeを開き、WSLに接続した状態でターミナルを開きます。

ターミナルを開く

ターミナルに以下のコマンドをコピペして、エンターキーを押してください。

sudo apt -y install fonts-ipafont

パスワードを聞かれたら、Ubuntuのログインパスワードを入力します(入力中、画面には何も表示されませんが仕様です)。

フォントインストールコマンド

これで、きれいな日本語ラベルのグラフを作る準備が整いました!


📊 実践1:Pythonでトレンドグラフを一瞬で作る

まずは手始めに、サイトのPV(ページビュー)数のトレンドを見てみましょう。Copilotチャットに以下のように指示を出します。

User: 時間帯別、週別、月別のPV数のトレンドグラフ(日本語ラベルつき)を作成してください。

するとAIは、Pythonのパッケージマネージャーである uv を使い、データ分析ライブラリ pandas とグラフ描画ライブラリ matplotlib を自動でインストール。必要なコードを書いて実行までしてくれます。

出来上がったグラフがこちらです。

PVトレンドグラフ

📝 初心者向け用語解説

  • Pandas(パンダス): PythonでExcelのように表データを扱える超便利ツール。集計や加工が得意です。
  • Matplotlib(マットプロットリブ): データをグラフにして可視化するツール。

グラフを見ると、以下のことが一目でわかります。

  • 時間帯別: 18時〜22時の夜間にアクセスが集中している。
  • 月別: 9月に大きなピークがあり、1月はまだこれからの様子。

これだけで「夜にお店を探している人が多いのかな?」という仮説が立ちますね。


🔍 実践2:BigQueryで「熱いファン」を発掘する

ここからが本番です。GA4の管理画面では見られない、ユーザー個別の詳細な動きをBigQueryを使って追跡します。

今回は、某ショットバーのWebサイトデータを例に、**「エンゲージメント(関心度)が高いユーザー」**を抽出してもらいました。さらに、同業者や営業のチェックを除外するように指示しています。

AIへの指示

User: BigQuery MCPを使って、エンゲージメントの高いユーザを3名抽出し、行動履歴や特徴を教えてください。売り込み営業によるチェックは除外して。

AIはBigQueryに対して複雑なSQLクエリを発行し、数億行のデータから条件に合うユーザーを見つけ出してくれます。

Copilotによる分析結果

その結果、非常に興味深い3名のユーザーが浮かび上がってきました。

🕵️‍♀️ 分析結果:特定されたトップユーザーたち

AIの分析により、以下の3名が「熱い見込み客」として抽出されました。

👤 ユーザー1:移動中もメニューを熟読するウイスキー愛好家

  • 場所: 東京都日野市 → 杉並区(移動中)
  • 行動: 19時台にアクセスし、約1時間42分の間に何度もサイトを訪問。特に「ウイスキーメニュー」を2分以上熟読しています。
  • 推測: 移動しながら「今日行く店」を真剣に選び、メニューまで決めている可能性が高いです。

👤 ユーザー2:Twitterから来たシガー(葉巻)関心層

  • 場所: 東京都世田谷区
  • 流入元: Twitter (t.co)
  • 行動: わずか3分半で9ページを閲覧。「お店の楽しみ方」や「シガーメニュー」を効率よくチェックしています。
  • 推測: SNSで流れてきた情報を見て興味を持ち、「シガーが吸えるか」「雰囲気はどうか」をサクッと確認した情報通です。

👤 ユーザー3:来店直前の最終確認?

  • 場所: 東京都青梅市
  • 行動: ウイスキーメニューをじっくり見た後、最後に「地図」を確認して離脱。
  • 推測: これは**「来店フラグ」**が立っています。地図を見たということは、これから向かう意思の表れでしょう。

🎭 応用編:AIによる「妄想ペルソナ」作成

データだけだと無機質なので、最後にこのデータを基に**「ペルソナ(架空の顧客像)」**をAIに作ってもらいました。これが意外とリアルで面白いんです。

👤 ペルソナAさん(埼玉県朝霞市の慎重派)

設定: 30代後半・男性・会社員 ストーリー: 「YouTubeでウイスキーに興味を持ったけど、本格的なバーは敷居が高い…。Webサイトの『初めての方へ』や『写真館』をじっくり読んで(滞在2分以上)、怖くない店か入念にリサーチ中。週末、勇気を出して行ってみようかな。」

👤 ペルソナBさん(世田谷区の情報通)

設定: 30代・クリエイティブ職 ストーリー: 「Twitterで良さげな店を発見。世田谷からは遠いけど、シガーも置いているなら行く価値ありかも。とりあえずブックマーク。」

👤 ペルソナCさん(常連予備軍)

設定: 40代・管理職 ストーリー: 「前に一度行って良かった店。今日は近くまで来たから寄ってみよう。えーと、場所どこだったっけ?(地図ページだけを2日連続で確認)」


まとめ:データ分析は「想像力」の源泉

いかがでしたか?ただの数字の羅列に見えるログデータも、VSCodeとCopilotを使って深く掘り下げることで、**「画面の向こうにいる生身の人間」**の姿が見えてきます。

プログラミングスキルがなくても、AIと対話するだけでここまで高度な分析ができる時代になりました。 ぜひ皆さんも、ご自身のサイトデータを使って「まだ見ぬ顧客」の姿を想像してみてください!



コメント (0)

コメントを投稿するにはログインが必要です。