Google Cloud Next ’26 現地参加レポート

執筆者
公開日
2026.05.15
更新日
2026.05.15

Google Cloud Next ’26 が 4月22日から4月24日の3日間開催され、ブレインパッドからは4名がラスベガスにて現地参加してきました。

本ブログではイベントの様子や気になったセッションをご紹介します。

本記事の執筆者
  • データエンジニア
    三角 晃久
    Akihisa Misumi
    会社
    株式会社ブレインパッド
    所属
    データエンジニアリングユニット
    2020年データサイエンティストとして新卒入社後、デジタルマーケティングの分析支援案件に携わる。 その後エンジニアの部署に異動し、MLアプリケーション開発を経験後、現在は製造業案件にてシステム開発のプロジェクトマネージャーを担当。

Google Cloud Next ’26 とは

Google Cloud Next は、Google Cloud主催のグローバルカンファレンスで、最新の機能やプロダクトに関する情報が発表される場となっています。
「生成AIで何ができるか?」という試行錯誤のフェーズから、AIが自ら考え、判断し、行動する「エージェント」をビジネスに組み込んでいくというフェーズに移行する昨今、どのような発表がされるか注目され、世界から30,000名以上、日本からも1,000名以上が会場に集まりました。


キーノート

1日目はGoogle CloudのCEO Thomas Kurian氏によるキーノートから始まりました。始まる前から会場に入場規制がかかるほど人が集まっており、現地ではライブ映像を同時視聴する部屋が用意されていました。

過去のイベントでは新しいAIモデルの発表に盛り上がっていた印象でしたが、今回はエージェントシステムを本番環境で動かすための機能を充実させる方向のものが中心でした。

Vertex AIは「Gemini Enterprise Agent Platform」に統合・リブランドされ、エージェントシステムを本番環境で利用するために必要な構築・スケール・ガバナンス・最適化のための機能が提供されます。また、Agentic Data Cloudでデータ資産にビジネスの意味を付与したり、Agentic Defenseではセキュリティオペレーションを実行するなど、今まで人間が行なっていた作業をエージェントで代替できるような機能が登場しました。今後もエージェントの構築・活用がより活発化していくことでしょう。

発表内容はこちらから確認できます。https://cloud.google.com/blog/topics/google-cloud-next/next26-day-1-recap

キーノートの会場の様子

2日目にはDeveloper Keynote(開発者向けのキーノート)が行われました。

1日目が新サービスや機能の発表を中心としたものだったのに対し、2日目は「マラソンイベントを計画するマルチエージェントシステム」を題材に、より実践的な内容にフォーカスした構成となっていました。「マルチエージェントでこんなことができる」というデモにとどまらず、「こうやって構築する」という実装プロセスそのものがメインメッセージとなっており、開発者にとって具体的なイメージを持ちやすいセッションでした。

開発者向けキーノートの様子

Codelabsでハンズオンも公開されているため、実際に手を動かすことでより深い理解が得られると思います。ぜひ触ってみることをおすすめします。

https://codelabs.developers.google.com/next26/dev-keynote/building-agents-with-skills?hl=ja#0

データ基盤構築、MLアプリケーション開発、エージェントシステム構築など、データ活用に関わる案件に幅広く携わっている立場として、Kurian CEOが「パイロットの時代は終わり、エージェントの時代が来た」と宣言したことは、提案のあり方を根本から見直すきっかけとなりました。システム開発の各工程においてお客様にとっての価値を最大化するために、エージェントの活用を選択肢として持っておくことが、これからのスタンダードになると改めて実感しました。顧客の業務や課題を深く理解するという姿勢はこれまで通り大切にしながら、そこに新しい技術をいかに掛け合わせるかが重要になっていきます。

今回の発表はテクノロジーの進化を示すと同時に、提案・実装・運用のすべてのレベルで私たち自身のアップデートが求められているという緊張感も感じさせるものでした。


セッションの参加レポート

キーノート終了後は基本的にセッションに参加していました。セッションでは新機能のデモや、各企業がどのようにGoogle Cloudを活用しているかの紹介があり、キーノートで発表された内容をより深く理解したり、トレンドをキャッチアップできる場となっています。実際の活用事例を通じて「自分たちの案件ではどう応用できるか」を具体的にイメージできそうなものを中心に参加していました。

参加したものの中から2つご紹介したいと思います。

ADK(Agent Development Kit)とGemini Live APIを活用したリアルタイムパーソナライズ

GoogleのADK(Agent Development Kit)とGemini Live APIを活用し、リアルタイムかつユーザーにパーソナライズされたマルチモーダルAIエージェントを構築する手法を紹介するセッションに参加しました。
従来の音声アシスタントの枠を超え、まるで人間と話しているかのような自然な対話と記憶の継承をどのように実現するか、アーキテクチャの説明がありました。

はじめに:未来のショッピング体験を予感させるデモ

セッションは、AIエージェントがユーザーに服のコーディネートを提案するデモ音声からスタートしました。

ユーザー:
「私の好きな色に基づいた提案をしてくれる?」

AI:
「もちろんです。青がお好きでしたよね。青一色のチェック柄のボタンアップシャツや、デニムのシャツドレスはいかがでしょう?」

ユーザー:
「もう少し予算に優しい、安いものも見たいな。」

AI:
「予算内に収めるのは賢明ですね。25ドルのフラッターハットや、白いコットンTシャツなどがお手頃です。ちなみに、今日は素敵な明るい色のセーターと茶色のベレー帽をお召しですね!青がお好きなら、セーターの下にチェックのボタンアップを重ね着してみては?」

この対話のポイントは、AIがユーザーが「青色好きであること(過去の記憶)」を把握しているだけでなく、「ユーザーが今着ている服(視覚情報)」をマルチモーダルに認識し、遅延なく自然な会話を行っている点です。
このデモの裏側では、Memory BankとCloud SQLからパーソナライズデータを取得し、ADKで Gemini Live API を利用していたとのことです。本セッションでは、この体験を実現するための3つの技術的アジェンダが解説されました。

アジェンダ1:Real-time Voice AI(リアルタイム音声AI)の実現

従来の音声AIは、「音声を録音→テキスト化→AIが処理→音声で返す」という直列処理であったため、どうしてもタイムラグが発生してしまいました。
自然な会話を実現するためには、お互いが同時に話したり遮ったりできる全二重通信(Full-duplex)が必要です。

今回のADKとGemini Live APIを用いたシステムでは、

  • ユーザー→AI:ブラウザからのデータ(音声ストリーム、テキスト、スクリーンショットなど)が到着すると、サーバー側で即座にリクエストオブジェクトに変換し、キューに乗せます。
  • AI→ユーザー:エージェントの頭脳である「Runner」がキューからデータを取得してGemini Live APIに送信し、レスポンスをイベントとしてユーザーに送り返します。

このように、リクエストとレスポンスの処理を分離し、システム全体が前の処理を待つことなく並行稼働することで、遅延のない双方向ストリーミングを実現しているとのことです。

アジェンダ2:Persistent Memory(記憶の永続化)

エージェントがユーザーの好みを長期的に記憶し、サーバーを再起動しても忘れないようにするにはメモリ管理の仕組みが必要です。セッションでは、記憶を以下の3つのレイヤーに分けて管理する手法が紹介されました。

  1. Ephemeral(一時的):マイクロ秒単位で処理される生の音声フレームなどの揮発性データ。
  2. Session(セッション):ADKのインメモリセッションサービスを利用した、1回の会話内の記憶。再起動すると消えるが、超高速でアクセス可能。
  3. Long-term(長期的):Cloud SQLとMemory Bankを利用した、セッションをまたいで知識を保持。
    • Cloud SQL:予算、ウィッシュリスト、ミーティング予定など「構造化データ」の保存・検索に利用。
    • Memory Bank:過去の全会話から事実を抽出し、文脈を要約して保存するためにGeminiの生成能力を利用。

例えばユーザーが「私は青が好き」と発言すると、バックグラウンドでの統合処理が走り、これらの長期メモリが自動的にアップデートされる仕組みになっています。

アジェンダ3:Zero Latency Recall(ゼロレイテンシでの情報呼び出し)

いくら過去の記憶を持っていても、会話の途中でデータベースを検索していては、レスポンスに遅延が生じてしまいます。エンドツーエンドでシームレスな体験を作るために、会話の「事前」と「事後」で処理を分けるという工夫が凝らされています。

  • 事前の情報注入:WebSocketを通じて会話セッションが開始された直後に、Agent RunnerがCloud SQLやMemory Bankからユーザーのコンテキスト情報を一気に読み込みます。これにより、会話中のレイテンシを排除しています。
  • 事後の非同期統合:会話セッションが終了した後に、その日の会話内容から新しい事実を抽出し、非同期でデータベースを更新します。

会話の最中はリアルタイム処理にリソースを集中させ、重いデータベース処理は会話の前後に行うという非常に合理的な設計です。

まとめ

今回のセッションでは、Google ADKとGemini Live APIを組み合わせることで、従来のチャットボットとは一線を画す「人間らしいAIエージェント」を構築できることが示されました。

  • リアルタイムな双方向ストリーミングによる自然な会話テンポ
  • Cloud SQL × Memory Bankによる、構造化・非構造化データのハイブリッドな記憶
  • レイテンシを感じさせない非同期・分離型のアーキテクチャ

これらの技術を組み合わせることで、ECサイトのパーソナルショッパーから、社内ヘルプデスク、教育用アシスタントまで、さまざまな分野で革新的なユーザー体験(UX)を生み出すことができそうです。

Navigate the agentic shift in software development with Google

AIによるコード生成が急成長している一方で、コードを生成しただけで生産性がそのまま上がるわけではありません。Googleがいかにこの問題に取り組んでいるかを紹介するセッションでした。

新規コードの多くはAIによって書かれている

Googleで過去12ヶ月で追加されたコード量は、その前の3年分を超えており、全変更の約3分の1はAIエージェントがほぼ単独で作成したものだそうです。

ただし、コードが10倍生成されれば生産性がそのまま10倍になるわけではなく、その分コードレビューの負担、テスト、バグのリスクも増えます

そこでGoogleは「どうすれば、10倍のコードを10倍のリスクなしに10倍の成果へ変換できるか?」という課題に取り組み、その過程での失敗と学びが共有されました。

エージェントを用いた効率化の失敗

コードレビューはエンジニアの時間の約10%を占める作業であり、これを自動化して効率化することを考えました。

まず、全てのチームに対応できる万能のレビューエージェントを1つ作ったそうです。結果は品質に問題があり、開発者が使おうとしなかったそうです。この失敗から、全員向けは誰にもあわないという学びを得ました。

次に試みたのは逆のアプローチで、「広く浅く」ではなく「狭く深く」Pythonのコーディング規約だけを徹底的にチェックする専門エージェントを試しました。エージェントの評価として精度は高いものが得られた一方で、Pythonチームの生産性が9%も低下したそうです原因は指摘の多さです。エージェントは規約に従って正しく動いていたものの、開発者にとっては、些細なことを延々と指摘され続ける状態だったとのことです。正確さも重要ですが、そこを完璧にこなし過ぎようとすると開発スピードが落ちるのは容易に想像できますね。

たどり着いた「3層構造」

試行錯誤の末、Googleは次の3層構造に辿り着いたとのことです。

第1層:レビューエージェント セキュリティ、信頼性、パフォーマンスなど、全チームに共通する重要項目だけを対象にする。

第2層:シェパーディングエージェント(進行管理) CI/CDパイプライン全体を監視し、ビルドが失敗したら自動で修正を試み、再度レビューに回す。

第3層:リスク評価エージェント 変更内容を常時スキャンし、リスクが高いと判断したものに「要注意」タグを付ける。タグのついた変更だけ、人間のレビューを必須にする。

この構造で重要なのは、人間が介入すべき場所を絞り込むことです。すべてをAIに任せるのでも、すべてを人間が確認するのでもなく、リスクに応じた使い分けこそが現実的な解となります。

AIと人間の協働の設計

エージェントシステムの可観測性が重要であることも強調されていました。

エージェントが何をどう考え、どんなツールを呼び出し、なぜその判断をしたかをすべてログに残した上で分析しておき、非効率な動きを検出し改善するために活用します。

例えば、エージェントが20分間ずっと同じ間違ったツールを呼び続けていた場合でも、ダッシュボードで行動が可視化されているため、すぐに人が介入し方向修正できます。

これはAIの能力の問題ではなく、AIと人間の協働の設計が重要であるということです。AIに任せっぱなしにするのではなく、いつ・どこで人間が介入すべきかを設計しておくことが本質になっていくように思います。

まとめ

Googleの事例から見えてくるのは、AIによる開発加速を実現するために必要なのは、より良いAIモデルだけではないということです。

失敗を前提にした試行錯誤の文化、エージェントの動きを可視化する仕組み、人間とAIの役割分担の設計など、これらがそろって初めてコードの増加がビジネスの成果に結びつくと思います。

AIが書くコードが増え続ける時代に、エンジニアのコードを書くという作業は「AIと協働してシステムを設計・監督する作業」へと変わりつつあります。個人としてもチャレンジしていきながら、チームや会社にとって価値ある方法を模索していきたいと思います。

Expo(ブース展示)

会場内のExpoでは数多くのブースが立ち並び、Googleによるデモブースや各社の最新技術を実際に体験できる展示が充実していました。

ブースの様子

複数のブースを回る中で特に印象に残ったのが、Claude CodeやGemini CLIを使って現実世界の機械を制御するデモです。カメラで絵を認識して点数を付けたり、流れている音楽に合わせてライティングを自動制御したりと、AIがソフトウェアの中だけでなく物理的な世界とつながる体験は新鮮でした。

画像は音楽に合わせてライティングするデモの様子です。楽曲を選択するとリアルタイムに分析し、モニター下部の光が曲に合わせて自動で点滅・色の変更を行っていました。

コーディングだけでなく、現実に作用する使い方をデモを通じて直感的に理解できましたし、エンジニアとしてはこういったものづくりは純粋にワクワクするなと思いました。

まとめ

今回現地参加したことで、技術トレンドの最前線にいる世界中のエンジニアたちの熱気を肌で感じることができました。技術的なキャッチアップにとどまらず、国外のエンジニアとの交流は刺激的で、個人的には今後の仕事へのモチベーションにも大きくつながりました。

エージェントを本番環境で稼働させるためのプラットフォームは整ってきており、「試す時代」から「使いこなす時代」への移行が加速しています。技術のキャッチアップを継続しながら、お客様にとっての具体的な価値につなげることを追求していきたいと思います。


このページをシェアする

あなたにオススメの記事

株式会社ブレインパッドについて

2004年の創業以来、「データ活用の促進を通じて持続可能な未来をつくる」をミッションに掲げ、データの可能性をまっすぐに信じてきたブレインパッドは、データ活用を核としたDX実践経験により、あらゆる社会課題や業界、企業の課題解決に貢献してきました。 そのため、「DXの核心はデータ活用」にあり、日々蓄積されるデータをうまく活用し、データドリブン経営に舵を切ることであると私達は考えています。

メールマガジン

Mail Magazine