2025年5月20日から21日にかけて、米国Googleが主催する年次開発者会議「Google I/O 2025」が開催され、あらゆる技術発表の中心にAI技術が据えられた。中でも注目を集めたのが、Googleの大規模言語モデル「Gemini」シリーズを核とした新サービスと、その圧倒的な性能である。株式会社SHIFT AI(東京都渋谷区)が運営するAI大学「SHIFT AI」は、同イベントの最新情報をまとめ、AIが社会基盤となる未来像を解説した。

Googleは検索体験の根幹を「ググる」から「AIとの対話」へと進化させた。米国内のユーザー向けに導入が始まった「AIモード」では、従来の検索結果に代わって、AIが要約や統合情報を生成し、複雑な質問にも対話形式で答える。Gemini 2.5を搭載することで、この新しい検索体験は一層強化されている。スマートフォンをかざすだけでその場の物体について調べられる「Search Live」や、画像をアップロードすることで衣服の試着を仮想的に体験できる「バーチャル試着」、さらにはAIが購入手続きまで代行するエージェント機能も計画されている。

中心技術となる「Gemini」は最新バージョンである2.5 Proおよび2.5 Flashが登場。特に2.5 Proは高度な推論が可能な「Deep Think」モードを搭載し、性能評価基準「LMArena」で首位を獲得した。また、処理速度とコスト効率を兼ね備えた2.5 Flashも同ランキングで2位となった。Geminiは24言語に対応したネイティブ音声機能を持ち、発話のトーンまで制御可能。さらに、生成速度に特化したGemini Diffusionは、毎秒1479トークンの生成能力を誇る。

映像、画像、音楽の生成を統合したAIクリエイティブ技術も発表された。動画生成AI「Veo 3」は映像だけでなく、効果音やBGM、セリフまでも自動生成可能。画像生成では「Imagen 4」が登場し、2K解像度への対応や画像内テキストの精度向上が図られた。音楽面では「Lyria RealTime」がリアルタイムでの指示による作曲や演奏を実現する。これらを統合する映像制作ツール「Flow」も公開され、プロンプトからシーン、キャラクター、音楽、編集に至るまでAIが一括して制作する新しい映像制作のあり方が示された。

開発領域では、AIコーディングエージェント「Jules」が注目された。これは開発者の作業を代行するもので、バグ修正や新機能の構築、GitHubとの連携によるプルリクエスト作成まで自律的に行う。さらに、自然言語や画像からUIデザインとコードを自動生成する「Stitch」、そして強化されたGemini Code Assistにより、開発作業の効率は飛躍的に向上する。

言語の壁を越える技術も進展した。Google Meetには、話し手のトーンや抑揚を反映するリアルタイム翻訳機能が搭載され、まるで吹き替え映画のように自然な会話が可能となる。まずは英語とスペイン語でベータ版の提供が始まり、今後さらに多言語へと拡大される予定である。また、3D映像通話を可能にする「Google Beam(旧Project Starline)」にもこの翻訳機能が導入され、距離や言語の壁を感じさせないコミュニケーションが実現されようとしている。

このほかにも、AIアシスタント「Project Astra」によるカメラを通じた状況認識と自然な会話、AIによる資料作成、AI生成物の識別技術「SynthID Detector」、AI統合のGmailやChromeなど、日常に深く浸透する機能が多数発表された。さらに、医療や手話通訳に特化したAI、スマートグラスによる拡張現実体験、災害対応AIの実用化など、社会全体の課題にもAIが積極的に応用されている。

SHIFT AIの代表取締役・木内翔大氏は、Google I/O 2025について「AIがツールを超えて社会インフラへと進化する未来を強く示した」と語り、日本がAI先進国としてこの潮流に乗る必要性を強調した。同社は今後もAIのビジネス活用を支援し、最新トレンドを分かりやすく届けることで、企業や個人がこの革新に取り残されないよう取り組んでいくという。

Google I/O 2025は、AIが日常や産業に不可欠な存在となる未来の到来を告げる、大きな転換点となった。Geminiを中心とするGoogleの戦略は、単なる技術革新にとどまらず、生活と社会構造そのものを再定義しようとしている。