Google はプレビュー版として Gemini 3 Pro を公開し、「Gemini 3 時代」を正式にスタートさせました。初期の評価は明確で、これはマルチモーダル推論、コードエージェント、ロングコンテキスト理解における大きな前進です。Gemini 3 Pro は Google 史上最も高性能な推論・マルチモーダルモデルとして位置づけられ、エージェント型ワークフロー、コーディング、長文処理、マルチモーダル理解に最適化されています。新たな「Deep Think」推論モードが搭載され、エージェント/コード関連のベンチマークで劇的な向上を示しており(Terminal-Bench 2.0 は 54.2% と発表)、Google AI Studio、API(Vertex AI)、Google Antigravity などの開発ツールからすぐに利用できます。
Gemini 3 Pro Preview とは?
Gemini 3 は、Google が次世代の Gemini ファミリーの中で「最も知的」なモデルとして提示しており、より深い推論、豊かなマルチモーダル理解(テキスト、画像、動画、音声、コード)、およびより高度なエージェント行動(ツールを使って計画し実行するモデル)に焦点を当てています。
◆ 主な特徴
● ネイティブなマルチモーダル理解
テキスト、画像、音声、動画を一度に受け取り推論できる。文書、スクリーンショット、動画の混在も可能。
● 最大 100 万トークン級の巨大コンテキスト
巨大な文書、大規模コードベース、長時間のトランスクリプトを1回のセッションで処理可能。
● エージェント性/ツール使用能力
ターミナル操作、ツール呼び出し、マルチステップタスク計画など、完全自律型エージェントを支援。Google Antigravity などの IDE に統合。
● より強力な推論とコーディング
複雑な推論、数学、コード生成で大幅な強化。
◆ Gemini 3 Pro は Gemini 2.5 Pro と比べて何が進化した?
Google が提示した性能向上(抜粋):
| ベンチマーク / タスク | Gemini 3 Pro | Gemini 2.5 Pro | 増加幅 |
|---|---|---|---|
| Humanity’s Last Exam | 37.5% | 21.6% | +15.9 |
| GPQA Diamond | 91.9% | 86.4% | +5.5 |
| AIME 2025 | 95.0% | 88.0% | +7.0 |
| AIME(コード実行あり) | 100% | — | — |
| ARC-AGI-2 | 31.1% | 4.9% | +26.2 |
| SimpleQA Verified | 72.1% | 54.5% | +17.6 |
特に複雑なマルチステップ推論、ツール使用、マルチモーダル推論で大幅に改善。
Antigravity:エージェントファースト IDE
Google は Gemini 3 Pro を基盤としたエージェント IDE「Antigravity」を公開。
エージェントはエディタ、ターミナル、ブラウザを操作し、「Artifacts」と呼ばれる実行ログを生成して再現性を確保。
これにより、実務的な開発ワークフローへの適用性が大幅に向上。
改善されたツール使用・コーディング能力
Terminal-Bench 2.0 にて 54.2% を達成し、過去の Gemini を大幅に上回る結果に。
コード生成、エラー回復、マルチステップタスクに強くなったことを示します。
◆ ベンチマークでの性能
Google が公開した主な結果:
-
LMArena:1501 Elo
-
MMMU-Pro:81%
-
Video-MMMU:87.6%
-
SimpleQA Verified:72.1%
-
WebDev Arena:1487 Elo
-
Terminal-Bench 2.0:大幅向上
-
Deep Think モード:最高難度タスクでさらに改善
2025 年後半時点で、数学・ロングコンテキスト・マルチモーダル統合で最強クラス。
◆ Gemini 3 Pro Preview の使い方
公式アクセス方法
-
Gemini アプリ
-
Google AI Studio / Gemini Developer API
-
Vertex AI(Google Cloud)
-
CometAPI(サードパーティ)
◆ Python クイックスタート(公式 SDK)
# Requires: pip install google-generativeai import os from google import genai client = genai.Client() model_id = "gemini-3-pro-preview" prompt = """ You are an assistant that writes a short Python function to fetch JSON from a URL, handle HTTP errors, and return parsed JSON or None on failure. """ resp = client.models.generate_content(model=model_id, contents=prompt) print("MODEL RESPONSE:\n", resp.text)
CometAPI を使う場合は URL とキーを変更。
◆ 高品質な出力を得るためのコツ
● Thinking モードの使用
複雑な推論・数学・コード問題でより高精度。
● Function calling
構造化された出力で幻覚を減らす。
● Web grounding
最新情報が必要な場合に有効。
◆ 実務的な利用
● コード生成
長大なリポジトリやマルチファイル推論が向上。
● 研究・STEM
Deep Think により数学・科学分析が強化。
● クリエイティブ
マルチモーダル生成と Veo/Whisk/Flow との連携。
結論:Gemini 3 Pro は他モデルを「圧倒」するか?
多くのタスクで最上位ですが、用途によって差は存在。
ただし、企業利用・開発者用途では最優先候補となりつつあります。