AI Weekly 2025-04-10
Gemini 2.5 FlashとProのリリース、Google Cloud Agent Development Kit 1.0の公開、Devin 2.0の新機能、ChatGPTのメモリー機能強化、GitHub Copilotの新モデルと機能について。
- # ChatGPTが過去の会話全てを参照可能に
- # Any-Agent
- # Agent2Agentプロトコル
- # Devin 2.0
- # GitHub Copilot in VS Code March release (v1.99)
- # Thinking tool
- # Fetch tool
- # Usages tool
- # Gemini 2.5 FlashとPro、Live API、Veo 2の一般提供開始
- # Google Cloud Agent Development Kit 1.0
- # NotebookLMがソースを検索する機能を追加
- # GitHub Copilot Pro+と複数の新モデル一般提供開始
- # Copilot code reviewの一般提供開始
- # github-mcp-serverのパブリックプレビュー開始
ChatGPTが過去の会話全てを参照可能に
日付:2025年4月10日
OpenAIはChatGPTのカスタマイズとメモリー機能を大幅に拡張しました。これにより、過去の会話全てを記憶し、その情報を基に応答を調整できるようになりました。以前の「Memory」機能は限られた数の情報のみを保持していましたが、新機能では「reference chat history」オプションにより、全ての過去の会話をコンテキストとして使用できます。
この新機能はChatGPT PlusとProユーザー向けに段階的に展開されています。Enterprise、Team、Eduユーザー向けの展開は後日予定されています。無料ユーザー向けの提供予定は現時点で発表されていません。
ユーザーはこの機能を完全に無効化することも可能で、Temporary Chat(シークレットモード)では使用されません。ただし、以前からChatGPTとの会話ログはOpenAIのサーバーに保存されていることに注意が必要です。
出展:ChatGPT can now remember and reference all your previous chats
Any-Agent
日付:2025年4月10日
Mozilla.aiがAny-Agentを発表しました。これは様々なエージェントフレームワーク(LangChain、smolagents、AWS Bedrock Agents、CrewAI、AutoGen、Agnoなど)とコードの間の抽象化レイヤーを提供する新しいライブラリです。Any-Agentを使用することで、一度エージェントを構築すれば、異なるフレームワーク間での切り替えが容易になり、フレームワーク固有の実装の詳細に依存することなく開発が可能になります。また、open-inferenceによるログの正規化もサポートされており、選択したフレームワークに関係なく一貫した出力を確認できます。
出展:Introducing Any-Agent: An abstraction layer between your code and the many agentic frameworks
Agent2Agentプロトコル
日付:2025年4月9日
Googleは異なるAIエージェント間の相互運用性を実現するAgent2Agent(A2A)プロトコルを発表しました。Atlassian、Salesforce、SAP、ServiceNowなどの主要な技術パートナーと、Accenture、Deloitte、KPMG、PwCなどの主要なサービスプロバイダーのサポートと貢献を得て開発されました。
A2Aプロトコルは以下の5つの設計原則に基づいています。
- エージェントの能力を最大限に活用
- 既存の標準(HTTP、SSE、JSON-RPC)を基盤とした実装
- デフォルトでのセキュリティ確保
- 長時間実行タスクのサポート
- モダリティに依存しない設計
このプロトコルにより、異なるベンダーやフレームワークで構築されたAIエージェント同士が安全に情報を交換し、様々なエンタープライズプラットフォームやアプリケーション上でアクションを調整できるようになります。特に、エージェントの能力発見、タスク管理、コラボレーション、ユーザー体験の交渉などの機能が実現されます。
出展:A2A: A new era of agent interoperability
Devin 2.0
日付:2025年4月3日
Devin 2.0がリリースされ、エージェントネイティブなIDE体験を提供する新しいバージョンとなりました。また、月$500ではなく$20の従量課金からの利用が可能になりました。
主な新機能として、VS Code環境でのインタラクティブな開発体験が実現され、リアルタイムでのコード編集の追跡やターミナルコマンドの自然言語からの生成(⌘K
)、素早い応答とファイル編集(⌘I
)が可能になりました。また、複数のDevinを並列で起動して複数のタスクを同時に処理できるようになり、各Devinは自律的に動作します。
コラボレーティブな計画パートナーとしての機能も強化され、タスク実行前に仕様を精緻化する支援を行います。Devin Search機能では、コードベースに関する質問に素早く回答し、Deep Modeではより詳細なコードベース探索が可能です。さらに、Devin Wikiでは、リポジトリの詳細なアーキテクチャ図、ソースへのリンク、ドキュメントなどを自動生成します。
パフォーマンス面では、内部ベンチマークでジュニア開発者のタスクの83%以上を効率的に完了できるようになり、ACU(Agent Compute Unit)の効率が大幅に向上しています。
GitHub Copilot in VS Code March release (v1.99)
日付:2025年4月3日
Visual Studio Codeの2025年3月リリース(v1.99)で、GitHub Copilotに重要なアップデートが加わりました。エージェントモードのアップグレードとして、MCPサポートの追加、APIキーによるモデルの使用、その他の機能が実装されました。
エージェントモードがVS Code stableで利用可能になり、ユーザーは段階的に利用できるようになります。最新のVS Codeバージョンに更新することで、手動でエージェントモードを有効化することも可能です。Model Context Protocol(MCP)サーバーのサポートにより、エージェントフローに数百の専門ツールから選択できるようになり、Webコンテンツの取得やシンボル参照の検索などの新しい組み込みツールも利用可能です。
ユーザーエクスペリエンスの改善として、1つのビューでask、edit、agentモードを切り替えられるようになり、Next edit suggestions(NES)が一般提供され、気を散らすことなく次の編集を提案するように最適化されました。
モデルの選択肢も拡大し、Anthropic Claude、Google Gemini、OpenAIモデルがモデルセレクターで一般提供され、Anthropic、Azure、Google Cloud、OpenAIなどのプロバイダーのAPIキーを使用して任意のモデルを選択できるようになりました。
出展:VS Code March Release v1.99
Thinking tool
Anthropicの研究に基づいて開発された思考ツールが追加され、モデルがツール呼び出しの間に思考する機会を提供します。これにより、複雑なタスクにおけるエージェントのパフォーマンスが向上し、SWE-bench評価でも改善が見られています。
この機能はgithub.copilot.chat.agent.thinkingTool
設定で有効化できます。有効化することで、エージェントが複雑なタスクを処理する際に、より深い思考プロセスを経てより正確な結果を提供できるようになります。
Fetch tool
#fetch
ツールを使用することで、公開アクセス可能なWebページのコンテンツをプロンプトに含めることができます。例えば、MCPの最新ドキュメントを取得してプロンプトで使用するなど、LLMが消費しやすい形式で情報を取得できます。このツールはヘッドレスブラウザウィンドウでページをレンダリングし、データをローカルにキャッシュするため、再レンダリングのオーバーヘッドなしに何度でもコンテンツを取得できます。
以下のような形式で使用できます。
#fetch https://example.com/documentation
または、エージェントモードでは自然言語で「このページの内容を取得して」と指示するだけで自動的に検出されます。
現在の制限として、JavaScriptが無効化されているため、JavaScriptに依存するWebサイトのコンテキスト取得は制限されています。また、認証が必要なページの取得も不可能です。これらの制限を回避するには、目的に特化したMCPサーバーやPlaywright MCPサーバーなどの汎用ブラウザMCPサーバーの使用が推奨されます。
Usages tool
#usages
ツールは「Find All References」「Find Implementation」「Go to Definition」の機能を組み合わせたものです。このツールを使用することで、関数、クラス、インターフェースに関する詳細な情報を取得できます。例えば、インターフェースのサンプル実装を探したり、リファクタリング時に変更が必要な箇所を特定したりする際に役立ちます。
エージェントモードではこれらのツールが自動的に検出されますが、他のモードでも#fetch
や#usages
を明示的に参照して使用できます。
Gemini 2.5 FlashとPro、Live API、Veo 2の一般提供開始
日付:2025年4月9日
GoogleはGemini 2.5シリーズの新モデルをリリースしました。Gemini 2.5 Proは、最も高度なコーディングモデルとして、視覚的に魅力的なWebアプリの作成やエージェントプログラミングアプリケーションの開発に優れています。また、Gemini 2.5 Flashは、低レイテンシーとコスト効率を維持しながら、思考能力を組み込んだ進化版として近日公開予定です。これらのモデルは、100万トークンの入力コンテキストウィンドウを備え、より高度なエージェントの実現やマルチエージェントシステムの管理、コードベース全体の生成的な推論の加速を可能にします。
またVeo 2がGemini APIで一般提供を開始しました。テキストや画像のプロンプトから高品質な動画を生成でき、720p解像度で24フレーム/秒の8秒までの動画クリップを生成できます。さらにLive API for Gemini modelsがプレビュー版として利用可能になり、ストリーミングオーディオ、ビデオ、テキストを低レイテンシーで処理できるようになりました。30の新しい言語と2つの新しい音声オプション、設定可能なVoice Activity Detection(VAD)、スライディングコンテキストウィンドウによる事実上無限のセッションサポートなどの機能が追加されています。
出展:Gemini 2.5 Flash and Pro, Live API, and Veo 2 in the Gemini API
Google Cloud Agent Development Kit 1.0
日付:2025年4月9日
Google Cloudはマルチエージェントアプリケーションの開発を容易にするAgent Development Kit(ADK)1.0をリリースしました。ADKは、AgentspaceやGoogle Customer Engagement Suite(CES)などのGoogle製品で使用されているフレームワークをオープンソース化したものです。
ADKは、複数の専門化されたエージェントを階層的に組み合わせて、モジュール化されたスケーラブルなアプリケーションを構築することを可能にします。GeminiやVertex AI Model Garden、LiteLLMなどを通じて様々なモデルを選択でき、検索、コード実行、Model Context Protocol(MCP)ツールなどの多様な機能を提供します。また、双方向のオーディオ・ビデオストリーミングをサポートし、ワークフローエージェント(Sequential、Parallel、Loop)やLLM駆動の動的ルーティングを提供します。強力なCLIとWeb UIによる統合開発環境を備え、エージェントのパフォーマンス評価とコンテナ化によるデプロイもサポートしています。
ADKはGoogle Cloudエコシステムと特に相性が良く、GeminiモデルやVertex AIとのシームレスな統合、100以上の事前構築済みコネクタ、Application Integrationによるワークフロー、AlloyDB、BigQuery、NetAppなどのデータソースへのアクセス、ApigeeによるAPI管理などを活用できます。
出展:Agent Development Kit: Easy to build multi-agent applications
NotebookLMがソースを検索する機能を追加
日付:2025年4月2日
Google NotebookLMが「Discover sources」機能を追加しました。この機能により、ユーザーは興味のあるトピックを記述するだけで、ウェブから関連する情報源を自動的に発見し、まとめることができます。NotebookLMは数百の潜在的なウェブソースを数秒で収集し、トピックに基づいて最も関連性の高いものを選択します。最大10個のソース推奨が表示され、それぞれにトピックとの関連性を説明する注釈付きの要約が含まれています。
ユーザーはワンクリックでこれらのソースをノートブックに追加でき、Briefing Docs、FAQs、Audio Overviewsなどの他のNotebookLM機能と組み合わせて使用できます。また、新規ユーザー向けに「I’m Feeling Curious」ボタンも追加され、ランダムなトピックに関するソースを生成して、ソース発見エージェントの動作を確認できます。この機能はGeminiを活用しており、すべてのNotebookLMユーザーに約1週間かけて段階的に展開されます。
出展:NotebookLM Discovers Sources from Around the Web
GitHub Copilot Pro+と複数の新モデル一般提供開始
日付:2025年4月4日
GitHubは開発者のコーディング体験をさらに向上させるための新しい個人向けプラン「GitHub Copilot Pro+」を発表しました。このプランでは、GitHub Copilot Proの既存機能に加えて、最新モデル(GPT-4.5が本日利用可能)への独占アクセス、プレビュー機能への優先アクセス、5月5日から利用可能になる月間1,500回のプレミアムリクエストが提供されます。これらは、ベースモデルを使用する際のエージェントモード、コンテキスト駆動型チャット、コード補完の無制限リクエストに加えて利用可能です。
また、Anthropic Claude 3.7 Sonnet、Claude 3.5 Sonnet、OpenAI o3-mini、Google Gemini Flash 2.0などの複数の新モデルがGitHub Copilotで一般提供を開始しました。これらのモデルはプレビューリリースから一般提供リリースに移行し、Copilot Chatとエージェントモードで生成されたコードに対する知的財産権侵害の補償が拡大されました。
4月8日にはDeepSeek v3.0324の一般提供も開始されました。
出展:
Copilot code reviewの一般提供開始
日付:2025年4月4日
GitHub Copilotのコードレビュー機能が一般提供を開始しました。コードレビューはソフトウェア開発において最も重要なプロセスの1つですが、手動でのレビューは時間がかかります。Copilot code reviewは、バグや潜在的なパフォーマンスの問題を発見し、修正案を提案するCopilotエージェントに基本的なレビューを任せることで、人間によるレビューを待つ間もコードの改善を進めることができます。これにより、コードリポジトリの保守性と品質を向上させることが可能になります。
パブリックプレビュー開始から1か月余りで、100万人以上の開発者がCopilot code reviewを利用し、大きな反響を得ています。Visual Studio CodeとGitHubの両方で利用可能で、リポジトリルールを通じて自動レビューを設定したり、プルリクエストに対してオンデマンドでレビューを依頼したりすることができます。
Copilot code reviewは有料Copilotユーザーが利用可能です。組織やエンタープライズでは「Copilot in github.com」ポリシーを通じて有効化できます。
出展:Copilot code review now generally available
github-mcp-serverのパブリックプレビュー開始
日付:2025年4月4日
GitHubは新しいオープンソースの公式ローカルGitHub MCP Serverをリリースしました。Anthropicと協力して、彼らのリファレンスサーバーをGoで書き直し、使いやすさを向上させました。新しいサーバーは旧サーバーの機能を100%保持しつつ、ツールの説明のカスタマイズ、コードスキャニングのサポート、そして「Show me my private repos」のような自然言語での問い合わせに対するユーザー体験を改善する新しいget_me
関数を追加しています。
VS Codeでネイティブにサポートされており、リポジトリを訪問してセットアップ方法を確認できます。