O hirunewani blog

AI Weekly 2025-06-12

Created at

Anthropic Claude Gov防衛・情報機関向けモデル、EchoLeak Microsoft Copilotゼロクリック攻撃、Container Use Docker統計、Remote GitHub MCP Server、OpenAI o3-pro推論モデル、Visual Studio Code 1.101のAI機能について。

Table of Contents
  1. # Anthropic、防衛・情報機関向けAIモデル「Claude Gov」を発表
  2. # EchoLeak:Microsoft 365 Copilotのゼロクリック攻撃脆弱性が発見
  3. # Container Use:コーディングエージェント向けコンテナ環境ツール
  4. # Remote GitHub MCP Server がパブリックプレビューで利用可能
  5. # OpenAI、推論モデルo3-proをリリース
  6. # Visual Studio Code 1.101のAI機能強化
  7. # チャットツールセット機能でエージェントモードを効率化
  8. # MCPプロンプトサポートで再利用可能なタスクを実現
  9. # MCPリソース機能でコンテキスト管理を強化
  10. # 実験的サンプリング機能でMCPサーバーとモデルの双方向通信
  11. # MCP認証機能で安全なサーバーアクセスを実現
  12. # MCP開発モードでサーバーデバッグを効率化

Anthropic、防衛・情報機関向けAIモデル「Claude Gov」を発表

日付:2025年6月6日

Anthropicが米国国家安全保障顧客向けに特化したAIモデル「Claude Gov」を発表。最高レベルの国家安全保障機関で既に導入済み、機密環境で運用する組織のみがアクセス可能。

Claude Govモデルは政府顧客からの直接的なフィードバックに基づいて構築され、実際の運用ニーズに対応。機密資料の処理能力向上、情報・防衛分野での文書理解強化、国家安全保障業務に重要な言語・方言への対応強化、サイバーセキュリティデータの解析・解釈能力向上を実現。

戦略計画、運用支援、情報分析、脅威評価など幅広い用途での活用を想定。Anthropicの安全性と責任あるAI開発への取り組みを維持しながら、機密環境の特殊要件に対応した専用モデルとして提供。

出展:Claude Gov Models for U.S. National Security Customers

EchoLeak:Microsoft 365 Copilotのゼロクリック攻撃脆弱性が発見

日付:2025年6月11日

Aim LabsがMicrosoft 365 Copilotに対する重大なゼロクリック攻撃脆弱性「EchoLeak」を発見し、MicrosoftのMSRCチームに報告。ユーザーの操作なしに機密情報を自動的に窃取可能な、主要なAIアプリケーションで発見された初のゼロクリック脆弱性として注目。

この攻撃は「LLM Scope Violation」と呼ばれる新しい攻撃技術を使用し、RAGベースのチャットボットやAIエージェントに共通する設計上の欠陥を悪用。攻撃者は制限なく単純にメールを送信するだけで、M365 CopilotのコンテキストからMicrosoft Graph経由でアクセス可能な全ての機密情報を自動的に抽出できる。

出展:EchoLeak - Microsoft 365 Copilot Vulnerability

Container Use:コーディングエージェント向けコンテナ環境ツール

日付:2025年6月9日

Docker創業者でDagger社創業者兼CTOのSolomon Hykes氏が、コーディングエージェント向けのオープンソースツール「Container Use」を公開。すべてのコーディングエージェントに対して独立した開発用コンテナ環境を提供し、分離された安全な作業環境を実現。

Container UseはMCPサーバとして実装され、MCPに対応したすべてのコーディングエージェントから利用可能。ブランチごとに新しいコンテナ環境が用意されるため、マルチエージェント環境でも相互に影響せずに処理を実行できる。

主要機能として、開発者環境との完全分離、リアルタイムなコマンドヒストリとログの可視化、人間による直接介入機能、git checkoutによるコーディング参照機能を提供。Claude Code、Cursor、VS Code/GitHub Copilot、Kilo Code、gooseなどでの設定例がドキュメント化されている。

出展:すべてのコーディングエージェントに独立した開発用コンテナ環境を与えられる「Container Use」、Docker創業者がオープンソースで公開

Remote GitHub MCP Server がパブリックプレビューで利用可能

日付:2025年6月12日

GitHubがRemote GitHub MCP Serverをパブリックプレビューとして公開。GitHub Copilot、Claude Desktop、その他のAIツールがModel Context Protocol(MCP)を通じてGitHubのライブコンテキストとツールにシームレスにアクセス可能に。

Remote GitHub MCP Serverは摩擦のないセットアップを提供し、ローカルインストールやランタイムが不要。VS CodeでワンクリックインストールまたはリモートサーバーURLをMCP対応ホストに貼り付けるだけで利用開始できる。OAuth 2.0による安全な認証をサポートし、Personal Access Token(PAT)もフォールバックとして利用可能。

{
  "servers": {
    "github-remote": {
      "type": "http",
      "url": "https://api.githubcopilot.com/mcp/"
    }
  }
}

Issues、Pull Request、コードファイルなどのGitHubデータにリアルタイムでアクセスし、よりスマートで動的なエージェントワークフローを実現。自動更新機能により、ローカルOSS版と同じコードベースで最新の改善を自動的に取得。現在VS CodeとVisual Studioで利用可能で、JetBrains、Xcode、Eclipseでのリモートサーバーサポートも近日提供予定。

出展:Remote GitHub MCP Server is now in public preview

参考:GitHub MCP Server

OpenAI、推論モデルo3-proをリリース

日付:2025年6月10日

OpenAIが最も高性能な推論モデル「o3-pro」をリリース。従来のo1-proに代わってChatGPT ProとTeamユーザー向けに提供開始、Enterprise・Eduユーザーは翌週から利用可能。開発者API経由でも同日午後から利用開始。

o3-proは既存のo3モデルの強化版で、物理学、数学、コーディング分野で段階的な問題解決を行う推論モデル。またWeb検索、ファイル解析、視覚入力推論、Python実行、メモリ活用によるパーソナライゼーションなど豊富なツールアクセスが可能。

ただし制限として、o1-proより応答時間が長く、一時的にChatGPTでの一時チャット機能が無効、画像生成とCanvas機能は未対応。API価格は入力トークン100万あたり20ドル、出力トークン100万あたり80ドル。

出展:OpenAI Model Release Notes

Visual Studio Code 1.101のAI機能強化

日付:2025年6月12日

Visual Studio Code 1.101でAI関連機能が大幅に強化。Model Context Protocol(MCP)サポートの拡張により、プロンプト、リソース、サンプリング機能を追加し、エージェントコーディングフローを拡張。

出展:Visual Studio Code 1.101

チャットツールセット機能でエージェントモードを効率化

関連ツールをグループ化して管理できるツールセット機能を導入。UIまたはAPIでツールセットを定義し、#toolsetnameでメンション参照が可能。エージェントモードでのツール有効化/無効化も簡単に実行でき、GitHub通知管理などの特定タスクに最適化されたツール群を効率的に利用。

{
  "gh-news": {
    "tools": ["list_notifications", "dismiss_notification", "get_notification_details"],
    "description": "Manage GH notification",
    "icon": "github-project"
  }
}

MCPプロンプトサポートで再利用可能なタスクを実現

MCPサーバーが定義した再利用可能なスニペットやタスクを/mcp.servername.promptname形式でチャットから利用可能。プレーンテキストやコマンド出力をプロンプト変数に含めることができ、サーバーが提供する場合は補完機能もサポート。

MCPリソース機能でコンテキスト管理を強化

MCPツール呼び出しから返されるリソースをモデルが利用でき、チャットでの保存やExplorerビューへのドラッグ&ドロップが可能。「Add Context…」ボタンからMCPリソースをコンテキストとして添付でき、「MCP: Browse Resources」コマンドでサーバー間のリソース閲覧も実現。

実験的サンプリング機能でMCPサーバーとモデルの双方向通信

MCPサーバーがモデルにリクエストを送信可能な実験的機能を追加。初回確認後、「MCP: List Servers」でアクセス可能なモデル設定とリクエストログを管理でき、将来的な拡張と改善を予定。

MCP認証機能で安全なサーバーアクセスを実現

MCP認証仕様に対応し、GitHubやEntraを活用したMCPサーバーのアカウント管理を提供。動的クライアント登録、コード認証フローとデバイスコードフローをサポートし、「Authentication: Remove Dynamic Authentication Providers」コマンドで認証プロバイダーの管理も可能。

MCP開発モードでサーバーデバッグを効率化

MCPサーバーの開発モードを追加し、ファイル変更監視による自動再起動とデバッグ機能を提供。現在Node.jsとPythonサーバーのデバッグに対応し、devキーでwatchパターンとdebug設定を指定可能。

.vscode/mcp.json

{
  "servers": {
    "gistpad": {
      "command": "node",
      "args": ["build/index.js"],
      "dev": {
        "watch": "build/**/*.js",
        "debug": { "type": "node" }
      }
    }
  }
}