O hirunewani blog

AI Weekly 2025-05-22

Created at

Google I/O 2025でのAI発表ラッシュ、Claude 4リリース、GitHub Copilot強化、OpenAI Codex登場など、AIエージェントとマルチモーダル生成の大幅進展

Table of Contents
  1. # Devin 2.1リリース、Confidence Scoresと強化されたcodebase intelligence
  2. # DeepWiki MCP Serverリリース
  3. # GitHub CopilotでのIssue作成機能がPublic Previewで利用可能に
  4. # GitHub Copilot Coding Agentがパブリックプレビューで利用可能に
  5. # Claude 4(Opus 4 / Sonnet 4)リリース
  6. # Claude 4プロンプトエンジニアリング ベストプラクティス
  7. # Claude Code GitHub Actions公開
  8. # OpenAI Responses API、MCP連携やツール呼び出しなど新機能
  9. # OpenAI Codexリリース、クラウドベースのAIコーディングエージェント
  10. # NotebookLMモバイルアプリがiOS・Android向けにリリース
  11. # Gemma 3n preview発表、モバイルファーストのオープンソースAIモデル
  12. # Gemini Diffusion、拡散型言語モデルが発表
  13. # Gemini APIに大幅な機能拡張が追加
  14. # Google Jules、自律型コーディングエージェントがパブリックベータで提供開始
  15. # Google Stitch、プロンプトと画像からUI設計とフロントエンドコードを生成
  16. # Veo 3、Imagen 4、Flowなど最新メディア生成モデルが発表
  17. # Google AI Ultra、最高レベルのAI機能を統合したサブスクリプションプラン発表

Devin 2.1リリース、Confidence Scoresと強化されたcodebase intelligence

日付:2025年5月15日

Devin 2.1がリリースされ、AIコーディングエージェントの過信問題を解決するConfidence Scores(🟢 🟡 🔴)機能を追加。セッション開始時、プラン作成後、コードに関する質問回答時に信頼度を表示し、🟢でない場合はユーザー承認を待ってから実行する。DeepWikiのcodebase理解機能が直接統合され、セッション中いつでも質問可能に。LinearとJiraとの統合も強化され、複数issueの信頼度を一括取得できる。

  • Confidence Scoresでタスク完了可能性を表示
  • 🟡や🔴の場合はユーザー承認を待機、🟢は自動進行
  • DeepWikiがDevinに直接統合、codebase intelligenceを強化
  • !askコマンドでcodebase scanを手動トリガー可能
  • LinearとJira統合でmultiple issuesの信頼度を一括評価
  • データでConfidence ScoresとSuccessの高い相関性を確認

出展:Devin Release Notes

DeepWiki MCP Serverリリース

日付:2025年5月22日

DevinがDeepWiki MCP Serverをリリース。Model Context Protocol(MCP)標準を使用してAIアプリケーションにDeepWikiのリポジトリドキュメントと検索機能へのprogrammatic accessを提供。3万以上のオープンソースリポジトリに対応し、無料かつ認証不要でAIエージェントとの連携が可能。

  • MCP標準でAIアプリケーションとの統合が可能
  • リポジトリドキュメントと検索機能にprogrammatic access
  • 3万以上のオープンソースリポジトリに対応
  • 無料提供、認証不要
  • AIエージェントの外部連携を標準化

次のURLからアクセス可能。

  • SSE(Server-Sent Events)https://mcp.deepwiki.com/sse
  • Streamable HTTPhttps://mcp.deepwiki.com/mcp

次のツールを利用できる。

  • read_wiki_structure:GitHubリポジトリのドキュメントトピックリストを取得
  • read_wiki_contents:GitHubリポジトリのドキュメントを表示
  • ask_question:GitHubリポジトリについてAI回答を取得

出展:

GitHub CopilotでのIssue作成機能がPublic Previewで利用可能に

日付:2025年5月19日

GitHubがCopilotを使用したIssue作成機能をパブリックプレビューで提供開始。自然言語での記述やスクリーンショットから詳細なバグレポートを自動生成し、手動での繰り返し作業を大幅に削減。複数のIssueを一度に作成でき、リポジトリの標準に適したテンプレートの提案も行う。新しいGitHub Copilot coding agentへの割り当ても可能。

  • 自然言語での記述からIssue formを自動生成
  • スクリーンショットから詳細なバグレポートを作成
  • リポジトリ標準に適したテンプレートを提案
  • 複数のIssueを一度に作成可能
  • GitHub Copilot coding agentへの直接割り当て
  • 作成前のチャットによる内容調整が可能

利用方法:

  1. Copilot Chatのimmersive modeに移動
  2. “Create me an issue for…”で開始してIssueを記述
  3. 内容を確認・調整して「Create」をクリック

出展:Creating issues with Copilot on github.com is in public preview

GitHub Copilot Coding Agentがパブリックプレビューで利用可能に

日付:2025年5月19日

GitHubがMicrosoft Build 2025でGitHub Copilot Coding agentを発表。VS Codeから直接アクセス可能で、GitHub Actionsを活用した安全でカスタマイズ可能な開発環境を提供。GitHub IssueをCopilotに割り当てるとエージェントが作業を開始し、Draft pull requestに変更をpush、開発者は進捗を追跡しフィードバックを提供可能。

  • GitHub Actionsによるセキュアでカスタマイズ可能な開発環境
  • Model Context Protocol(MCP)で外部データとの連携が可能
  • Branch protectionsとControlled internet accessでセキュリティ確保
  • Pull requestsには人間の承認が必要でCI/CD保護を強化
  • 低〜中程度の複雑さタスクに優れた性能を発揮
  • Copilot Enterprise and Copilot Pro+ユーザー向けにプレビュー提供

利用方法:

  1. 公式ドキュメントに従いCoding AgentにRepositoryへのアクセスを許可
  2. IssueでCopilotをアサイン

出展:GitHub Introduces Coding Agent For GitHub Copilot

Claude 4(Opus 4 / Sonnet 4)リリース

日付:2025年5月22日

AnthropicがClaude 4ファミリー(Opus 4、Sonnet 4)を発表。Opus 4は世界最高水準のコーディング性能と長時間タスク持続力を持ち、SWE-benchやTerminal-benchでトップスコアを記録。Sonnet 4も従来比で大幅に性能向上。両モデルともツール利用やメモリ機能が強化され、複雑なエージェントタスクや長期的な文脈保持が可能。

  • Opus 4は複雑なコーディングや長時間のエージェントタスクで従来モデルを大幅に上回る
  • Sonnet 4は即時応答と高精度な指示追従を両立
  • Claude Codeが一般提供、VS CodeやJetBrainsと連携しペアプロ開発を支援
  • 新APIでコード実行、MCP連携、ファイルAPI、プロンプトキャッシュなどを提供
  • Sonnet 4の価格は従来モデルと同等、Opus 4はSonnet 4の約5倍

既にGitHub CopilotCursorでの利用が可能。

出展:Introducing Claude 4

Claude 4プロンプトエンジニアリング ベストプラクティス

日付:2025年5月22日

Claude 4(Opus 4 / Sonnet 4)向けのプロンプトエンジニアリング手法が公式ドキュメントで公開。明確かつ具体的な指示、文脈や動機の明示、例示の活用が推奨されている。出力フォーマット制御や思考プロセスの誘導、ツールの並列実行促進、エージェントコーディング時の一時ファイル管理、フロントエンド生成時の明示的な要望追加など、Claude 4の特性を活かすための具体的なテクニックがまとめられている。

  • 明確で具体的な指示が高品質な出力につながる
  • 文脈や目的を説明すると精度が向上
  • 例や詳細を明示し、望ましい挙動を促す
  • 出力フォーマットの制御には「~するな」ではなく「〜せよ」形式、XMLタグ指定が有効
  • 複数ツールの並列実行は明示的に促すと成功率が向上
  • 一時ファイルの自動削除指示でエージェントの後片付けも可能
  • フロントエンド生成時は「全力で」「詳細に」などの修飾語が有効

出展:Claude 4 prompt engineering best practices

Claude Code GitHub Actions公開

日付:2025年5月22日

Claude CodeがGitHub Actionsに対応し、AIによる自動PR作成・コード実装・バグ修正・レビューが可能に。@claudeをissueやPRコメントで呼び出すだけで、コード生成や修正、プロジェクト標準に沿った実装を自動化できる。CLAUDE.mdによるプロジェクト固有ルールの反映や、APIキー・許可コマンドのセキュアな管理、コスト最適化のための細かな設定も可能。AWS BedrockやGoogle Vertex AIとの連携にも対応。

  • @claudeコメントでPR作成・バグ修正・実装支援などを自動化
  • CLAUDE.mdでコーディング規約やレビュー基準を指定可能
  • APIキーや許可コマンドはGitHub Secretsで安全に管理
  • コスト最適化やセキュリティ強化のための詳細設定に対応
  • AWS BedrockやGoogle Vertex AI経由の利用もサポート

リポジトリ:anthropics/claude-code-action

出展:GitHub Actions - Authropic

OpenAI Responses API、MCP連携やツール呼び出しなど新機能

日付:2025年5月22日

OpenAIがResponses APIの新機能を発表。MCP(Model Context Protocol)連携やツール呼び出し、プロンプトキャッシュ、ストリーミング対応など、エージェント用途や大規模アプリケーション向けの拡張が中心。API経由での外部ツール連携や、長時間・大規模な対話セッションの効率化が可能になった。

  • MCP連携で外部ツールやサーバーとの柔軟な連携が可能
  • プロンプトキャッシュで同一内容のリクエストを効率化
  • ストリーミング対応で応答速度が向上
  • エージェント用途や大規模アプリ向けの拡張が中心

出展:New tools and features in the Responses API

OpenAI Codexリリース、クラウドベースのAIコーディングエージェント

日付:2025年5月16日

OpenAIがソフトウェア開発用AIエージェント「Codex」のリサーチプレビュー版をリリース。o3推論モデルを最適化したcodex-1を搭載し、クラウド上の隔離された仮想コンピューター環境で動作。複数のタスクを並行処理でき、1〜30分で機能開発やバグ修正、テスト実行を完了する。ChatGPT Pro、Enterprise、Teamユーザー向けに提供開始、PlusとEduユーザーへの提供も近日予定。

  • クラウドベースの仮想コンピューター環境で隔離実行
  • GitHubリポジトリと連携、コードベースを事前ロード
  • AGENTS.mdファイルによるプロジェクト固有設定が可能
  • SWE-Bench Verifiedで約80%の精度を達成
  • 複数タスクの並行処理と進捗のリアルタイム確認
  • セキュリティを重視、インターネットアクセスは無効化

出展:Introducing Codex

NotebookLMモバイルアプリがiOS・Android向けにリリース

日付:2025年5月19日

GoogleがNotebookLMのモバイルアプリをiOSとAndroid向けにリリース。外出先でのAudio Overviews視聴、リアルタイムでの質問、ブラウジング中の直接共有が可能に。オフライン再生やバックグラウンド再生に対応し、地下鉄やデータ通信制限時でも利用できる。任意のアプリからWebサイト、PDF、YouTube動画をNotebookLMに直接共有可能。

出展:Understand anything, anywhere with the new NotebookLM app

Gemma 3n preview発表、モバイルファーストのオープンソースAIモデル

日付:2025年5月20日

GoogleがGemma 3n previewを発表。モバイルデバイス向けに最適化されたオープンソースAIモデルで、Per-Layer Embeddings(PLE)によりRAM使用量を大幅削減。5Bと8Bパラメータながら2Bと4B相当のメモリフットプリント(2GB・3GB)を実現。音声、テキスト、画像のマルチモーダル対応でオフライン動作が可能。Qualcomm、MediaTek、Samsung System LSIと連携して開発され、次世代Gemini Nanoの基盤技術となる。

出展:Announcing Gemma 3n preview: powerful, efficient, mobile-first AI

Gemini Diffusion、拡散型言語モデルが発表

日付:2025年5月22日

Googleが新しい実験的研究モデル「Gemini Diffusion」を発表。ランダムノイズからコヒーレントなテキストやコードを生成するSOTA(State-of-the-Art)のText diffusion modelで、画像・動画生成モデルと同様の仕組みを採用。従来の最速モデルよりも大幅に高速化を実現しながら、コーディング性能は同等レベルを維持。実験デモが公開され、ウェイトリストに登録可能。

出展:Gemini Diffusion

Gemini APIに大幅な機能拡張が追加

日付:2025年5月23日

Google I/O 2025でGemini APIに多数の新機能と改良が発表された。新モデルの追加、思考プロセスの可視化、ツール連携強化、動画理解向上など、開発者向けの大幅な機能拡張が実施。特にエージェント開発やマルチモーダル対応、リアルタイム生成機能が大幅に強化された。

APIで利用できる新しいモデル:

  • Gemini 2.5 Flash Preview (05-20版):推論・コード・長文対応が向上、LMarenaで#2位を獲得
  • Gemini 2.5 Pro/Flash TTS:24言語対応、複数話者での音声生成が可能
  • Gemini 2.5 Flash native audio dialog:Live API経由で30以上の音声、24言語での対話が可能
  • Lyria RealTime:WebSocketsでリアルタイム音楽生成、PromptDJ-MIDIアプリで体験可能
  • Gemini 2.5 Pro Deep Think:複雑な数学・コーディング問題向けの実験的推論モード

APIの新機能:

  • Thought summaries:モデルの思考プロセスを要約して可視化
  • Thinking budgets:思考量を制御して性能・レイテンシ・コストをバランス調整
  • URL Context tool:リンクから追加コンテキストを取得、Google検索との併用可能
  • Computer use tool:Project Marinerのブラウザ制御機能をAPI経由で提供
  • Structured outputs強化:JSON Schemaの$refやtuple構造定義をサポート
  • Video understanding改良:YouTube URL対応、動画クリッピング、可変FPS(0.1-60fps)、3段階解像度選択
  • Async function calling:Live APIでバックグラウンド関数実行中も会話継続可能
  • Batch API:最大24時間処理、通常APIの半額、高いレート制限

出展:Gemini API I/O updates

Google Jules、自律型コーディングエージェントがパブリックベータで提供開始

日付:2025年5月20日

GoogleがGoogle Labsで開発していた自律型コーディングエージェント「Jules」をパブリックベータで提供開始。ウェイトリスト不要で世界中で利用可能(Geminiモデル利用可能地域)。既存リポジトリと直接統合し、セキュアなGoogle Cloud VM上にリポジトリをクローンして非同期でタスクを実行。プライベートコードでの学習は行われず、データは実行環境内で隔離。モデルはGemini 2.5 Proが利用される。

出展:Build with Jules, your asynchronous coding agent

Google Stitch、プロンプトと画像からUI設計とフロントエンドコードを生成

日付:2025年5月20日

GoogleがGoogle Labsの実験的プロジェクトとして「Stitch」を発表。Gemini 2.5 Proのマルチモーダル機能を活用し、自然言語プロンプトや画像入力から複雑なUI設計とフロントエンドコードを数分で生成。ホワイトボードスケッチ、スクリーンショット、ワイヤーフレームから対応するデジタルUIを作成でき、複数バリエーションでの高速イテレーションも可能。生成されたデザインはFigmaに直接貼り付けてコラボレーションでき、クリーンで機能的なHTML/CSS/JavaScriptコードも自動出力。stitch.withgoogle.comでアクセス可能。

出展:From idea to app: Introducing Stitch, a new way to design UIs

Veo 3、Imagen 4、Flowなど最新メディア生成モデルが発表

日付:2025年5月21日

GoogleがI/O 2025で最新のメディア生成モデルが発表。Veo 3は初の音声付き動画生成を実現し、Imagen 4は2K解像度での高品質画像生成が可能。新しいAI映像制作ツールFlowや音楽生成のLyria 2も発表され、クリエイティブ業界向けの包括的なソリューションを提供。全てのコンテンツにSynthIDによる電子透かしを付与し、AI生成コンテンツの識別を支援するSynthID Detectorも公開。

Veo 3:音声付き動画生成を初実現。街中の交通音、鳥のさえずり、キャラクター対話なども生成可能。リップシンクや物理法則を正確に反映し、米国のUltraユーザー、Geminiアプリ、Flow、Vertex AIで利用開始。

Veo 2新機能:参照画像による動画生成、カメラコントロール(回転・ズーム設定)、アウトペインティング(フレーム拡張)、オブジェクトの追加・削除機能を追加。

Flow:Veo向けAI映像制作ツール。キャラクター、シーン、スタイルの細かい制御で映画のような作品を制作可能。

Imagen 4:最大2K解像度での高品質画像生成、文字表現・タイポグラフィ機能が大幅向上。Geminiアプリ、Whisk、Vertex AI、Google Workspaceで利用可能。近日中にImagen 3比で最大10倍高速な版をリリース予定。

Lyria 2:Music AI Sandboxでの高度な楽曲制作ツール。Lyria RealTimeによるリアルタイム音楽生成もAPI経由とAI Studioで提供。

SynthID Detector:AI生成コンテンツ識別を支援する検証ポータルサイトを公開。SynthIDによる電子透かしの有無を確認可能。

出展:想像力を広げる最新のメディア生成モデルとツール

Google AI Ultra、最高レベルのAI機能を統合したサブスクリプションプラン発表

日付:2025年5月20日

GoogleがGoogle AI Ultraを発表。映画製作者、開発者、クリエイティブプロフェッショナル向けの最高レベルAIサブスクリプションプラン。月額$249.99(米国、初回3か月は50%オフ)で、最高の使用制限と最先端モデルへのアクセスを提供。Gemini、Flow、Whisk、NotebookLM、Project Mariner、YouTube Premium、30TBストレージを統合し、従来のGoogle AI Premium(現Google AI Pro)を大幅に上回る包括的なAIサービスパッケージを実現。

  • Gemini:最高使用制限、Deep Research、Veo 2/3動画生成、Deep Think早期アクセス
  • Flow:AI映像制作ツール、1080p動画生成、高度カメラコントロール、Veo 3早期アクセス
  • Whisk:Whisk Animateで画像を8秒動画に変換(Veo 2使用)
  • NotebookLM:最高使用制限と強化モデル機能
  • Chrome内Gemini:ブラウザ内直接アクセス(早期アクセス)
  • Project Mariner:10タスク同時管理可能なエージェント研究プロトタイプ
  • YouTube Premium:広告なし視聴・オフライン再生
  • ストレージ:30TB(Google Photos、Drive、Gmail対応)

既存のAI PremiumプランはGoogle AI Proに改名され、FlowとChrome内Geminiアクセスが追加。

出展:Introducing Google AI Ultra: The best of Google AI in one subscription