O hirunewani blog

AI Weekly 2025-07-10

Created at

Gemini API Batch Modeの50%割引提供、GitHub Copilot新機能、T5Gemma・MedGemmaリリース、Mercury diffusion LLM、LM Studio商用利用無料化について。

Gemini API Batch Mode、50%割引で大量処理に対応

日付:2025年7月7日

GoogleがGemini APIにBatch Modeを導入した。高スループット、レイテンシーが重要でないワークロード向けの新しい非同期エンドポイントで、同期APIと比較して50%割引で提供される。

24時間以内に結果を取得可能で、より高いレート制限を提供。複雑なクライアントサイドキューイングや再試行ロジックが不要。全リクエストを単一ファイルにパッケージ化し、ジョブを送信、完了後に結果を取得する簡単なワークフロー。

対応モデルはGemini 2.5 FlashとGemini 2.5 Pro。Google GenAI Python SDKで利用可能。

uploaded_batch_requests = client.files.upload(file="batch_requests.json")
batch_job = client.batches.create(
    model="gemini-2.5-flash",
    src=uploaded_batch_requests.name,
    config={'display_name': "batch_job-1"}
)

出展:Batch Mode in the Gemini API: Process more for less

GitHub Copilot Chatの新機能が一般提供開始

日付:2025年7月9日

GitHub Copilot Chatのパブリックプレビュー中だった機能がgithub.com上の全ユーザーに一般提供開始された。インスタントプレビュー、柔軟な編集、issue管理、改善された添付機能、モデル選択などを含む。

  • Rich file interactions:サイドパネルでの生成ファイル表示・編集が可能。HTML、Markdown、Mermaidダイアグラムの「Preview」タブでのプレビュー機能とissue表示機能を提供。
  • Message threading:メッセージの編集による改良、異なるモデルを使用したレスポンスの再読み込み、1つの場所でのすべてのスレッド追跡が可能。
  • Enhanced attachments:大きなテキストブロックをワンクリックで添付ファイルに変換。

出展:New Copilot Chat features now generally available on GitHub

GitHub MCP serverからCopilot coding agentへのタスク委譲が可能に

日付:2025年7月9日

GitHub MCP serverにCopilot coding agentにタスクを委譲する新しいツールが追加された。バックグラウンドでの作業実行により、開発者のワークフローを中断することなくタスクを処理可能。

任意のMCP hostアプリケーションからCopilotでタスクを開始でき、github.com、GitHub Mobile、GitHub CLI、GitHub Copilot Chatと並んで利用可能。リモートMCP serverサポートがあるIDEまたはagentic coding toolにリモートGitHub MCP serverをインストールして使用。

チャットでCopilotにpull request作成を依頼し、開発者は他の作業を継続。Copilotがバックグラウンドで作業し、pull requestがレビュー準備完了時に通知。ルーチンタスクをCopilotに委譲し、より重要な作業に集中できる開発体験を提供。

出展:Delegate tasks to Copilot coding agent from the GitHub MCP server

GitHub MobileでCopilot code reviewが一般提供開始

日付:2025年7月8日

GitHub MobileアプリでCopilot code reviewが一般提供開始された。バグの識別、潜在的なパフォーマンス問題の検出、修正提案の提供により、基本的なレビューをAIエージェントに委譲可能。

GitHub Mobileアプリで任意のオープンなpull requestにアクセスし、Copilotレビューをリクエスト。Copilotが生成したコメントを確認し、変更、問題修正、またはpull requestのマージを決定。全てモバイルデバイスから実行可能。

有料Copilot購読者全員が利用可能。組織がgithub.comでCopilot code reviewを有効にしている場合、GitHub Mobileで自動的に利用可能。デスクでも外出先でもプロジェクトを継続でき、時間のかかるコードレビュープロセスを効率化。

出展:Copilot code review now generally available on GitHub Mobile

T5Gemma、encoder-decoderアーキテクチャの新しいGemmaモデルコレクション

日付:2025年7月9日

GoogleがT5Gemmaを発表した。decoder-onlyモデルからencoder-decoderアーキテクチャへの変換技術「model adaptation」を使用した新しいGemmaモデルコレクション。Gemma 2フレームワークをベースに、適応済みGemma 2 2B・9Bモデルと新しく訓練されたT5サイズモデル(Small、Base、Large、XL)を提供。

Hugging FaceKaggleでモデル重みをダウンロード可能。Colabノートブックでの探索・ファインチューニング、Vertex AIでの推論実行に対応。

出展:T5Gemma: A new collection of encoder-decoder Gemma models

補足:decoder-only/encoder-decoderとは、Transformerアーキテクチャの種類であり、分類や分析に適したEncoder-Only(BERTなど)、生成に適したDecoder-Only(GPTなど)、その両方に適しているが計算コストの高いEncoder-Decoder(T5など)がある。

MedGemma、医療AI開発向けマルチモーダルモデル

日付:2025年7月9日

GoogleがMedGemmaコレクションに2つの新しいモデルを追加した。MedGemma 27B Multimodalは複雑なマルチモーダルと縦断的電子健康記録の解釈をサポート。MedSigLIPは分類、検索、関連タスク用の軽量画像・テキストエンコーダー(400Mパラメーター)。

MedGemma 4B MultimodalはMedQAで64.4%のスコアを記録し、8B未満のオープンモデル中で最高クラス。胸部X線レポートの81%が米国認定放射線科医により十分な精度と判定。MedGemma 27BはMedQAで87.7%のスコアを記録し、DeepSeek R1との差は3ポイント以内で推論コストは約10分の1。

オープンモデルの利点として、専用ハードウェアでの実行、ファインチューニングによる最適化、スナップショット配布による安定性を提供。DeepHealthが胸部X線トリアージ、Chang Gung Memorial Hospitalが繁体字中国語医学文献、Tap Healthが進捗ノート要約で活用。

Hugging FaceとGitHubで利用可能。Vertex AIで専用エンドポイントとして展開可能。

出展:MedGemma: Our most capable open models for health AI development

FastlyとTollBitがAI bot traffic制御・収益化ソリューションを提供

日付:2025年7月1日

FastlyとTollBitがAI bot trafficの制御と収益化を可能にする統合ソリューションを発表した。AI botが全トラフィックの3分の1以上を占める中、パブリッシャーやコンテンツプロバイダーが同意と補償なしにコンテンツを取得されることを防ぐ。

Fastly AI Bot Managementの高度なbot検出機能とTollBitの検証・分析プラットフォームを組み合わせ。AI botを検出・分類し、TollBit Bot Paywall(無料で設定可能なサブドメイン)にリダイレクト。有効なトークンを持つbotにはコンテンツアクセスを許可し、その他のAI botには支払いを要求。

実装は既存のFastlyインフラストラクチャを活用し、追加のレイテンシなしで人間の訪問者には透明。カスタマイズ可能なbot検出、柔軟な実施レベル、包括的な分析ダッシュボードを提供。パブリッシャーは無料でTollBitにサインアップし、数分でAI bot trafficの収益化を開始可能。

出展:How to Control and Monetize AI Bot Traffic Using Fastly and TollBit

LM Studio、商用利用が無料化

日付:2025年7月8日

LM Studioが商用利用を無料化した。LM Studioはローカル環境でLarge Language Modelを実行するためのデスクトップアプリケーションで、外部サーバーに依存せず完全にプライベートな環境でAIモデルを利用可能。

これまで個人利用のみ無料だったが、企業や組織での利用に商用ライセンスが必要だった制限を撤廃。チームでの利用時に別途連絡や手続きが不要になり、導入の摩擦を大幅に削減。

2023年5月のローンチから2年間で数百万ダウンロード、数十の企業導入を達成。職場でのAI実験や初期探索を可能にし、ローカルAIをより身近で有用なものにするという使命に沿った変更。

今週中にチーム向けパブリックHub組織機能を無料提供開始。SSO、モデル・MCPゲーティング、プライベートコラボレーションが必要な企業向けにはEnterprise planを提供。Fortune 500企業、大学、グローバル組織で導入済み。今月中にはチーム内でのプライベート共有を可能にするTeams planを自己サービスで提供予定。

出展:LM Studio is free for use at work