Copilot CLI、BYOK とローカルモデル対応
GitHub Copilot CLI が BYOK(Bring Your Own Key)とローカルモデルに対応した。GitHub がホストするモデルルーティングを介さずに、利用者が指定したプロバイダへ直接接続して、同じエージェント的なターミナル体験を維持できる。
- Azure OpenAI、Anthropic、OpenAI Chat Completions API 互換のエンドポイントに接続できる。ローカル実行の例として Ollama、vLLM、Foundry Local も挙げられている。
COPILOT_OFFLINE=trueでオフラインモードを有効化できる。オフラインモードでは GitHub のサーバーへ接続せず、テレメトリも無効化され、設定したプロバイダとのみ通信する。- BYOK 利用時は GitHub 認証が必須ではなくなった。一方で、
/delegate、GitHub Code Search、GitHub MCP server など GitHub 側の機能は GitHub 認証が必要で、BYOK と GitHub 認証を併用すると両方を使える。 - モデル側は tool calling と streaming をサポートする必要があり、コンテキスト長は 128k トークン以上が推奨されている。
環境変数でプロバイダとモデルを設定して起動する。
bash
export COPILOT_PROVIDER_BASE_URL="https://example.com/v1"
export COPILOT_PROVIDER_TYPE="openai" # openai | azure | anthropic
export COPILOT_PROVIDER_API_KEY="..."
export COPILOT_MODEL="YOUR-MODEL-ID"
copilot設定の雛形は copilot help providers でも確認できる。