LLM の設定は AG2 エージェントに対して重要です – それはエージェントに思考力を与えます!LLM 設定は、エージェントが言語モデルに接続する方法を定義します。
AG2 : ユーザガイド – 基本概念 : LLM 設定 : エージェントインテリジェンスの強化
作成 : クラスキャット・セールスインフォメーション
作成日時 : 08/30/2025
バージョン : v0.9.9
* 本記事は docs.ag2.ai の以下のページを独自に翻訳した上でまとめ直し、補足説明を加えています :
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
◆ お問合せ : 下記までお願いします。
- クラスキャット セールス・インフォメーション
- sales-info@classcat.com
- ClassCatJP
AG2 : ユーザガイド – 基本概念 : LLM 設定 : エージェントインテリジェンスの強化
LLM の設定は AG2 エージェントに対して重要です – それはエージェントに思考力を与えます!LLM 設定は、以下を指定して、エージェントが言語モデルに接続する方法を定義します :
- 使用する言語モデル・プロバイダーとモデル
- プロバイダーへの認証する方法
- モデルの動作を制御するパラメータ
- 標準化された応答のためのオプションの構造化出力形式
サポートされている LLM プロバイダー
エージェントに選択肢を与えましょう!AG2 はモデルプロバイダーの印象的なラインアップと素晴らしく連携します :
- クラウドモデル : OpenAI, Anthropic, Google (Gemini), Amazon (Bedrock), Mistral AI, Cerebras, Together AI, そして Groq
- ローカルモデル : Ollama, LiteLLM, そして LM Studio
従ってクラウドベースのインテリジェンスを活用したい場合でも、ローカルマシンで物事を継続したい場合でも、AG2 が対応します。サポートされているモデルについての詳細は、AG2 Models documentation にあります。
LLM configuration の作成
AG2 を希望の LLM プロバイダーでインストールしたら、必要に応じて API タイプ、モデルとキーを含む LLM 設定オブジェクトを作成する必要があります。
AG2 で LLM 設定を作成する異なる方法があります :
方法 1: 直接パラメータの使用
最も単純なアプローチは、モデルプロバイダー、モデル名と認証を直接指定することです :
import os
from autogen import LLMConfig
llm_config = LLMConfig(
api_type="openai", # The provider
model="gpt-4o-mini", # The specific model
api_key=os.environ["OPENAI_API_KEY"], # Authentication
)
方法 2: config_list パラメータの使用
より高度なシナリオでは、特にフォールバックモデルをセットアップしたい場合、config_list パラメータを使用します。
import os
from autogen import LLMConfig
llm_config = LLMConfig(
config_list=[
{
"api_type": "openai",
"model": "gpt-4o-mini",
"api_key": os.environ["OPENAI_API_KEY"]
},
{
"api_type": "openai",
"model": "gpt-4o",
"api_key": os.environ["OPENAI_API_KEY"]
}
],
)
AG2 の LLM 設定は、LLM 設定を作成する追加の手法を提供し、フォールバックのサポートのために複数の LLM を指定し、エージェント毎にフィルタリングすることを可能にします。See the LLM Configuration deep-dive for more details.
LLM 設定をエージェントと統合する
LLM 設定を作成したら、それをエージェントに適用する 2 つの方法があります :
方法 1: キーワード引数として渡す
from autogen import ConversableAgent
my_agent = ConversableAgent(
name="helpful_agent",
system_message="You are a poetic AI assistant",
llm_config=llm_config
)
方法 2: コンテキストマネージャの使用
コンテキストマネージャのアプローチは LLM 設定を、そのスコープ内で作成されたすべてのエージェントに適用します :
from autogen import ConversableAgent
with llm_config:
finance_bot = ConversableAgent(
name="finance_bot",
system_message="You are a financial compliance assistant",
)
analysis_bot = ConversableAgent(
name="analysis_bot",
system_message="You analyze financial data for anomalies",
)
財務コンプライアンスの例: LLM 設定
理論を実践に移すときです!財務コンプライアンス・アシスタントのための頭脳をセットアップしましょう :
from autogen import LLMConfig
import os
# Basic configuration using environment variable
llm_config = LLMConfig(
api_type="openai",
model="gpt-4o-mini",
api_key=os.environ["OPENAI_API_KEY"],
temperature=0.2 # Lower temperature for more consistent financial analysis
)
コード・ウォークスルー :
- 財務ボットはコストをかけすぎずに賢さを必要としますので、OpenAI の GPT-4o-mini モデルを使用しています。好みに応じて違うモデルを使用できます。
- temperature は 0.2 に設定しました、財政コンプライアンスに関しては、創造性は望まないからです (sorry, creative accountants!)。
- セキュリティを第一として、API キーは環境変数内に保持します。
この設定は財政コンプライアンス・アシスタントに、インテリジェンス、一貫性、セキュリティの適切なバランスを与えます – これは、疑わしい取引きに対処する際にまさに望まれるものです。
以上