CometLLM クラスを提供しています。これを使うことで、CometAPI のカタログ内の任意のモデルを用いて、RAG パイプライン、エージェント、LLM チェーンを構築できます。
前提条件
- Python 3.8+
- 有効な API キーを持つ CometAPI アカウント — こちらから取得
ヒントとトラブルシューティング
ヒントとトラブルシューティング
- モデル: 利用可能なすべてのオプションは CometAPI Models ページ を参照してください。
- 他のモデルを使う: 別の現在のモデル ID を指定して初期化します。例:
CometLLM(api_key=api_key, model="your-model-id", max_tokens=1024)。 - ファインチューニング(Fine-tuning):
temperatureとmax_tokensをCometLLM(...)に直接渡せます。 - エラーハンドリング: キーのエラーやネットワークの問題を捕捉するため、呼び出しを
try/exceptでラップしてください。 - セキュリティ: API キーをバージョン管理にコミットしないでください。環境変数を使用してください。
- 詳細ドキュメント: LlamaIndex documentation — CometAPI クイックスタート — Colab example