"MistralAI" (サービス接続)
このサービス接続には次が必要です:LLMアクセス »
接続と認証
ServiceConnect["MistralAI"]はMistral AI APIへの接続を確立する.それまでに保存された接続が見付かった場合は,それが使われる.それ以外の場合は,新たな認証リクエストが起動される.
リクエスト
ServiceExecute["MistralAI","request",params]は,パラメータparams を使ってMistral AI APIにリクエストを送信する.次は可能なリクエストである.
"TestConnection" — 接続が機能している場合はSuccessを,それ以外の場合はFailureを返す
テキスト
"Chat" — 与えられたチャットの会話に対する応答を作成する
| "Messages" | (必須) | 会話中のメッセージのリスト | |
| "MaxTokens" | Automatic | 生成するトークンの最大数 | |
| "Model" | Automatic | 使用するモデルの名前 | |
| "Stream" | False | 結果をサーバが送信したイベントとして返す | |
| "Temperature" | Automatic | サンプリング温度(0から1まで) | |
| "ToolChoice" | Automatic | モデルが呼び出すツール(もしあれば) | |
| "Tools" | Automatic | モデルが使用可能な,1つまたは複数のLLMToolオブジェクト | |
| "TopProbabilities" | Automatic | 最高確率の k クラスでのみサンプリングする | |
| "TotalProbabilityCutoff" | None | 累積確率が最低でも p の最も確率が高いクラスからサンプリングする(核サンプリング) |
"Embedding" — 入力テキストを表す埋込みベクトルを作成する
| "Input" | (必須) | 埋め込まれる一つのテキストまたはテキストのリスト | |
| "Model" | Automatic | 使用するモデルの名前 |
モデルリスト
例題
すべて開く すべて閉じるスコープ (4)
テキスト (3)
Chat (1)
関連項目
ServiceExecute ▪ ServiceConnect ▪ LLMFunction ▪ LLMSynthesize ▪ ChatEvaluate ▪ LLMConfiguration
サービス接続: AlephAlpha ▪ Anthropic ▪ Cohere ▪ DeepSeek ▪ GoogleGemini ▪ Groq ▪ OpenAI ▪ TogetherAI