"TogetherAI" (サービス接続)
このサービス接続には次が必要です:外部アカウント »
接続と認証
ServiceConnect["TogetherAI"]はTogether AI APIへの接続を確立する.それまでに保存された接続が見付かった場合は,それが使われる.それ以外の場合は,新たな認証リクエストが起動される.
リクエスト
ServiceExecute["TogetherAI","request",params]は,パラメータparams を使ってTogether AI APIにリクエストを送信する.次は可能なリクエストである.
Text
"Completion" — 与えられたプロンプトに対するテキストを補完する
"Prompt" | (必須) | 補完を生成するプロンプト | |
"MaxTokens" | Automatic | 生成するトークンの最大数 | |
"Model" | Automatic | 使用するモデルの名前 | |
"N" | Automatic | 返す補完の数 | |
"SafetyModel" | Automatic | 使用するモデレーションモデル.使用可能な値には"Meta-Llama/Llama-Guard-7b"がある | |
"StopTokens" | Automatic | APIがトークンの生成を中止する文字列 | |
"Temperature" | Automatic | サンプリング温度 | |
"TotalProbabilityCutoff" | Automatic | 温度によるサンプリングの代替で核サンプリングと呼ばれるもの.モデルは要求された確率質量を持つトークンの結果を考慮する |
"Chat" — 与えられたチャットの会話に対する応答を作成する
"Messages" | (必須) | それぞれが"Role"キーと"Content"キーを持つ連想として与えられる,会話中のメッセージのリスト | |
"MaxTokens" | Automatic | 生成するトークンの最大数 | |
"Model" | Automatic | 使用するモデルの名前 | |
"N" | Automatic | 返す補完の数 | |
"SafetyModel" | Automatic | 使用するモデレーションモデル.使用可能な値には"Meta-Llama/Llama-Guard-7b"がある | |
"StopTokens" | Automatic | APIがトークンの生成を中止する文字列 | |
"Stream" | False | 結果をサーバが送信したイベントとして返す | |
"Temperature" | Automatic | サンプリング温度 | |
"ToolChoice" | Automatic | モデルが呼び出すツール(もしあれば) | |
"Tools" | Automatic | モデルが使用可能な,一つまたは複数のLLMToolオブジェクト | |
"TopProbabilities" | Automatic | 最高確率の k クラスでのみサンプリングする | |
"TotalProbabilityCutoff" | Automatic | 温度によるサンプリングの代替で核サンプリングと呼ばれるもの.モデルは要求された確率質量を持つトークンの結果を考慮する |
"Embedding" — 入力テキストを表す埋込みベクトルを作成する
"Input" | (必須) | 埋め込まれるテキストまたはテキストのリスト | |
"Model" | Automatic | 使用するモデルの名前 |
Image
"ImageCreate" — 与えられたプロンプトに対して正方形の画像を作成する
"Prompt" | (必須) | 希望する画像のテキストによる説明 | |
"Model" | Automatic | 使用するモデルの名前 | |
"N" | Automatic | 生成する画像数 | |
"Seed" | Automatic | 画像生成のためのシード | |
"Size" | Automatic | 生成する画像のサイズ | |
"Steps" | Automatic | 反復回数 |
モデルリスト
"ChatModelList" — "Chat"リクエストに使用可能なモデルをリストする
"CompletionModelList" — "Completion"リクエストに使用可能なモデルをリストする