"AlephAlpha" (サービス接続)
このサービス接続には次が必要です:LLMアクセス »
接続と認証
ServiceConnect["AlephAlpha"]はAlephAlpha APIへの接続を確立する.それまでに保存された接続が見付かった場合は,それが使われる.それ以外の場合は,新たな認証リクエストが起動される.
リクエスト
ServiceExecute["AlpehAlpha","request",params]は,パラメータparams を使ってAlephAlpha APIにリクエストを送信する.次は可能なリクエストである.
"TestConnection" — 接続が機能している場合はSuccessを,それ以外の場合はFailureを返す
テキスト
"Completion" — 与えられたプロンプトに対するテキストを補完する
| "Prompt" | (必須) | 補完を生成するプロンプト | |
| "MaxTokens" | Automatic | 生成するトークンの最大数 | |
| "Model" | Automatic | 使用するモデルの名前 | |
| "N" | Automatic | 返す補完の数 | |
| "Nice" | Automatic | リクエストの優先度(Trueは優先度を下げる) | |
| "StopTokens" | Automatic | APIがトークンの生成を中止する文字列 | |
| "Temperature" | Automatic | サンプリング温度 | |
| "TopProbabilities" | Automatic | 最高確率の k クラスでのみサンプリングする | |
| "TotalProbabilityCutoff" | Automatic | 温度によるサンプリングの代替で核サンプリングと呼ばれるもの.モデルは要求された確率質量を持つトークンの結果を考慮する |
"Chat" — 与えられたチャットの会話に対する応答を作成する
| "Messages" | (必須) | それぞれが"Role"キーと"Content"キーを持つ連想として与えられる,会話中のメッセージのリスト | |
| "MaxTokens" | Automatic | 生成するトークンの最大数 | |
| "Model" | Automatic | 使用するモデルの名前 | |
| "N" | Automatic | 返すチャット補完の数 | |
| "Nice" | Automatic | リクエストの優先度(Trueは優先度を下げる) | |
| "StopTokens" | Automatic | APIがトークンの生成を中止する文字列 | |
| "Temperature" | Automatic | サンプリング温度(0から2まで) | |
| "TopProbabilities" | Automatic | 最高確率の k クラスでのみサンプリングする | |
| "TotalProbabilityCutoff" | Automatic | 温度によるサンプリングの代替で核サンプリングと呼ばれるもの.モデルは要求された確率質量を持つトークンの結果を考慮する |
"Embedding" — 入力テキストを表す埋込みベクトルを作成する
| "Input" | (必須) | 埋め込まれるテキストまたはテキストのリスト | |
| "EmbeddingLayers" | Automatic | 埋込みを返す層のインデックスのリスト | |
| "EmbeddingPooling" | Automatic | 使用するプーリング操作.可能な値には,"mean","max","last_token"がある | |
| "Model" | Automatic | 使用するモデルの名前 | |
| "NormalizeEmbedding" | False | 正規化された埋込みを返す |
モデルリスト
関連項目
ServiceExecute ▪ ServiceConnect ▪ LLMFunction ▪ LLMSynthesize ▪ ChatEvaluate ▪ LLMConfiguration
サービス接続: Anthropic ▪ Cohere ▪ DeepSeek ▪ GoogleGemini ▪ Groq ▪ MistralAI ▪ OpenAI ▪ TogetherAI