LLMFunction
この機能には次が必要です:外部アカウント »
LLMFunction[prompt]
大規模言語モデル(LLM)プロンプトのためのテンプレートを表す.
LLMFunction[{prompt1,prompt2,…}]
複数のプロンプトの組合せを表す.
LLMFunction[prompt,form]
応答に適用するイオンタープリタ form を含める.
LLMFunction[…][params]
パラメータ params に適用された prompt についてのLLMサービス応答を与える,
詳細とオプション
- LLMFunctionは大規模言語モデル(LLM)を使ったテキストの生成に使うことができる.この関数は,コンテンツの作成,文の完成,情報の抽出等が行える.
- LLMFunctionは,外部サービスの認証,請求,インターネット接続を必要とする.
- prompti は,以下の値をサポートする.
-
"string" 静的テキスト LLMPrompt["name"] リポジトリのプロンプト StringTemplate[…] テンプレートテキスト TemplateObject[…] プロンプト作成のテンプレート {prompt1,…} プロンプトのリスト - TemplateObjectで作成したプロンプトには,テキストと画像が入れられる.すべてのLLMが画像入力をサポートする訳ではない.
- LLMFunctionは,以下のオプションをサポートする.
-
InsertionFunction TextString 式を挿入する前に適用する関数または形式 CombinerFunction StringJoin prompt 内の断片を繋ぎ合せるために適用する関数 Authentication Automatic 明示的なユーザIDとAPIキー LLMEvaluator $LLMEvaluator 使用するLLM設定 - LLMEvaluatorは,LLMConfigurationオブジェクトまたは以下の任意のキーを持つ連想に設定することができる.
-
"MaxTokens" 生成するトークンの最大数 "Model" ベースモデル "PromptDelimiter" プロンプト間に挿入する文字列 "Prompts" 初期プロンプト "StopTokens" 生成を中止するトークン "Temperature" サンプリング温度 "ToolMethod" ツールの呼出しに使用するメソッド "Tools" 使用可能にするLLMToolオブジェクトのリスト "TopProbabilities" サンプリングクラスのカットオフ "TotalProbabilityCutoff" サンプリング確率のカットオフ(核サンプリング) - "Model"の有効な形式には以下がある.
-
name 名前付きのモデル {service,name} service からの名前付きのモデル <"Service"service,"Name"name,"Task"task > 完全に指定されたモデル - 生成されたテキストは分布からサンプリングされる.サンプリングの詳細はLLMEvaluatorの以下の特性を使って指定できる.
-
"Temperature"t Automatic 正の温度 t を使ったサンプリング "TopProbabilities"k Automatic 最も可能性の高い k 個のクラスの中だけからサンプリングする "TopProbabilityCutoff"p Automatic 少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング) - "Temperature"Automaticという設定はLLMFunction内で温度0度に解決される.その他のパラメータは指定された"Model"のデフォルトを使う.
- 複数のプロンプトはLLMEvaluatorの"PromptDelimiter"特性によって分離される.
- 次は,Authenticationの可能な値である.
-
Automatic 認証スキームを自動選択する Environment 環境変数内のキーをチェックする SystemCredential システムのキーチェーンのキーをチェックする ServiceObject[…] サービスオブジェクトから認証を継承する assoc 明示的なキーとユーザIDを与える - AuthenticationAutomaticとき,関数はEnvironmentおよびSystemCredential内の変数ToUpperCase[service]<>"_API_KEY"をチェックする.それ以外の場合はServiceConnect[service]が使われる.
- Authenticationassoc を使うときの assoc は以下のキーを含むことができる.
-
"ID" ユーザID "APIKey" 認証に使われたAPIキー - LLMFunctionは機械学習を使用する.含まれるメソッド,訓練集合,バイアスは,Wolfram言語のバージョンによって変化することがあり,結果として与えられる結果も異なることがある.
例題
すべて開くすべて閉じる
Wolfram Research (2023), LLMFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMFunction.html.
テキスト
Wolfram Research (2023), LLMFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMFunction.html.
CMS
Wolfram Language. 2023. "LLMFunction." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMFunction.html.
APA
Wolfram Language. (2023). LLMFunction. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMFunction.html