LLMResourceFunction

この機能には次が必要です:外部アカウント »

LLMResourceFunction["name"]

指定の名前のLLMFunctionを取り出す.

LLMResourceFunction[loc]

指定の場所からLLMFunctionをインポートする.

LLMResourceFunction[][params]

指定のLLMFunctionをパラメータ params に適用する.

詳細とオプション

  • LLMResourceFunctionは,ローカルに保存された,あるいはクラウドやWolfram Prompt Repositoryに保存されているリソースを取り出すことができる.
  • LLMResourceFunctionには,外部サービスの認証,請求,インターネット接続が必要である.
  • LLMResourceFunction["name"]の名前は,パブリックリポジトリに公開されている,ResourceRegisterを使って登録されている,あるいは定義ノートブックからそれまでに配備されたものでなければならない.
  • LLMResourceFunction[loc]は,LocalObjectCloudObjectを含む,それまでのプロンプトリソース配備の場所を受け入れる.
  • LLMResourceFunctionによって返されたLLMFunctionは,プロンプトだけでなく解釈と構成設定も含むことができる.LLMPromptを使って直接プロンプトにアクセスする.
  • LLMResourceFunctionは次のオプションをサポートする.
  • AuthenticationAutomatic明示的なユーザIDとAPIキー
    LLMEvaluator $LLMEvaluator使用するLLM設定
  • LLMEvaluatorは,LLMConfigurationオブジェクトまたは以下の任意のキーを持つ連想に設定することができる.
  • "Model"ベースモデル
    "Temperature"サンプリング温度
    "TotalProbabilityCutoff"サンプリング確率のカットオフ(核サンプリング)
    "Prompts"プロンプト
    "PromptDelimiter"プロンプト間に使うデリミタ
    "StopTokens"生成を中止するトークン
    "Tools"使用するLLMToolオブジェクトのリスト
    "ToolPrompt"ツールの形式を指定するプロンプト
    "ToolRequestParser"ツールのリクエストをパースする関数
    "ToolResponseString"ツールの応答を直列化する関数
  • "Model"の有効な形式には以下がある.
  • name名前付きのモデル
    {service,name}service からの名前付きのモデル
    <|"Service"service,"Name"name,"Task"task|>完全に指定されたモデル
  • 生成されたテキストは分布からサンプリングされる.サンプリングの詳細はLLMEvaluatorの以下の特性を使って指定できる.
  • "Temperature"tAutomatic正の温度 t を使ったサンプリング
    "TopProbabilityCutoff"pAutomatic少なくとも p の累積確率で最も可能性の高い選択肢の中からサンプリングする (核サンプリング)
  • "Temperature"Automaticという設定はLLMFunction内で温度0度に解決される.
  • 複数のプロンプトはLLMEvaluator"PromptDelimiter"特性によって分離される.
  • 次は,Authenticationの可能な値である.
  • Automatic認証スキームを自動選択する
    Environment環境変数内のキーをチェックする
    SystemCredentialシステムのキーチェーンのキーをチェックする
    ServiceObject[]サービスオブジェクトから認証を継承する
    assoc明示的なキーとユーザIDを与える
  • AuthenticationAutomaticのとき,関数はEnvironmentおよびSystemCredential内の変数"OPENAI_API_KEY"をチェックする.それ以外の場合はServiceConnect["OpenAI"]を使う.
  • Authenticationassoc を使うときの assoc は以下のキーを含むことができる.
  • "ID"ユーザID
    "APIKey"認証に使われたAPIキー
  • LLMFunctionは機械学習を使用する.含まれるメソッド,訓練集合,バイアスは,Wolfram言語のバージョンによって変化することがあり,結果として与えられる結果も異なることがある.

例題

すべて開くすべて閉じる

  (2)

Wolfram Prompt RepositoryからLLMFunctionを取り出す:

すぐにプロンプトを使う:

スコープ  (1)

ResourceObjectからプロンプトを取り出す:

オプション  (1)

LLMEvaluator  (1)

デフォルトの評価器の場合,LLMResourceFunctionは温度0度を使い,通常は同じ入力に対して同じ結果を返す:

よりランダムな結果を生成するために,LLMEvaluatorオプションを使って非零の温度を設定する:

Wolfram Research (2023), LLMResourceFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

テキスト

Wolfram Research (2023), LLMResourceFunction, Wolfram言語関数, https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

CMS

Wolfram Language. 2023. "LLMResourceFunction." Wolfram Language & System Documentation Center. Wolfram Research. https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

APA

Wolfram Language. (2023). LLMResourceFunction. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/LLMResourceFunction.html

BibTeX

@misc{reference.wolfram_2024_llmresourcefunction, author="Wolfram Research", title="{LLMResourceFunction}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMResourceFunction.html}", note=[Accessed: 30-December-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmresourcefunction, organization={Wolfram Research}, title={LLMResourceFunction}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMResourceFunction.html}, note=[Accessed: 30-December-2024 ]}