LLMResourceFunction

该功能需要外部账户 »

LLMResourceFunction["name"]

获取指定名称的 LLMFunction.

LLMResourceFunction[loc]

从指定位置导入 LLMFunction.

LLMResourceFunction[][params]

对参数 params 应用指定的 LLMFunction.

更多信息和选项

  • LLMResourceFunction 可获取存储在本地、云端或 Wolfram Prompt Repository 的资源.
  • LLMResourceFunction 需要外部服务认证、计费和互联网连接.
  • LLMResourceFunction["name"] 中,名称必须发布在公共存储库中,用 ResourceRegister 注册过或之前已从定义笔记本部署.
  • LLMResourceFunction[loc] 接受先前提示资源部署的位置,包括 LocalObjectCloudObject.
  • LLMResourceFunction 返回的 LLMFunction 可包含提示以及解释和配置设置. 可用 LLMPrompt 直接访问提示.
  • LLMResourceFunction 支持以下选项:
  • AuthenticationAutomatic显式用户 ID 和 API 密钥
    LLMEvaluator $LLMEvaluator使用的 LLM 配置
  • LLMEvaluator 可以设置为 LLMConfiguration 对象或与以下任意密钥的关联:
  • "Model"基础模型
    "Temperature"采样温度
    "TotalProbabilityCutoff"采样概率截止(核采样)
    "Prompts"提示
    "PromptDelimiter"提示之间使用的分隔符
    "StopTokens"停止生成的词元(Token)
    "Tools"要使用的 LLMTool 对象列表
    "ToolPrompt"指定工具格式的提示
    "ToolRequestParser"用于解析工具请求的函数
    "ToolResponseString"用于序列化工具响应的函数
  • "Model" 包括的有效格式:
  • name已命名模型
    {service,name}来自 service 的已命名模型
    <|"Service"service,"Name"name,"Task"task|>完全指定的模型
  • 生成的文本是从分布中采样的. 可以使用 LLMEvaluator 的以下属性指定采样的详细信息:
  • "Temperature"tAutomatic使用正温度 t 进行采样
    "TopProbabilityCutoff"pAutomatic在累积概率至少为 p 的最可能的选择中进行采样(核采样)
  • 设置 "Temperature"AutomaticLLMFunction 内解析为零温度.
  • 多个提示由 LLMEvaluator"PromptDelimiter" 属性分隔.
  • Authentication 的可能值为:
  • Automatic自动选择认证方案
    Environment检查环境变量中的密钥
    SystemCredential检查系统密钥链中的密钥
    ServiceObject[]从服务对象继承身份验证
    assoc提供显式密钥和用户 ID
  • 当设置 AuthenticationAutomatic 时,该函数检查 EnvironmentSystemCredential 中的变量 "OPENAI_API_KEY";在其他情况下,则使用 ServiceConnect["OpenAI"].
  • 当使用 Authenticationassoc 时,assoc 可以包含以下密钥:
  • "ID"用户身份
    "APIKey"用于身份验证的 API 密钥
  • LLMResourceFunction 使用机器学习. 它的方法、训练集及其包含的偏差可能会随 Wolfram 语言版本的不同而发生变化,并由此产生不同的结果.

范例

打开所有单元关闭所有单元

基本范例  (2)

Wolfram Prompt Repository 获取 LLMFunction

立刻使用提示:

范围  (1)

ResourceObject 获取提示:

选项  (1)

LLMEvaluator  (1)

当使用默认运算器时,LLMResourceFunction 使用零温度,并且通常对于相同的输入给出相同的结果:

使用 LLMEvaluator 选项设置非零温度以创建更多随机结果:

Wolfram Research (2023),LLMResourceFunction,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

文本

Wolfram Research (2023),LLMResourceFunction,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

CMS

Wolfram 语言. 2023. "LLMResourceFunction." Wolfram 语言与系统参考资料中心. Wolfram Research. https://reference.wolfram.com/language/ref/LLMResourceFunction.html.

APA

Wolfram 语言. (2023). LLMResourceFunction. Wolfram 语言与系统参考资料中心. 追溯自 https://reference.wolfram.com/language/ref/LLMResourceFunction.html 年

BibTeX

@misc{reference.wolfram_2024_llmresourcefunction, author="Wolfram Research", title="{LLMResourceFunction}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMResourceFunction.html}", note=[Accessed: 21-December-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmresourcefunction, organization={Wolfram Research}, title={LLMResourceFunction}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMResourceFunction.html}, note=[Accessed: 21-December-2024 ]}