LLMFunction
该功能需要外部账户 »
LLMFunction[prompt]
表示用于大语言模型 (LLM) 提示的模板.
LLMFunction[{prompt1,prompt2,…}]
表示多个提示的组合.
LLMFunction[prompt,form]
包含应用于响应的解释器 form.
LLMFunction[…][params]
对应用于参数 params 的 prompt 给出 LLM 服务响应.
更多信息和选项
- LLMFunction 可用于使用大语言模型(LLM)生成文本. 它可以创建内容、完成句子、提取信息等.
- LLMFunction 需要外部服务认证、计费和互联网连接.
- prompti 支持以下值:
-
"prompt" 静态文本 LLMPrompt["name"] 存储库提示 StringTemplate[…] 模板化文本 TemplateObject[…] 创建提示模板 {prompt1,…} 提示列表 - 使用 TemplateObject 创建的提示可以包含文本和图像. 并非所有 LLM 都支持图像输入.
- LLMFunction 支持以下选项:
-
InsertionFunction TextString 插入表达式之前需应用的函数或格式 CombinerFunction StringJoin 用来将 prompt 中的片段结合在一起的函数 Authentication Automatic 显式用户 ID 和 API 密钥 LLMEvaluator $LLMEvaluator 使用的 LLM 配置 - LLMEvaluator 可以设置为 LLMConfiguration 对象或与以下任意密钥的关联:
-
"MaxTokens" 最多生成多少个词元 (Token) "Model" 基础模型 "PromptDelimiter" 在提示之间插入字符串 "Prompts" 初始提示 "StopTokens" 停止生成词元 "Temperature" 采样温度 "ToolMethod" 用于工具调用的方法 "Tools" 可实现的 LLMTool 对象列表 "TopProbabilities" 采样类别截止概率 "TotalProbabilityCutoff" 采样截止概率(核采样) - "Model" 包括的有效格式:
-
name 已命名模型 {service,name} 来自 service 的已命名模型 <"Service"service,"Name"name,"Task"task > 完全指定的模型 - 生成的文本是从分布中采样的. 可以使用 LLMEvaluator 的以下属性指定采样的详细信息:
-
"Temperature"t Automatic 使用正温度 t 进行采样 "TopProbabilities"k Automatic 只在 k 个概率最高的类别中采样 "TotalProbabilityCutoff"p Automatic 在累积概率至少为 p 的最可能的选择中进行采样(核采样) - 设置 "Temperature"Automatic 在 LLMFunction 内解析为零度. 其他参数使用指定 "Model" 的默认值.
- 多个提示由 LLMEvaluator 的 "PromptDelimiter" 属性分隔.
- Authentication 的可能值为:
-
Automatic 自动选择认证方案 Environment 检查环境变量中的密钥 SystemCredential 检查系统密钥链中的密钥 ServiceObject[…] 从服务对象继承身份验证 assoc 提供显式密钥和用户 ID - 设置 AuthenticationAutomatic,函数在 Environment 和 SystemCredential 中检验变量 ToUpperCase[service]<>"_API_KEY";否则,使用 ServiceConnect[service].
- 当使用 Authenticationassoc 时,assoc 可以包含以下密钥:
-
"ID" 用户身份 "APIKey" 用于身份验证的 API 密钥 - LLMFunction 使用机器学习. 它的方法、训练集及其包含的偏差可能会随 Wolfram 语言版本的不同而发生变化,并由此产生不同的结果.
范例
打开所有单元关闭所有单元
Wolfram Research (2023),LLMFunction,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMFunction.html.
文本
Wolfram Research (2023),LLMFunction,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMFunction.html.
CMS
Wolfram 语言. 2023. "LLMFunction." Wolfram 语言与系统参考资料中心. Wolfram Research. https://reference.wolfram.com/language/ref/LLMFunction.html.
APA
Wolfram 语言. (2023). LLMFunction. Wolfram 语言与系统参考资料中心. 追溯自 https://reference.wolfram.com/language/ref/LLMFunction.html 年