LLMSynthesize

该功能需要外部账户 »

LLMSynthesize[prompt]

根据输入 prompt 生成文本.

LLMSynthesize[{prompt1,}]

将多个 prompti 结合在一起.

LLMSynthesize[,prop]

返回生成的文本的指定属性.

更多信息和选项

  • LLMSynthesize 根据提示中的指令使用大语言模型 (LLM) 生成文本. 它可以创建内容、完整语句、提取信息等.
  • LLMSynthesize 需要外部服务认证、计费和互联网连接.
  • prompt 的可能的值为:
  • "text"静态文字
    LLMPrompt["name"]存储库提示
    StringTemplate[]模板化文本
    TemplateObject[]创建提示模板
    Image[]图像
    {prompt1,}提示列表
  • 通过 TemplateObject[][],模板对象被自动转换为字符串.
  • 使用 TemplateObject 创建的提示可包含文本和图像.并非所有 LLM 都支持图像输入.
  • 支持的 prop 的值包括:
  • "CompletionText"LLM 的文本答案
    "CompletionToolsText"文本答案,包括工具互动
    "FullText""History" 的字符串表示
    "History"完整的历史记录,包括提示和补全
    "Prompt"提交给 LLM 的内容
    "PromptText""Prompt" 的字符串表示
    "ToolRequests"LLMToolRequest 对象列表
    "ToolResponses"LLMToolResponse 对象列表
    {prop1,prop2,}多个属性
    All所有属性
  • "FullTextAnnotations""ToolRequests""ToolResponses" 给出元素的格式为 {start,end}val 的关联,其中,val 指代一个对象,startend 指的是字符的范围,在 "FullText" 中指定 val.
  • 可指定以下选项:
  • Authentication Automatic明确的用户 ID 和 API 密钥
    LLMEvaluator $LLMEvaluator使用的 LLM 配置
    ProgressReporting$ProgressReporting如何报告计算进度
  • LLMEvaluator 可被设为 LLMConfiguration 对象或含有以下任意键的关联:
  • "MaxTokens"最多生成多少个词元 (token)
    "Model"基础模型
    "PromptDelimiter"在提示之间插入的字符串
    "Prompts"初始提示或 LLMPromptGenerator 对象
    "StopTokens"用来指示停止生成的词元
    "Temperature"采样温度
    "ToolMethod"调用工具的方法
    "Tools"可用的 LLMTool 对象列表
    "TopProbabilities"采样类别截止概率
    "TotalProbabilityCutoff"采样截止概率(核心采样)
  • "Model" 的有效形式包括:
  • name已命名模型
    {service,name}来自 service 的已命名模型
    <|"Service"service,"Name"name,"Task"task|>完全指定的模型
  • 任务可取的值包括 "Chat""Completion".
  • 生成的文本采样自一个分布. 可用 LLMEvaluator 的以下属性指定采样的详细信息:
  • "Temperature"tAutomatic用正的温度 t 进行采样
    "TopProbabilities"kAutomatic只在 k 个概率最高的类别中采样
    "TotalProbabilityCutoff"pAutomatic在最有可能的选择中采样,累积概率至少为 p(核心采样)
  • 这些参数的 Automatic 值为指定 "Model" 的默认值.
  • 如果任务为 "Chat",则在 LLMEvaluator"Prompts" 属性中指定的提示会被添加到角色设置为 "System" 的输入 prompt 中.
  • LLMEvaluator"PromptDelimiter" 属性分隔多个提示.
  • Authentication 的可能的值为:
  • Automatic自动选择认证方式
    Environment检查环境变量中的密钥
    SystemCredential检查系统钥匙串中的密钥
    ServiceObject[]从服务对象继承认证
    assoc给出明确的密钥和用户 ID
  • 设置 AuthenticationAutomatic,函数在 EnvironmentSystemCredential 中检验变量 ToUpperCase[service]<>"_API_KEY";否则使用 ServiceConnect[service].
  • 当使用 Authenticationassoc 时,assoc 可含有以下键:
  • "ID"用户的身份
    "APIKey"用于认证的 API 密钥
  • LLMSynthesize 使用机器学习. 在不同版本的 Wolfram 语言中,其方法、训练集和偏差可能会改变并给出不同的结果.

范例

打开所有单元关闭所有单元

基本范例  (3)

根据简单的描述合成文本:

问一个问题:

返回 LLM 的完整上下文:

范围  (3)

根据提示合成文本:

同时使用文字和图片提示:

指定返回的属性:

选项  (8)

Authentication  (4)

提供 API 的认证密钥:

提供用户 ID 和 API 密钥:

使用操作系统的钥匙串存储 API 密钥:

在系统钥匙串中查找密钥:

将 API 密钥存储在环境变量中:

在系统环境查找密钥:

提供服务对象认证:

LLMEvaluator  (4)

默认情况下,文本生成一直持续到生成终止词元为止:

限制生成的样本(词元)的数量:

指定采样应在零温度下进行:

指定高一点儿的温度,使生成的内容有更多的变化:

指定截断分布前的最大累积概率:

指定用于生成的服务和模型:

应用  (1)

定义一个以编程方式构建提示的函数:

用它来创建自然语言同义词生成器:

将它应用于一系列参数:

可能存在的问题  (1)

不能保证文本生成完全按照说明进行:

用精确算法进行精确计算:

Wolfram Research (2023),LLMSynthesize,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMSynthesize.html.

文本

Wolfram Research (2023),LLMSynthesize,Wolfram 语言函数,https://reference.wolfram.com/language/ref/LLMSynthesize.html.

CMS

Wolfram 语言. 2023. "LLMSynthesize." Wolfram 语言与系统参考资料中心. Wolfram Research. https://reference.wolfram.com/language/ref/LLMSynthesize.html.

APA

Wolfram 语言. (2023). LLMSynthesize. Wolfram 语言与系统参考资料中心. 追溯自 https://reference.wolfram.com/language/ref/LLMSynthesize.html 年

BibTeX

@misc{reference.wolfram_2024_llmsynthesize, author="Wolfram Research", title="{LLMSynthesize}", year="2023", howpublished="\url{https://reference.wolfram.com/language/ref/LLMSynthesize.html}", note=[Accessed: 05-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_llmsynthesize, organization={Wolfram Research}, title={LLMSynthesize}, year={2023}, url={https://reference.wolfram.com/language/ref/LLMSynthesize.html}, note=[Accessed: 05-November-2024 ]}