"PaLM" (服务连接)

从 14.1 版开始,"PaLM" 已被 "GoogleGemini" 取代.

用 Wolfram 语言连接 PaLM API.

连接与验证

ServiceConnect["PaLM"] 创建到 PaLM API 的连接. 如果可以找到之前保存的连接,则将使用该连接;否则,将发起新的认证请求.
使用此连接需要访问互联网和 Google 帐户.

请求

请求:

"Completion" 为给定提示创建文本完成

必须提供的参数:
  • "Prompt"为其生成完成的提示
  • 可选参数:
  • "MaxTokens"Automatic最多生成多少个词元
    "Model"Automatic要使用的模型的名称
    "N"Automatic返回的完成的数量(1 个到 8 个)
    "StopTokens"None用来指示 API 停止生成的词元,最多四个字符串
    "Temperature"Automatic采样温度( 0 和 1 之间)
    "TopProbabilities"Automatic只在 k 个概率最高的类别中进行采样
    "TotalProbabilityCutoff"None在累积概率至少为 p 的最可能的类别中进行采样(核采样)
  • 请求:

    "Chat" 为给定的聊天对话创建响应

    必须提供的参数:
  • "Messages"对话中的消息列表
  • 可选参数:
  • "Model"Automatic要使用的模型的名称
    "N"Automatic返回的完成的数量(1 个到 8 个)
    "Temperature"Automatic采样温度( 0 和 1 之间)
    "TopProbabilities"Automatic只在 k 个概率最高的类别中进行采样
    "TotalProbabilityCutoff"None在累积概率至少为 p 的最可能的类别中进行采样(核采样)
  • 请求:

    "TextEmbedding" 创建表示输入文本的嵌入向量

    必须提供的参数:
  • "Text"模型将转换为嵌入的文本
  • 可选参数:
  • "Model"Automatic要使用的模型的名称
  • 请求:

    "TokenCount" 根据提示运行模型的词元生成器并返回词元的数量

    必须提供的参数:
  • "Input"要拆分成词元的文本或消息
  • 可选参数:
  • "Model"Automatic要使用的模型的名称
  • 范例

    打开所有单元关闭所有单元

    基本范例  (2)

    创建新的连接:

    补完一段文字:

    生成聊天的响应:

    范围  (11)

    Completion  (3)

    改变采样温度:

    增大返回的字符的数量:

    返回多个补完:

    Chat  (3)

    回复包含多条消息的聊天:

    改变采样温度:

    返回多个完成:

    TextEmbedding  (2)

    计算一些文字的向量嵌入:

    计算向量嵌入之间的距离以查找语义相似性:

    TokenCount  (3)

    获取字符串提示的词元的数量:

    获取消息提示的词元的数量:

    如果没有指定,则会自动选择模型: