"PaLM" (服务连接)
从 14.1 版开始,"PaLM" 已被 "GoogleGemini" 取代.
连接与验证
ServiceConnect["PaLM"] 创建到 PaLM API 的连接. 如果可以找到之前保存的连接,则将使用该连接;否则,将发起新的认证请求.
请求
"Prompt" | 为其生成完成的提示 |
"MaxTokens" | Automatic | 最多生成多少个词元 | |
"Model" | Automatic | 要使用的模型的名称 | |
"N" | Automatic | 返回的完成的数量(1 个到 8 个) | |
"StopTokens" | None | 用来指示 API 停止生成的词元,最多四个字符串 | |
"Temperature" | Automatic | 采样温度( 0 和 1 之间) | |
"TopProbabilities" | Automatic | 只在 k 个概率最高的类别中进行采样 | |
"TotalProbabilityCutoff" | None | 在累积概率至少为 p 的最可能的类别中进行采样(核采样) |
"Messages" | 对话中的消息列表 |
"Model" | Automatic | 要使用的模型的名称 | |
"N" | Automatic | 返回的完成的数量(1 个到 8 个) | |
"Temperature" | Automatic | 采样温度( 0 和 1 之间) | |
"TopProbabilities" | Automatic | 只在 k 个概率最高的类别中进行采样 | |
"TotalProbabilityCutoff" | None | 在累积概率至少为 p 的最可能的类别中进行采样(核采样) |
"TextEmbedding" — 创建表示输入文本的嵌入向量
"Text" | 模型将转换为嵌入的文本 |
"Model" | Automatic | 要使用的模型的名称 |
"TokenCount" — 根据提示运行模型的词元生成器并返回词元的数量
"Input" | 要拆分成词元的文本或消息 |
"Model" | Automatic | 要使用的模型的名称 |