"AlephAlpha" (服务连接)

连接该服务需要外部账户 »

将 AlephAlpha API 与 Wolfram 语言结合使用.

连接与认证

ServiceConnect["AlephAlpha"] 创建与 AlephAlpha API 的连接. 如果可以找到之前保存的连接,则将使用该连接;否则,将发起新的身份认证请求.
使用此连接需要访问互联网和 AlephAlpha 帐户.

请求

ServiceExecute["AlpehAlpha","request",params] 使用参数 params 向 AlephAlpha API 发送请求. 下面给出了可能的请求.
请求:

"TestConnection" 如果连接成功,返回 Success,否则返回 Failure

文本

请求:

"Completion" 为给定提示创建文本完成

参数:
  • "Prompt"(必需)为其生成补全的提示
    "MaxTokens"Automatic最多生成多少个词元
    "Model"Automatic使用的模型的名称
    "N"Automatic返回多少个补全
    "Nice"Automatic请求的优先级(True 会降低其优先级)
    "StopTokens"Automatic
  • 用来指示 API 停止生成更多词元
  • 的字符串
    "Temperature"Automatic采样温度
    "TopProbabilities"Automatic只在 k 个概率最高的类别中采样
    "TotalProbabilityCutoff"Automatic温度采样的替代方法,称为核心采样,模型只考虑具有所要求的概率质量的词元
  • 请求:

    "Chat" 为给定的聊天对话创建响应

    参数:
  • "Messages"(必需)对话中的消息列表,用 "Role""Content" 为键的关联给出每条消息
    "MaxTokens"Automatic最多生成多少个词元
    "Model"Automatic使用的模型的名称
    "N"Automatic返回多少个聊天补全
    "Nice"Automatic请求的优先级(True 会降低其优先级)
    "StopTokens"Automatic
  • 用来指示 API 停止生成更多词元
  • 的字符串
    "Temperature"Automatic采样温度(0 和 2 之间)
    "TopProbabilities"Automatic只在 k 个概率最高的类别中采样
    "TotalProbabilityCutoff"Automatic温度采样的替代方法,称为核心采样,模型只考虑具有所要求的概率质量的词元
  • 请求:

    "Embedding" 创建表示输入文本的嵌入向量

    参数:
  • "Input"(必需)要为其创建嵌入向量的一个或一组文本
    "EmbeddingLayers"Automatic要从该层返回嵌入向量的网络层索引的列表
    "EmbeddingPooling"Automatic要使用的池化操作;可能的值包括 "mean""max""last_token"
    "Model"Automatic使用的模型的名称
    "NormalizeEmbedding"False返回归一化的嵌入向量
  • 模型列表

    请求:

    "ChatModelList" 列出 "Chat" 请求可用的模型

    范例

    打开所有单元关闭所有单元

    基本范例  (1)

    创建新的连接:

    补完一段文字:

    生成聊天的响应:

    计算一个句子的嵌入向量:

    范围  (2)

    文本  (2)

    补全  (1)

    增加返回的字符的数量:

    聊天  (1)

    回复包含多条消息的聊天: