其他模型#

LLM 默认支持 OpenAI 模型。你可以安装插件来添加对其他模型的支持。你也可以使用配置文件添加额外的与 OpenAI API 兼容的模型。

安装和使用本地模型#

LLM 插件可以提供在你机器上运行的本地模型。

要安装 llm-gpt4all,它提供了来自 GPT4All 项目的 17 个模型,运行此命令:

llm install llm-gpt4all

运行 llm models 查看可用模型的完整列表。

要通过 GPT4All 的一个模型运行提示,请使用 -m/--model 指定它

llm -m orca-mini-3b-gguf2-q4_0 'What is the capital of France?'

首次使用时,模型会被下载并缓存。

查看插件目录以获取其他模型的最新可用插件列表。

OpenAI 兼容模型#

LocalAI 这样的项目提供了模仿 OpenAI API 的 REST API,但可以用来运行其他模型,包括可以安装在你自己机器上的模型。这些可以使用相同的配置机制添加。

model_id 是 LLM 将用于模型的名称。model_name 是需要传递给 API 的名称——它可能与 model_id 不同,特别是当 model_id 可能与已安装的其他模型冲突时。

api_base 键可用于将 OpenAI 客户端库指向不同的 API 端点。

要添加由本地安装的 LocalAI 托管的 orca-mini-3b 模型,请将其添加到你的 extra-openai-models.yaml 文件中

- model_id: orca-openai-compat
  model_name: orca-mini-3b.ggmlv3
  api_base: "http://localhost:8080"

如果设置了 api_base,默认情况下不会发送现有的已配置的 openai API 密钥。

你可以将 api_key_name 设置为使用 API 密钥管理功能存储的密钥的名称。

如果模型是使用 /completion 而不是 /completion/chat 端点的完成模型,请添加 completion: true

如果模型不支持流式传输,请添加 can_stream: false 来禁用流式传输选项。

如果模型支持通过 JSON Schema 进行结构化输出,你可以添加 supports_schema: true 来支持此功能。

如果模型是视觉模型,你可以添加 vision: true 来支持此功能并使用图像附件。

如果模型是音频模型,你可以添加 audio: true 来支持此功能并使用音频附件。

按照这种方式配置模型后,运行 llm models 检查它是否正确安装。然后你可以像这样针对它运行提示:

llm -m orca-openai-compat 'What is the capital of France?'

并使用此命令确认它们已正确记录:

llm logs -n 1

额外 HTTP 头部#

一些提供商,例如 openrouter.ai,可能需要设置额外的 HTTP 头部。你可以使用 headers: 键进行设置,如下所示:

- model_id: claude
  model_name: anthropic/claude-2
  api_base: "https://openrouter.ai/api/v1"
  api_key_name: openrouter
  headers:
    HTTP-Referer: "https://llm.datasette.com.cn/"
    X-Title: LLM