跳到主要内容

聊天角色

"聊天模型"是一种经过训练以对话形式响应的LLM。因为它们应该能够回答一般问题并生成复杂的代码,所以最佳聊天模型通常很大,通常具有405B+参数。

在 Continue 中,这些模型用于正常的聊天VS Code 操作。如果没有分别指定editapply模型,则选择的聊天模型也将用于编辑应用

最佳整体体验

为了获得最佳的整体聊天体验,您将需要使用一个400B+参数的模型或其中一个前沿模型。

Anthropic 的 Claude Sonnet 3.7

我们目前的首要推荐是来自Anthropic的 Claude 3.7 Sonnet。

在中心查看Claude 3.7 Sonnet 模型块

Google DeepMind 的 Gemma

如果您倾向于使用开源权重模型,那么 Google DeepMind 的 Gemma 系列模型是一个不错的选择。您需要决定是使用 SaaS 模型提供商(例如 Together)来使用它,还是自行托管(例如 Ollama)。

OpenAI 的 GPT-4o

如果您倾向于使用来自OpenAI的模型,那么我们推荐 GPT-4o。

从中心添加OpenAI GPT-4o 块

xAI 的 Grok-2

如果您倾向于使用来自xAI的模型,那么我们推荐 Grok-2。

从中心添加xAI Grok-2 块

Google 的 Gemini 2.0 Flash

如果您倾向于使用来自Google的模型,那么我们推荐 Gemini 2.0 Flash。

从中心添加Gemini 2.0 Flash 块

本地离线体验

为了获得最佳的本地离线聊天体验,您将需要使用一个在您的机器上足够大且速度够快的模型。

Llama 3.1 8B

如果您的本地机器可以运行一个8B参数模型,那么我们推荐在您的机器上运行 Llama 3.1 8B(例如使用OllamaLM Studio)。

DeepSeek Coder 2 16B

如果您的本地机器可以运行一个16B参数模型,那么我们推荐运行 DeepSeek Coder 2 16B(例如使用OllamaLM Studio)。

config.yaml
models:
- name: DeepSeek Coder 2 16B
provider: ollama
model: deepseek-coder-v2:16b

其他体验

除了上面提到的之外,您还可以使用许多其他模型和提供商来进行聊天。在此阅读更多信息这里