免费替代 Cursor AI:使用 VS Code、DeepSeek R1 和 Ollama 打造免费的 AI 编程工具

在付费 AI 编程助手领域,Cursor、Windsurf、GitHub Copilot 等工具表现出色,但每月的订阅费用对许多开发者来说仍是一笔负担。本文将介绍如何通过 VS Code 的 Cline 扩展、OllamaDeepSeek R1 的组合,搭建一个免费的 AI 编程环境。

Cline 扩展

Cline 是一个可在 VS Code 中使用的开源 AI 编程辅助扩展,能够根据用户的指令或代码输入提供多种辅助功能,从而大幅提升开发效率。与之类似的 VS Code 扩展还有 ContinueRoo Code 等,这些工具均经过验证,并拥有活跃的社区支持。

这些工具在基本设置上大同小异,用户可以根据个人习惯选择适合自己的工具。需要注意的是,Cline 本身没有 Tab 自动补全功能,因此可以考虑与 Continue 一同使用。

根据 openrouter.ai 平台的 token 使用情况,ClineRoo Code 的 token 使用量远远领先于其他工具。

VS Code Cline 设置

DeepSeek R1 本地部署

为什么选择本地部署?

  • 免费及低成本运营:与需要每月订阅费用的 Cursor AI 不同,Cline 是开源的,DeepSeek R1 也可以在本地运行,因此无需额外费用即可享受强大的 AI 辅助功能。
  • 数据安全:所有 AI 计算都在本地环境中进行,代码和相关数据不会传输到外部服务器,从而在隐私和安全方面提供显著优势。
  • 快速响应:DeepSeek R1 直接在用户的硬件上运行,无需网络延迟即可提供快速响应,与 API 调用方式相比,可以期待更低的延迟。

当然,不能期望在个人 PC 上运行的轻量化蒸馏模型能够提供与 API 提供的完整参数模型相同的效果。对于大多数个人开发者来说,承担一定费用并使用平台提供的 API 更为现实,尤其是在使用韩语等少数语言的情况下,本地运行方式建议以实验性的心态去尝试。

安装 Ollama

Ollama 是一个可以帮助在本地轻松运行像 DeepSeek R1 这样的大型语言模型的工具。

Ollama 下载

下载所需的 DeepSeek R1 模型

下载完成后,模型会自动在本地启动,显示如下信息:

本地运行的模型可以通过 http://localhost:11434 访问。

VS Code 和 Cline 设置

安装 VS Code 扩展

在 VS Code 扩展市场中搜索 Cline 并安装。

安装 Cline 扩展

在 Cline 中连接 Ollama(本地 DeepSeek R1)

  1. 打开 VS Code 中的 Cline 设置。
  2. 在 API Provider 列表中选择 Ollama
  3. Base URL 字段中输入 http://localhost:11434,然后在模型选择选项中选择正在运行的 DeepSeek R1 模型(例如:deepseek-r1:14b)。

当本地 DeepSeek 模型部署成功后,在输入 Base URL 后,Model ID 下方会自动显示可选模型列表。

在 Cline 中连接 Ollama

如果在输入信息后出现 MCP hub not available 错误,重启 VS Code 即可解决。

设置完成后,使用 Cline 发送 prompt 测试响应情况。如果发现输入 prompt 后 CPU 疯转而响应特别慢或无响应,可能是由于电脑硬件不足以支撑该模型运行,此时建议尝试使用低版本的模型进行测试。

  • 获取 DeepSeek API 密钥(DeepSeek 官方网站)
  • 在 VS Code 中打开 Cline 设置,在 API Provider 列表中选择 DeepSeek,输入 API Key,并选择模型 deepseek-reasoner

Cline 设置 DeepSeek API

现在,你也可以以每月 $0 的成本体验 Cursor 级别的 AI 编程!如果在设置过程中遇到问题,可以参考 Ollama 官方文档或 Cline GitHub 问题页面获取帮助。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

(0)
上一篇 2025年3月22日
下一篇 2025年3月22日

相关推荐