Logo Softkern
5 分钟阅读

Zed加Ollama:AI代码编辑器本地版

目录

近几年AI大模型发展迅速,应用到了各行各业,编程领域更是如此,AI编程工具层出不穷,v0.devbolt.newCursorWindsurf等等AI代码编辑器也深受程序员喜爱,我也经常使用,体验也确实很好,能够输出直接可用的项目代码,但是想要尽情使用就必须付费了,本篇文章将用 Zed+Ollama 搭建一个完全免费,自带大模型助手的AI编辑器,使用体验虽然不及上述工具,但可以处理以下简单问题。

Ollama

Ollama 是一个支持在本地管理、部署和运行大模型的工具。可以在自己的电脑上搭建并允许类似 GPT 这样的大模型。

特点:

  1. 代码开源,完全免费,离线使用
  2. 使用简单,命令行操作方便快捷
  3. 支持多种模型,例如:Llama 3, Phi 3, Mistral, Gemma等等

支持的各种开源模型,详细信息可以到Ollama 官网查看

Llama 38B4.7GBollama run llama3
Llama 370B40GBollama run llama3:70b
Phi 3 Mini3.8B2.3GBollama run phi3
Phi 3 Medium14B7.9GBollama run phi3:medium
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b
Mistral7B4.1GBollama run mistral
Moondream 21.4B829MBollama run moondream
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
LLaVA7B4.5GBollama run llava
Solar10.7B6.1GBollama run solar

安装 Ollama

Ollama 在官网提供了 MacOS 和 Windows 的图形安装程序,可以直接从 下载页面获得对应系统的安装程序,另外为 Linux 系统提供了命令直接进行安装:

Terminal window
curl -fsSL https://ollama.com/install.sh | sh

基本使用方法

查看安装情况:

Terminal window
ollama -v

如果输出了版本号,代表安装成功。

运行指定模型:

Terminal window
ollama run mistral

上文的表格中包含了各个模型的运行方式,在初次运行指定模型时会先进行下载,需要一点时间,完成下载后就会直接进入到交互界面:

接下来就可以与大模型进行交流了:

也可以使用中文进行交流:

也可以直接使用阿里的 qwen 和 qwen2 模型:

在 Zed 中使用本地大模型

Zed 是 Atom 和 Tree-sitter 的创建者提供的一个高性能多人代码编辑器。它也是开源的。运行速度飞快,目前插件生态也在逐步完善,感兴趣的可以去Zed 官网查看,这里就不细说了。

Zed 原生便具有助手面板,可以直接输入 openai 的 API 密钥进行使用,而本文要做的就是使用 Ollama 运行的本地大模型来替代 API KEY 。

首先要做的就是下载并运行 mistral 模型:

Terminal window
ollama run mistral

然后将其拷贝为 gpt-4-turbo-preview:

Terminal window
ollama cp mistral gpt-4-turbo-preview

对 Zed 助手进行配置, 将下面的内容添加到 Zed 的配置文件中:

Terminal window
{
"assistant": {
"version": "1",
"provider": {
"name": "openai",
"type": "openai",
"default_model": "gpt-4-turbo-preview",
"api_url": "http://localhost:11434/v1"
}
}
}

然后在助手面板(assistant panel) 输入密钥后回车,密钥是:

Terminal window
ollama

然后重启 Zed, 就可以体验了:

其他

Ollama 还有很多其他玩法,比如: 搭配 lobechat, 部署一个属于自己的 ChatGPT,如果大家感兴趣,可以到 Ollama 的 Github 仓库查看更多玩法。