腾讯云Cloud Studio + Ollama+ Continue 实现 Cursor 免费平替
Cloud Studio 创建 GPU 工作空间
https://cloud.tencent.com/product/cloudstudio
我们选择 Llama3.2
这个模板,因为这个有比较大的磁盘,将近 500G
空间足够让我们拉取大模型。
更新软件包
更新并安装系统软件,以下操作都在空间的终端里面处理
软件安装
apt update
apt install curl sudo
安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
配置 ollama 跨域访问
vim /etc/systemd/system/ollama.service
修改成下面这样
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=default.target
启动服务
这里原想设置为服务,并自动启动,一直不成功,没调整出来,只能够在前台启动
# 开启新终端启动,并且不能关闭
ollama serve
# 如果不走配置方式,实现支持跨域,可以使用以下命令启动
OLLAMA_HOST="0.0.0.0" OLLAMA_ORIGINS="*" ollama serve
拉取大模型
安装 Ollama
后,就可以按自己的喜好拉取大模型了,以下以最新的 deepseek-r1:7b
模型为例。
从实际效果来看,免费空间提供 16G
显存,在 7b
参数模型下速度还算可以,但是在使用 14b
参数时,就显得比较吃力。
我这边同时下载了 deepseek
和 qwen2.5-coder
作为后面的演示
Ngrok
内网穿透,使公网可以访问内部网络,这样我们就可以正常从外部访问到里面的服务了
注册账号
登录后台切换到 linux 安装教程
https://dashboard.ngrok.com/get-started/setup/linux
安装
curl -sSL https://ngrok-agent.s3.amazonaws.com/ngrok.asc \
| sudo tee /etc/apt/trusted.gpg.d/ngrok.asc >/dev/null \
&& echo "deb https://ngrok-agent.s3.amazonaws.com buster main" \
| sudo tee /etc/apt/sources.list.d/ngrok.list \
&& sudo apt update \
&& sudo apt install ngrok
配置
# [Your Token] 填入实际的token
ngrok config add-authtoken [Your Token]
绑定端口
注意一个账号只能够绑定一次,这里绑定的就是 ollama
的 11434
端口,这样就可以从外部访问 ollama
服务
ngrok http 11434
启动成功后,就可以看到一个公网地址,格式为 https://xxxxx.ngrok-free.app/
,也就是 ollama
的 api base url
地址
点击链接后,会有一个提示,如下图
点击 Visit Site
后,如果看到这个提示,就代表穿透成功
这里要注意的是,这个公网地址,下一次再执行端口绑定的时候,是会改变的,所以后面配合
Continue
插件配置的域名,就需要修改更新
Continue 插件配置
以下以 vs code
编辑器作为演示
安装插件
在插件扩展里面搜索 Continue
,并进行安装
配置模型
进入插件编辑页面,我们需要配置大模型的参数。
在 models
配置项中,将我们在 Cloud Studio
通过 Ollama
拉取的大模型配置在这里,其中的 apiBase
字段值就是我们通过 Ngrok
绑定的公网地址,注意的是这个域名可能下次绑定的时候就会变动,所以后续可能这里需要更新调整。
在 tabAutocompleteModel
配置项中,这里配置的是自动补全所使用的模型,配置格式与上面的 models
一致,这里我使用的是 qwen2.5-coder
使用效果
接下来就可以看看整体的效果,我们先看看配置是否成功,先看看 deepseek
再看看 qwen2.5-coder
同时也能够看到 Cloud Studio
中,在 Ngrok
的终端日志中有请求调用日志打印
测试编码能力
使用 deepseek-r1
模型,让它写一个登录页面
在深度思考模式下,完成了这个页面的代码
页面效果
从代码来看,并没有写页面样式,只是实现了代码功能部分,所以页面很简陋
自动补全
从上面配置的时候,自动补全使用的是 qwen2.5-coder:7b
模型,从实际体验的速度上来看,也是挺快的,而且从提示来看,也符合使用意图,猜想到登录页的这个位置可能需要一个 重置密码
的功能
版权声明:
作者:lrbmike
链接:https://blog.liurb.org/2025/02/04/cloud-studio-ollama-continue/
来源:大卷学长
文章版权归作者所有,未经允许请勿转载。