腾讯云Cloud Studio + Ollama+ Continue 实现 Cursor 免费平替

Cloud Studio 创建 GPU 工作空间

https://cloud.tencent.com/product/cloudstudio

我们选择 Llama3.2 这个模板,因为这个有比较大的磁盘,将近 500G 空间足够让我们拉取大模型。

cloud_studio_01

更新软件包

更新并安装系统软件,以下操作都在空间的终端里面处理
cloud_studio_02

软件安装

apt update
apt install curl sudo

安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

配置 ollama 跨域访问

vim /etc/systemd/system/ollama.service

修改成下面这样

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

启动服务

这里原想设置为服务,并自动启动,一直不成功,没调整出来,只能够在前台启动

# 开启新终端启动,并且不能关闭
ollama serve
# 如果不走配置方式,实现支持跨域,可以使用以下命令启动
OLLAMA_HOST="0.0.0.0" OLLAMA_ORIGINS="*" ollama serve

cloud_studio_flowise_03

拉取大模型

安装 Ollama 后,就可以按自己的喜好拉取大模型了,以下以最新的 deepseek-r1:7b 模型为例。

cloud_studio_03

从实际效果来看,免费空间提供 16G 显存,在 7b 参数模型下速度还算可以,但是在使用 14b 参数时,就显得比较吃力。

我这边同时下载了 deepseekqwen2.5-coder 作为后面的演示

cloud_studio_03_01

Ngrok

内网穿透,使公网可以访问内部网络,这样我们就可以正常从外部访问到里面的服务了

注册账号

登录后台切换到 linux 安装教程

https://dashboard.ngrok.com/get-started/setup/linux

cloud_studio_flowise_06

安装

curl -sSL https://ngrok-agent.s3.amazonaws.com/ngrok.asc \
    | sudo tee /etc/apt/trusted.gpg.d/ngrok.asc >/dev/null \
    && echo "deb https://ngrok-agent.s3.amazonaws.com buster main" \
    | sudo tee /etc/apt/sources.list.d/ngrok.list \
    && sudo apt update \
    && sudo apt install ngrok

配置

# [Your Token] 填入实际的token
ngrok config add-authtoken [Your Token]

绑定端口

注意一个账号只能够绑定一次,这里绑定的就是 ollama11434 端口,这样就可以从外部访问 ollama 服务

ngrok http 11434

启动成功后,就可以看到一个公网地址,格式为 https://xxxxx.ngrok-free.app/,也就是 ollamaapi base url 地址
cloud_studio_04

点击链接后,会有一个提示,如下图
cloud_studio_05

点击 Visit Site 后,如果看到这个提示,就代表穿透成功
cloud_studio_06

这里要注意的是,这个公网地址,下一次再执行端口绑定的时候,是会改变的,所以后面配合 Continue 插件配置的域名,就需要修改更新

Continue 插件配置

以下以 vs code 编辑器作为演示

安装插件

在插件扩展里面搜索 Continue,并进行安装
vscode_01

配置模型

进入插件编辑页面,我们需要配置大模型的参数。
vscode_02

models 配置项中,将我们在 Cloud Studio 通过 Ollama 拉取的大模型配置在这里,其中的 apiBase 字段值就是我们通过 Ngrok 绑定的公网地址,注意的是这个域名可能下次绑定的时候就会变动,所以后续可能这里需要更新调整。

tabAutocompleteModel 配置项中,这里配置的是自动补全所使用的模型,配置格式与上面的 models 一致,这里我使用的是 qwen2.5-coder

使用效果

接下来就可以看看整体的效果,我们先看看配置是否成功,先看看 deepseek

vscode_03

再看看 qwen2.5-coder

vscode_04

同时也能够看到 Cloud Studio 中,在 Ngrok 的终端日志中有请求调用日志打印

vscode_05

测试编码能力

使用 deepseek-r1 模型,让它写一个登录页面
vscode_06

在深度思考模式下,完成了这个页面的代码
vscode_06_01

页面效果

从代码来看,并没有写页面样式,只是实现了代码功能部分,所以页面很简陋
vscode_06_02

自动补全

从上面配置的时候,自动补全使用的是 qwen2.5-coder:7b 模型,从实际体验的速度上来看,也是挺快的,而且从提示来看,也符合使用意图,猜想到登录页的这个位置可能需要一个 重置密码 的功能
vscode_07

版权声明:
作者:lrbmike
链接:https://blog.liurb.org/2025/02/04/cloud-studio-ollama-continue/
来源:大卷学长
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>