Playbook

在 VS Code 中进行 Vibe Coding

- [Overview](#overview)

统一模板Markdown 驱动/vibe-coding

在 VS Code 中进行 Vibe Coding

使用 DGX Spark 作为 Ollama 的本地或远程 Vibe Coding 助手并继续

目录


概述

基本思路

本手册将引导您将 DGX Spark 设置为 Vibe 编码助手 — 在本地或通过Continue.dev 将其设置为 VSCode 的远程编码伴侣。
本指南使用 OllamaGPT-OSS 120B 来轻松将编码助手部署到 VSCode。其中包括高级说明,允许 DGX Spark 和 Ollama 提供可通过本地网络使用的编码助手。本指南也是针对操作系统的全新安装编写的。如果您的操作系统不是新安装的并且遇到问题,请参阅故障排除选项卡。

你将完成什么

您将拥有一个完全配置的 DGX Spark 系统,该系统能够:

  • 通过 Ollama 运行本地代码帮助。
  • 远程服务模型以进行Continue 和 VSCode 集成。
  • 使用统一内存托管 GPT-OSS 120B 等大型 LLM。

先决条件

  • DGX Spark(推荐128GB统一内存)
  • Ollama 和您选择的法学硕士(例如 gpt-oss:120b
  • VSCode
  • 继续 VSCode 扩展
  • 模型下载的互联网接入
  • 基本熟悉打开 Linux 终端、复制和粘贴命令。
  • 具有 sudo 访问权限。
  • 可选:用于远程访问配置的防火墙控制

时间与风险

  • 持续时间: 约30分钟
  • 风险: 由于网络问题导致数据下载缓慢或失败
  • 回滚: 正常使用期间不会进行永久性系统更改。
  • 最后更新: 2025 年 10 月 21 日
    • 首次发表

指示

步骤1.安装Ollama

使用以下命令安装最新版本的 Ollama:

curl -fsSL https://ollama.com/install.sh | sh

服务运行后,拉取所需的模型:

ollama pull gpt-oss:120b

步骤 2.(可选)启用远程访问

要允许远程连接(例如,从使用 VSCode 并继续的工作站),请修改 Ollama systemd 服务:

sudo systemctl edit ollama

在注释部分下方添加以下行:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"

重新加载并重新启动服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

如果使用防火墙,请打开端口 11434:

sudo ufw allow 11434/tcp

验证工作站是否可以连接到 DGX Spark 的 Ollama 服务器:

curl -v http://YOUR_SPARK_IP:11434/api/version

YOUR_SPARK_IP 替换为您的 DGX Spark 的 IP 地址。
如果连接失败,请参阅“故障排除”选项卡。

步骤3.安装VSCode

对于 DGX Spark(基于 ARM),下载并安装 VSCode:
导航到 https://code.visualstudio.com/download 并下载 Linux ARM64 版本的 VSCode。后
下载完成,记下下载的包名称。在下一个命令中使用它来代替 DOWNLOADED_PACKAGE_NAME。

sudo dpkg -i DOWNLOADED_PACKAGE_NAME

如果使用远程工作站,安装适合您的系统架构的 VSCode

步骤 4. 安装Continue.dev 扩展

打开 VSCode 并从 Marketplace 安装 Continue.dev

  • 转到 VSCode 中的扩展视图
  • 搜索 Continue.dev 发布的 Continue 并安装扩展。
    安装完成后,单击右侧栏上的继续图标。

步骤 5. 本地推理设置

  • 单击Or, configure your own models
  • 单击Click here to view more providers
  • 选择 Ollama 作为提供商
  • 对于型号,选择 Autodetect
  • 通过发送测试提示来测试推理。

您下载的模型现在将成为推理的默认模型(例如 gpt-oss:120b)。

步骤 6. 设置工作站以连接到 DGX Spark 的 Ollama 服务器

要将运行 VSCode 的工作站连接到远程 DGX Spark 实例,必须在该工作站上完成以下操作:

  • 按照步骤 4 中的说明继续安装
  • 单击左侧窗格中的 Continue 图标
  • 单击Or, configure your own models
  • 单击Click here to view more providers
  • 选择 Ollama 作为提供者
  • 选择 Autodetect 作为模型。

继续 无法检测到模型,因为它正在尝试连接到本地托管的 Ollama 服务器。

  • 在“继续”窗口的右上角找到 gear 图标并单击它。
  • 在左侧窗格中,单击 模型
  • 聊天 下的第一个下拉菜单旁边,单击齿轮图标。
  • 继续的 config.yaml 将打开。记下您的 DGX Spark 的 IP 地址。
  • 将配置替换为以下内容。 YOUR_SPARK_IP 应替换为您的 DGX Spark 的 IP。
name: Config
version: 1.0.0
schema: v1

assistants:
  - name: default
    model: OllamaSpark

models:
  - name: OllamaSpark
    provider: ollama
    model: gpt-oss:120b
    apiBase: http://YOUR_SPARK_IP:11434
    title: gpt-oss:120b
    roles:
      - chat
      - edit
      - autocomplete

YOUR_SPARK_IP 替换为 DGX Spark 的 IP 地址。
为您希望远程托管的任何其他 Ollama 模型添加其他模型条目。

故障排除

症状原因使固定
奥拉马未开始GPU 驱动程序可能未正确安装在终端中运行 nvidia-smi。如果命令失败,请检查 DGX 仪表板以获取 DGX Spark 的更新。
继续 无法通过网络连接端口 11434 可能未打开或无法访问运行命令 ss -tuln | grep 11434. If the output does not reflect tcp LISTEN 0 4096 *:11434 *:*,返回步骤 2 并运行 ufw 命令。
继续无法检测到本地运行的 Ollama 模型未正确设置或检测到配置检查 /etc/systemd/system/ollama.service.d/override.conf 文件中的 OLLAMA_HOSTOLLAMA_ORIGINS。如果 OLLAMA_HOSTOLLAMA_ORIGINS 设置正确,请将这些行添加到 ~/.bashrc 文件中。
内存使用率高模型尺寸太大确认没有其他大型模型或容器正在使用 nvidia-smi 运行。使用较小的模型(例如 gpt-oss:20b)以实现轻量级使用。

[!NOTE]
DGX Spark 使用统一内存架构 (UMA),可实现 GPU 和 CPU 之间的动态内存共享。
由于许多应用程序仍在更新以利用 UMA,因此即使在
DGX Spark 的内存容量。如果发生这种情况,请使用以下命令手动刷新缓冲区缓存:

sudo sh -c 'sync; echo 3 > /proc/sys/vm/drop_caches'