ollama 命令行速查

  • 拉取模型到本地:ollama pull [模型名]
  • 列出本地模型列表:ollama list
  • 从本地删除模型:ollama delete [模型名]
  • 启动本地对话 (终端):ollama chat [模型名]
  • 启用 RESTful API 服务,供其他程序调用模型:ollama serve
  • 直接生成模型对给定输入的回复:`ollama generate [模型名] -p “[提示词]”
  • 清理临时文件,不删除模型:ollama clean
  • 查看 ollama运行状态:ollama status
  • 停止 ollama 服务:pkill -f "ollama serve"
    调用 API:
    curl -X POST http://localhost:11434/api/v1/completions \
      -H "Content-Type: application/json" \
      -d '{
            "model": "[你的模型名]",
            "prompt": "[你想说的话]"
          }'

    本地部署 Deepseek

    首先需要安装 ollama:https://ollama.com/download 可以下载符合个人操作系统的版本。下载后解压,并拖到”应用程序”,即 /Applications 文件夹
    image-20250210171637291.webp
    然后在任意本地终端使用命令:ollama run [你要的模型] 即可
    对于 deepseek-r1 而言,访问:https://ollama.com/library/deepseek-r1 可以看到如下界面:
    image-20250210172337080.webp
    我的 Mac 内存大小为 36GB,因此使用 32B 模型:
    image-20250210172629773.webp
    在终端使用 ollama run deepseek-r1:32b 得到的日志如下:
    ❯ ollama run deepseek-r1:32b                
    pulling manifest                          
    pulling 6150cb382311... 100% ▕████████████████████████████████████▏  19 GB
    pulling 369ca498f347... 100% ▕████████████████████████████████████▏  387 B
    pulling 6e4c38e1172f... 100% ▕████████████████████████████████████▏ 1.1 KB
    pulling f4d24e9138dd... 100% ▕████████████████████████████████████▏  148 B
    pulling c7f3ea903b50... 100% ▕████████████████████████████████████▏  488 B
    verifying sha256 digest                      
    writing manifest
    success         
    >>> 
    然后去下载可以可视化问答的 App,https://chatboxai.app/en/install,如果你只要测试问答,可以忽略以下步骤。
    image-20250210184904610.webp
    安装完毕后打开,需要配置本地 ollama 服务的接口,打开设置根据需要配置:
    image-20250210190512778.webp
    然后即可新建对话了!例如:
    image-20250210190533390.webp

image-20250210172830814.webp

参考文献