macOS部署DeepSeek-r1
好奇,跟着网友们的操作试了一下
网上方案很多,主要参考的是这篇
DeepSeek 接入 PyCharm,轻松助力编程_pycharm deepseek-CSDN博客
方案是:PyCharm + CodeGPT插件 + DeepSeek-r1:1.5b
假设已经安装好了PyCharm
PyCharm: the Python IDE for data science and web development
https://blog.csdn.net/ytomc/category_11724865.html
1. 下载Ollama
https://ollama.com
2. 下载之后解压,将Ollama移动到合适的位置,比如Application里
3. 运行Ollama
4. 点击Next
5. 点击Install,输入电脑密码
6. 点击Finish
7. 拉取deepseek-r1:在终端执行 ollama pull deepseek-r1:1.5b
1.5b是最小的版本,只是玩玩用这个就够了,CPU也可
在终端中输入ollama list,可以查询下载的模型
模型存储位置:
macOS: ~/.ollama/models
Linux: /usr/share/ollama/.ollama/models
Windows: C:\Users\<username>\.ollama\models
<username>根据实际替换
8. 安装插件
打开PyCharm,找到Settings-Plugins,搜索“Proxy AI”,然后安装“Proxy AI”
注意,原来好像是叫CodeGPT,但我搜不到,可能是改名了
9. 配置
找到Settings-Tools-CodeGPT-Providers-Ollama (Local),Model选择刚拉取的deepseek模型
10. 回到PyCharm的项目界面,右侧点CodeGPT开始聊天
对话框可以切模型