一行代码在Mac上部署deepseek
前两天发了一个关于Ollama 项目的介绍的文章,今天就接着说一下通过几行代码在本地部署DeepSeek,当然如果你是windows系统也是差不多的步骤,都是控制台运行,之所以在这边都是推荐直接跑控制台是因为这样占用系统内容更少,减轻跑ai时候的系统压力。
打开ollama软件之后,在控制台运行指令: ollama run deepseek-r1:8b
在此之前你需要先安装Ollama,这个比较简单,只需在官网下载(https://ollama.com/ ),运行即可。
随后控制台输入下面指令,运行 deepseek-r1:8b 版的大模型,如果未下载,会直接进行下载。
下图中使用的这个版本的模型较为小巧,也够日常使用,在ai思考的时候,我看下了gpu的内存占用情况,峰值大概接近90%左右。
目前我的Mac mini配置为 M4/24g/1T 版,运行起来没有卡顿,并且不影响其他工作,如果你也有类似需求,可以无痛部署一个本地ai ❤️。
下面欣赏下8b小模型生成的文章:
本文标题:一行代码在Mac上部署deepseek
文章作者:Keyle
发布时间:2025-02-17
最后更新:2025-02-17
原始链接:https://vrast.cn/posts/56621/
版权声明:©Keyle's Blog. 本站采用署名-非商业性使用-相同方式共享 4.0 国际进行许可