如何用 ollama 快速下载 deepseek 模型
本文为原创文章,转载注明出处,欢迎关注网站https://hkvision.cn
写在开头 最近由于工作的原因,已经有段时间没有更新博客了。一方面担心可能会引发不必要的纠纷,另一方面确实因为工作太忙、太累,实在抽不出时间和精力来写文章。不过,恰逢DeepSeek R1的热度持续上涨,我也想借这个机会,分享一个之前踩到的小坑,希望能对大家有所帮助。
背景 目前网上教的本地通过 ollama 来部署大模型的方式,都需要使用 ollama run <model> 这样的命令,或者通过一些可视化的前端来安装模型,但是这样的命令很可能因为直连,出现下载缓慢的状况,针对这样的状况,目前,网上的教程大多建议用户从ModeScope下载模型文件后手动包装modelfile文件再给Ollama使用。这种方法不仅步骤繁琐且容易出错。……