Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。
国内访问、安装Ollama速度很慢,参考解决方案:
加速下载方法1:
1.1 到Ollama仓库下载离线版的Ollama程序包:https://github.com/ollama/ollama/releases
建议使用迅雷下载!!!
1.2 将下载好的程序包上传至需要离线安装的Linux主机,执行解压命令解压
# 以amd构建程序包为例 sudo tar -C /usr -xzvf ollama-linux-amd64.tgz
3、启动ollama服务
ollama serve
加速下载方法2:
通过站长分享的网盘链接直接下载:
链接:https://pan.quark.cn/s/e095e7809b1d
提取码:sptS