Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大模型(LLM)而设计。 Ollama 适用于开发者、研究人员以及对数据隐私有较高要求的用户,它可以帮助用户在本地环境中快速部署和运行大模型,同时提供灵活的定制化选项。
Ollama 安装
1.下载Ollama,官方下载地址:https://ollama.com/download
2.下载完成后,使用ollama --version验证是否安装成功。在终端中输入以下命令来启动Ollama:ollama serve
3.Ollama用起来就跟Docker一样,一般是先查询可用的大模型,然后拉取大模型,最后运行大模型。也可以直接运行大模型,本地没有就去拉远程的,没有指定 :几b 就会拉取最新的
4.查询可用的大模型,我们直接去官网看一下:https://ollama.com/search

5、执行ollama run deepseek-r1:7b即可(拉取)运行对应的大模型。一般拉取大模型的时候前面快后面慢,可以在慢的时候使用ctrl+c终止,再重新执行run即可。

6、在Cherry Studio里配置大模型后,你就可以继续往下学了。

重要
hoppinzq按:我们在本地通过ollama部署了大模型,我想在我本地的web端调用ollama的api已跟大模型交互,但是调用的时候,会报跨域问题。
Q:如何允许本地或者其他网络来源访问 Ollama?
A
对于浏览器扩展程序,你需要显式允许扩展程序的来源模式。如果你希望允许所有浏览器扩展程序访问,将 OLLAMA_ORIGINS 设置为包含 chrome-extension://、moz-extension:// 和 safari-web-extension://*,或者根据需要设置特定的扩展程序:
允许所有Chrome、Firefox和Safari扩展程序
OLLAMA_ORIGINS=chrome-extension://*,moz-extension://*,safari-web-extension://*最终修复方案
环境变量配置OLLAMA_ORIGINS=*即可
Ollama 官方中文文档
API Docs
-
生成补全:
-
生成对话补全:
-
模型:
-
向量:
-
其他:
📝 记录笔记和心得 (0)