763 字
4 分钟
使用ollama在本地部署大模型
2025-09-01
原创

Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大模型(LLM)而设计。 Ollama 适用于开发者、研究人员以及对数据隐私有较高要求的用户,它可以帮助用户在本地环境中快速部署和运行大模型,同时提供灵活的定制化选项。

Ollama 安装#

1.下载Ollama,官方下载地址:https://ollama.com/download

2.下载完成后,使用ollama --version验证是否安装成功。在终端中输入以下命令来启动Ollama:ollama serve

3.Ollama用起来就跟Docker一样,一般是先查询可用的大模型,然后拉取大模型,最后运行大模型。也可以直接运行大模型,本地没有就去拉远程的,没有指定 :几b 就会拉取最新的

4.查询可用的大模型,我们直接去官网看一下:https://ollama.com/search

img
5、执行ollama run deepseek-r1:7b即可(拉取)运行对应的大模型。一般拉取大模型的时候前面快后面慢,可以在慢的时候使用ctrl+c终止,再重新执行run即可。

img

6、在Cherry Studio里配置大模型后,你就可以继续往下学了。

img

重要#

hoppinzq按:我们在本地通过ollama部署了大模型,我想在我本地的web端调用ollama的api已跟大模型交互,但是调用的时候,会报跨域问题。

Q:如何允许本地或者其他网络来源访问 Ollama?
A 默认允许来自 127.0.0.1 和 0.0.0.0 的跨域请求。可以通过 OLLAMA_ORIGINS 配置额外的来源。 img
对于浏览器扩展程序,你需要显式允许扩展程序的来源模式。如果你希望允许所有浏览器扩展程序访问,将 OLLAMA_ORIGINS 设置为包含 chrome-extension://、moz-extension:// 和 safari-web-extension://*,或者根据需要设置特定的扩展程序:

允许所有Chrome、Firefox和Safari扩展程序#

Terminal window
OLLAMA_ORIGINS=chrome-extension://*,moz-extension://*,safari-web-extension://*

最终修复方案#

环境变量配置OLLAMA_ORIGINS=*即可

Ollama 官方中文文档#

API Docs#

  1. 生成补全:

  2. 生成对话补全:

  3. 模型:

  4. 向量:

  5. 其他:

使用ollama在本地部署大模型
https://blog.hoppinzq.com/posts/ollama/ollama/
作者
HOPPINZQ
发布于
2025-09-01
许可协议
CC BY-NC-SA 4.0

📝 记录笔记和心得 (0)

用户头像
游客
访客身份
加载笔记中...

AI助手

有问题随时问我

你好!我是HOPPINAI助手,有什么可以帮助你的吗?

你可能想:

刚刚

按 Enter 发送,Shift+Enter 换行

在线