Ollama 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型

Ollama 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
快速开始
进入 容器 列表,找到 Ollama 容器,点击进入终端运行并与 Llama 2 聊天:
ollama run llama2
模型库
Ollama 支持 ollama.com/library 上提供的一系列模型
以下是一些可以下载的示例模型:
Model | Parameters | Size | Download |
---|---|---|---|
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Mistral | 7B | 4.1GB | ollama run mistral |
Dolphin Phi | 2.7B | 1.6GB | ollama run dolphin-phi |
Phi-2 | 2.7B | 1.7GB | ollama run phi |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
延伸阅读
-
DeepSeek服务器“裸奔”互联网现漏洞 专家提醒:立即修改配置
连日来,伴随DeepSeek大模型在各领域的迅速流行,越来越多的公司和个人选择将该开源大模型私有化部署或本地部署。值得一提的是,进行此类部署的主流方式之一是使用开源大型语言模型服务工具“Ollama”
-
国产大模型deepseek-R1本地部署手册
近期deepseek多次冲上热搜,又是多模态支持,又是开源发布R1模型,最近还受到了网络攻击。这篇文章介绍下如何快速部署deepseek-R1,本地访问,因为目前提供了最低7B数据集的模型。部署方案
[广告]赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- UpSnap:搭建一款开源且精美的网络唤醒服务
- 可爱TV - 影视在线搜索库 (keai.cm)
- OpenAI CEO奥尔特曼与男程序员Oliver结婚;荣耀回应抄袭锤子争议;Python 3.13将引入JIT编译器|极客头条
- Node.js 是过去十年最具影响力的服务器技术吗?
- 再强调一遍:Unix 不是 Linux!
- Android4.4和8.0 DexClassLoader加载流程分析之寻找脱壳点
- 6.25亿美元,再次刷新加密货币盗窃案纪录
- 邂逅雪山下的成都智算中心
- 破解指纹识别有多简单?所有人都能轻易做到
- 诸子云沙龙系列活动 | 2021.9.25北京.综合场
- 人物 | 胡峰:职场十四年投资理财与网安管理体悟尤深
- 亚洲诚信联合263企业邮箱 推出数字签名解决方案
赞助链接