Ollama | 零代码上手Ollama:三步拥有离线大模型

AI 知识库24小时前发布 Jaysn
613 0 0
熊猫办公

🦙🦙🦙「开源之王又又又登顶」
Ollama | 零代码上手Ollama:三步拥有离线大模型
阿里旗舰大模型千问3.5-plus上线即刷屏
同时千问-3.5在开源世界 再创新高
Ollama | 零代码上手Ollama:三步拥有离线大模型
✨人手一只龙虾🦞尚欠火候,但人手一只本地大模型,时机已熟

你的对话记录只保存在本地,不会联网、不会上传到 Ollama 的服务器
本地运行,数据隐私绝对保密
Ollama | 零代码上手Ollama:三步拥有离线大模型
这是Ollama,用来下载、装载、托管大模型

本期目录:
  1. 带你用超简易的方法体验Qwen3本地版
  2. Ollama的设置
  3. 本地大模型测试
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama 的核心设计理念就是 “本地优先”
模型下载后就在你的硬盘里,推理计算都在你的显卡和 CPU上完成。
(💻电脑配置有点吃紧,显卡RTX 3080 12G显存+64G内存)
本地部署大模型有多香,可能只有尝过才明白
从Ollama的下载>安装,到大模型的选择>安装,全程都由千问3.5-plus在线指导
(虽然编程的事儿,问Claude更稳妥)
Ollama | 零代码上手Ollama:三步拥有离线大模型

Ollama | 零代码上手Ollama:三步拥有离线大模型
下载与安装 Ollama
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama 的官方服务器在国外,国内直接访问可能不稳定,我们提供两种下载方式:
1️⃣Github🔗
https://github.com/ollama/ollama/releases/latest
找到以 Ollama.Setup.exe 开头的文件进行下载
Ollama | 零代码上手Ollama:三步拥有离线大模型
截止发文,ollma版本v0.17.5
(这个链接妙啊,一直是最新版).exe安装包 1G多
2️⃣网盘🔗
链接:https://pan.baidu.com/s/1Sg23TlxvYmJA9JZpwXmCFA?pwd=b6uv
(自动提取)
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
Win+Mac两个安装包
下面以Win为例
双击默认C盘自己就全部搞定了
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
安装大模型
也是两种方式:
1️⃣直接在Ollama里下载
Ollama | 零代码上手Ollama:三步拥有离线大模型
这么多🤩先别眼花😵‍💫
先找到qwen3开头的,都是本地版通义千问大模型
这时要根据自己电脑配置合理下载
问AI啊
把这些大模型列表截图+自己电脑配置截图,发给千问app

给我推荐了:Qwen3-14B日常跑得快、Qwen3-30B用来偶尔的深度思考、复杂推理
选好大模型,点 ↓ 安装。说句话自动下载
Ollama | 零代码上手Ollama:三步拥有离线大模型
可以分组对话▼
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
试用方式和习惯,更像是与DeepSeek的交互
你可以发文/图,也可以发PDF/音视频(Qwen3-VL系列支持)
但对方反馈的仅是纯文本
而且Ollama也不渲染Markdown格式(毕竟有个界面就不错了,不然你看下载模型方法2▼)
2️⃣用系统自带的「终端」来配置大模型:
直接在命令行输入:
ollama run qwen:14b
Ollama | 零代码上手Ollama:三步拥有离线大模型
看到Qwen 14B开始下载了
Ollama | 零代码上手Ollama:三步拥有离线大模型
然后在命令行对话,只要显示>>>就说明Ollama在运行中
这界面也太难以忍受了,而且没有历史记录、不能分组对话
可这是千问app指导下实现的,然后问他Ollama怎么办,这才明白了Ollama的妙
再次亮出Ollama自带模型:
Ollama | 零代码上手Ollama:三步拥有离线大模型
想下载列表外的模型,直接在Ollama Find Model搜
比如AI推荐了
Ollama | 零代码上手Ollama:三步拥有离线大模型
嗯,还是问AI来得快
因为Ollama还得设置联网(别忘了它的特点就是离线)
设置Ollama
安装简易显设置一下
Ollama | 零代码上手Ollama:三步拥有离线大模型
高手自定义即可
刚接触照做就行
Ollama | 零代码上手Ollama:三步拥有离线大模型
逐一介绍:
①忽略它,不登录、不联网就对了;
除非未来在Ollama服务器托管超大模型
②③④,联网相关,建议都关闭
*如果需要新模型临时打开,下完再关
*如果明确需要联网搜索,打开「CLoud」
*如果需要手机、平板在局域网访问电脑的ollama,打开「Expose ….network」
⑤模型下载到电脑,点Browse自定义路径,不要空格/中文 避免万一
⑥上下文长度:大模型 很吃配置;先拉高一点,卡顿严重再调小
⑦初始化设置
Ollama | 零代码上手Ollama:三步拥有离线大模型
测试大模型
这下三个版本的大模型在手,好不好用 一测便知
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
Ollama | 零代码上手Ollama:三步拥有离线大模型
(代码复制在txt记事本🗒再保存.HTML后缀预览,或者交给AI)
Qwen3-30B这个大块头,运行略显吃力了
Ollama | 零代码上手Ollama:三步拥有离线大模型
但巨值
基础的逻辑、运算、代码都通过了,甚至连难倒过Qwen2.5的脑筋急转弯都通过了,喜出望外🤩
好了,准备去下Qwen刚开源的3.5啦
Ollama 降低了门槛,让离线AI 从遥不可及,变成点击即可拥有。它或许不够华丽、不够全能,却足够安全、足够自由
真正的智能,不应依附于云端与权限,而应扎根在自己的设备里,陪伴你、服务你、只属于你。愿我们都能在技术浪潮中,守住一份可控与安心,拥有属于自己的、安静运行的「数字大脑」。
属于你自己的「贾维斯」v0.1

© 版权声明

相关文章