✨人手一只龙虾🦞尚欠火候,但人手一只本地大模型,时机已熟
你的对话记录只保存在本地,不会联网、不会上传到 Ollama 的服务器
-
-
-
模型下载后就在你的硬盘里,推理计算都在你的显卡和 CPU上完成。
(💻电脑配置有点吃紧,显卡RTX 3080 12G显存+64G内存)
从Ollama的下载>安装,到大模型的选择>安装,全程都由千问3.5-plus在线指导
Ollama 的官方服务器在国外,国内直接访问可能不稳定,我们提供两种下载方式:
https://github.com/ollama/ollama/releases/latest
找到以 Ollama.Setup.exe 开头的文件进行下载
(这个链接妙啊,一直是最新版).exe安装包 1G多
链接:https://pan.baidu.com/s/1Sg23TlxvYmJA9JZpwXmCFA?pwd=b6uv
把这些大模型列表截图+自己电脑配置截图,发给千问app
给我推荐了:Qwen3-14B日常跑得快、Qwen3-30B用来偶尔的深度思考、复杂推理
你可以发文/图,也可以发PDF/音视频(Qwen3-VL系列支持)
而且Ollama也不渲染Markdown格式(毕竟有个界面就不错了,不然你看下载模型方法2▼)
然后在命令行对话,只要显示>>>就说明Ollama在运行中
这界面也太难以忍受了,而且没有历史记录、不能分组对话
可这是千问app指导下实现的,然后问他Ollama怎么办,这才明白了Ollama的妙
想下载列表外的模型,直接在Ollama Find Model搜
因为Ollama还得设置联网(别忘了它的特点就是离线)
*如果需要手机、平板在局域网访问电脑的ollama,打开「Expose ….network」
⑤模型下载到电脑,点Browse自定义路径,不要空格/中文 避免万一
⑥上下文长度:大模型 很吃配置;先拉高一点,卡顿严重再调小
(代码复制在txt记事本🗒再保存.HTML后缀预览,或者交给AI)
基础的逻辑、运算、代码都通过了,甚至连难倒过Qwen2.5的脑筋急转弯都通过了,喜出望外🤩
Ollama 降低了门槛,让离线AI 从遥不可及,变成点击即可拥有。它或许不够华丽、不够全能,却足够安全、足够自由
真正的智能,不应依附于云端与权限,而应扎根在自己的设备里,陪伴你、服务你、只属于你。愿我们都能在技术浪潮中,守住一份可控与安心,拥有属于自己的、安静运行的「数字大脑」。