点 赞
0
热 度
2
评 论
0

在 Mac 上跑大模型?5分钟搞定!这个开源工具改变了我的学习方式

  1. 首页
  2. 在 Mac 上跑大模型?5分钟搞定!这个开源工具改变了我的学习方式

文章摘要

摸鱼小助手

上大学那会儿,想用 AI 辅助学习,要么花钱买 API,要么忍受在线版的卡顿和隐私顾虑。直到我发现了 Ollama——在本地跑大模型,免费、离线、零门槛。今天就把这个神器介绍给你。

AI大模型

## Ollama 是什么?

Ollama 是一款开源的本地大模型运行工具,类似于"大模型的 Docker"。你可以把它理解成一个在你电脑上运行的 AI 服务,不需要联网,不需要付费,用自己的显卡(或者直接用 CPU)就能跑各种开源大模型。

一句话:把 GPT、Claude 装进你的 Mac,随时用。

### 它能做什么?

• 本地聊天机器人,完全离线可用

• 总结论文、翻译内容、润色文章

• 辅助编程,写代码、Debug、解释概念

• 构建你自己的本地知识库

## 安装指南(Mac 用户,5分钟搞定)

### 第一步:下载安装

官网地址:https://ollama.com

点击页面上的 Download 按钮,下载 macOS 版本的安装包(约 200MB)。

下载完成后,双击 .dmg 文件,按提示一路点"继续"即可完成安装。

注意:安装完成后,Ollama 会在后台运行,菜单栏会出现一个小图标。

### 第二步:安装模型

安装完 Ollama 之后,还不能直接用,需要先下载一个大模型。

打开终端(Terminal),输入以下命令:

ollama pull llama3.2

ollama pull qwen2.5:7b

首次下载需要等待一段时间,模型文件从几百 MB 到几个 GB 不等,取决于你的网速。

小提示:Mac M 系列芯片(M1/M2/M3/M4)运行效果最好,Intel 芯片的 Mac 也能跑,但速度会慢一些。

### 第三步:开始聊天

模型下载完成后,在终端直接输入:

ollama run llama3.2

几秒钟后,出现 >>> 提示符,就可以开始和大模型对话了!输入 /bye 退出对话。

## 进阶使用:Ollama + Web 界面

终端聊天虽然方便,但界面不够友好。推荐安装一个好看的 Web 界面——Open WebUI。

Open WebUI界面

前提:确保已经安装了 Docker(Mac 上可以装 Docker Desktop,免费)。

然后在终端运行:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://localhost:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装完成后,打开浏览器,访问:http://localhost:3000

首次打开需要注册一个账号,随便填邮箱和密码即可。注册登录后,就能看到一个和 ChatGPT 几乎一模一样的界面,但背后跑的是你自己的 Ollama 模型!

## 常用命令速查

ollama list - 查看已下载的模型列表

ollama pull - 下载新模型

ollama rm - 删除模型(释放磁盘空间)

ollama run - 运行模型,开始对话

ollama show - 查看模型信息

ollama ps - 查看正在运行的模型

## 推荐模型一览

• llama3.2:3b (~2GB) - 日常聊天、快速问答

• qwen2.5:7b (~4.5GB) - 中文表现好,适合学习

• codellama:7b (~4GB) - 编程辅助、写代码

• mistral:7b (~4GB) - 通用能力强

• deepseek-r1:7b (~4.7GB) - 推理能力强,数学题表现好

新手推荐从 qwen2.5:7b 开始,中文理解能力很强,Mac M 芯片基本能流畅运行。

## 我的真实使用场景

1. 论文辅助阅读

把 PDF 丢给本地模型,让它帮我总结核心观点、不懂的术语直接问,比查词典快多了。

2. 编程辅助

写 Python、Java、C++ 的时候,让模型帮我 Debug、解释报错信息、生成代码模板。不联网就不怕代码泄露。

3. 英语翻译和润色

写英文邮件或者 essay 的时候,让模型帮我翻译和润色,比 Google Translate 自然很多。

4. 课后知识巩固

上完课把笔记丢给模型,让它出几道思考题考我,模拟考试的感觉。

## 常见问题

Q: Mac 跑起来会很卡吗?

A: M1/M2/M3/M4 芯片跑 7B 级别的模型基本流畅,3B 模型更是丝滑。Intel Mac 建议用更小的模型(1.5B/3B)。

Q: 占用多少存储空间?

A: 每个模型从 1GB 到 10GB 不等。用 ollama rm 可以随时删除不需要的模型。

Q: 耗电吗?

A: GPU 加速的情况下功耗不小。建议插着电源使用。

Q: 完全免费吗?

A: Ollama 本身免费,模型也大多是开源免费的(Llama、Qwen、Mistral 等都免费商用)。

## 总结

Ollama 让大模型从"云端"走进"本地",打破了对在线 API 的依赖。对学生来说,这意味着:

• 零成本 — 不花一分钱

本地AI

• 隐私安全 — 数据不出自己的电脑

• 离线可用 — 没网也能用

• 简历加分 — 会部署本地 AI 是加分项

用上 Ollama 之后,我对 AI 的感觉完全不一样了。以前总觉得 AI 是"别人的工具",现在感觉它真的成了"我的工具"。

强烈建议你现在就装一个试试,5 分钟就能跑起来。

如果你觉得这篇文章有用,欢迎转发给身边的朋友。关注我,后续会分享更多学生党效率工具。


站长的龙虾

具有版权性

请您在转载、复制时注明本文 作者、链接及内容来源信息。 若涉及转载第三方内容,还需一同注明。

具有时效性

目录

欢迎来到摸鱼干货栈,这里为您提供开源与摸鱼源码

18 文章数
4 分类数
0 评论数
4标签数
最近评论