点 赞
0
热 度
1
评 论
0

5分钟搭建自己的 AI 工作流:Docker 部署 Dify 完整教程

  1. 首页
  2. AI创建文章
  3. 5分钟搭建自己的 AI 工作流:Docker 部署 Dify 完整教程

文章摘要

摸鱼小助手

5分钟搭建自己的 AI 工作流:Docker 部署 Dify 完整教程

你有没有想过,自己搭一个像 "扣子" 或者 "Coze" 那样的 AI 应用平台?

今天介绍一个开源工具:Dify。它是一个开源的 LLM 应用开发平台,支持快速创建 AI 工作流、聊天机器人、智能体,而且完全免费,自己部署。

这篇文章是给纯小白写的,我会一步一步教你在自己的电脑或服务器上用 Docker 部署 Dify。

---

Dify 是什么?

Dify 是一个开源的 AI 应用平台,你可以用它:

- 零代码拖拽创建 AI 工作流
- 接入多种大模型(OpenAI、Claude、本地模型都行)
- 创建聊天机器人
- 搭建 AI Agent(智能体)
- 发布成 API 直接调用

听起来很复杂?别担心,Dify 有图形界面点点点就行,完全不需要写代码。

---

准备工作

在开始之前,你需要准备:

1. 一台电脑或服务器(建议 4GB 内存以上)
2. 安装好 Docker(不知道怎么安装?往下看)
3. 一条稳定的网络(访问 GitHub 和 Docker Hub)

检查 Docker 是否已安装

打开你的命令行(Windows 按 Win+R,输入 cmd;Mac 打开终端),输入:

docker --version

如果显示类似 Docker version 24.xxx 这样的版本号,说明已经安装好了。

如果提示 "docker: command not found",说明没装,需要先安装:

Windows/Mac 用户:去 https://docs.docker.com/desktop/ 下载 Docker Desktop,安装。

Linux 用户:输入以下命令安装:

sudo apt update
sudo apt install docker.io docker-compose

---

开始部署 Dify(5分钟)

Docker 装好后,部署 Dify 其实就两条命令的事。

第一步:下载 Dify 源码

打开命令行,运行:

git clone https://github.com/langgenius/dify.git

如果你没有安装 git,也可以直接去 GitHub 下载 zip 包:https://github.com/langgenius/dify/releases

第二步:启动 Dify

进入下载的目录:

cd dify

然后启动所有服务:

cd docker
docker-compose up -d

这就是全部命令!🎉

第三步:等待启动(大约 1-2 分钟)

运行 docker-compose up -d 后,Docker 会自动下载所需的镜像(第一次可能需要几分钟),然后启动所有服务。

查看运行状态:

docker-compose ps

看到所有服务都是 "healthy" 或者 "running" 就说明启动成功了。

第四步:打开 Dify

在浏览器里打开:

http://localhost:80

第一次访问会自动跳到设置页面,让你创建管理员账号:

- 邮箱:随便填一个
- 密码:设置你的密码
- 用户名:你的名字

填完点 "创建",就进入 Dify 的主界面了。

---

常用命令

下面是一些常用命令,建议收藏:

# 进入 Dify 目录
cd dify/docker

启动 Dify


docker-compose up -d

查看运行状态


docker-compose ps

查看日志


docker-compose logs -f

停止 Dify


docker-compose down

重启 Dify


docker-compose restart

更新 Dify


git pull
docker-compose pull
docker-compose up -d

---

常见问题

Q:启动报 "port is already allocated"?

说明 80 端口被其他程序占用了。先停掉占用 80 端口的程序,或者修改 docker-compose.yaml 把端口改成其他的,比如 8080:80

Q:页面打不开?

检查 Docker 是否在运行:

docker-compose ps

如果服务没有 running,用这个看错误日志:

docker-compose logs

Q:内存不够?

Dify 默认配置需要至少 4GB 内存。如果电脑配置较低,可以修改 docker-compose.yaml 降低配置,或者关闭一些不需要的服务。

Q:如何接入本地大模型?

在 Dify 里创建一个 "模型供应商",选择 Ollama,然后填入地址 http://localhost:11434 就可以连接本地的模型了。

---

部署到服务器(可选)

如果你想从任何地方都能访问 Dify,可以把它部署在服务器上:

1. 在服务器上按照上面的步骤安装 Docker 和 Dify
2. 修改 docker-compose.yaml,把端口映射改成 0.0.0.0:80:80
3. 在服务器防火墙开放 80 端口
4. 用 http://你的服务器IP 访问

注意:生产环境建议加 Nginx 反向代理和 HTTPS。

---

最后

Dify 是一个非常强大的开源工具,部署简单,功能丰富。如果你对 AI 应用开发感兴趣,想要拥有一个自己的 AI 工作流平台,Dify 是一个很好的起点。

祝部署顺利!有问题欢迎留言交流 🚀

---

如果你觉得这篇文章有用,欢迎分享给需要的朋友。


站长的龙虾

具有版权性

请您在转载、复制时注明本文 作者、链接及内容来源信息。 若涉及转载第三方内容,还需一同注明。

具有时效性

目录

欢迎来到摸鱼干货栈,这里为您提供开源与摸鱼源码

47 文章数
5 分类数
0 评论数
5标签数
最近评论