秦绍鹏
秦绍鹏
Published on 2025-03-29 / 72 Visits
0
1

上手Dify(1)---Dify的安装与使用并接入DeepSeek

前言

智能体刚出现的时候就很火爆,最近靠着MCP又是火爆了一把,以后肯定会越来越多的人去学习使用,不过作为AI小白的我还是要从基础的智能体开发开始学习,智能体开发平台有很多,大家可以自行上网搜索,我这里选择学习的是Dify,一是因为它免费且有社区,二是因为之前做项目对接过Dify的智能体API,从心理上对DIfy的接受度高一些。

Dify简介

Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

上面两段文字都是Dify官方技术文档上对它的解释,简而言之呢,就是一个简单、便携、易学易懂的一个低代码开发平台,可以帮助我们快速开发自己想要的智能体。

另外,本文以下内容都是根据官方文档给出的步骤/方法来进行实践的,如果觉得我说的啰嗦,可自行跳转到官方文档地址进行学习。

DIfy官方文档https://docs.dify.ai/zh-hans

DIfy部署(社区版)

为什么要强调是社区版,聪明的小伙伴肯定能想到了,因为Dify有商业版,我用来学习的版本是社区版,也是开源版,有兴趣的小伙伴可以自行搜索(https://github.com/langgenius/dify)。

对于Dify的定价以及各个版本简介

Dify 提供灵活的定价方案,覆盖不同用户需求:

1. 云服务版

  • 免费沙盒计划:包含 200 次免费 GPT-4 调用,适合个人或小型团队快速验证需求。

  • 付费订阅:根据使用量阶梯计费,支持按需扩展,适合中大型企业或高频使用场景。

2. 私有化部署

  • 社区版(开源):免费下载部署,适合技术团队自定义功能,但需自行维护服务器资源。

  • Premium 版:基于 AWS 的一键部署方案,支持数据私有化和企业级定制,适合对安全性要求高的客户。

3. 企业定制

  • 企业服务支持:提供专属解决方案、API 调用优化及高级功能支持,需联系官方获取报价。

  • 官网定价详情https://dify.ai/pricing

以上内容引用自知乎老哥:Dify:开启低代码 AI 应用开发新纪元 - 知乎

正式部署(宝塔面板)

我本人因为最近时间紧张,所以使用几个部署方式中最懒人的方法,宝塔面板部署。

Dify支持的其他方式部署可参阅:https://docs.dify.ai/zh-hans/getting-started/install-self-hosted

不知道宝塔面板的小伙伴可跳转到 https://www.bt.cn/new/download.html

  1. 登录宝塔面板,在菜单栏中点击 Docker,根据提示安装 Docker 和 Docker Compose 服务

    安装完毕效果

    安装之后效果

  2. Docker-应用商店中找到 Dify,点击安装

  3. 设置域名等基本信息,点击确定

    名称:应用名称,默认Dify-随机字符
    版本选择:默认latest
    域名:如需通过域名直接访问,请在此配置域名并将域名解析到服务器
    允许外部访问:如你需通过IP+Port直接访问,请勾选,如你已经设置了域名,请不要勾选此处
    端口:默认8088,可自行修改

  4. 大功告成。等待一会儿就可以使用了。

访问Dify

访问方式就是刚才设置的方法:

# 使用域名
http://yourdomain/

# 使用IP+端口

http://your_server_ip:8088/  #比如http://127.0.0.1:8088

访问之后会先进行管理账号初始化,输入相应的信息进行注册就好。

注册完毕后,会进入登录页面

输入信息进行登录

你会得到空空如也的一个页面,不过不用担心,我们继续按步骤往下。

接入大模型

在所有的工作开始之前,你需要进行接入大模型操作,就是把市面上已有的LLM大模型进行接入到你的Dify平台。

模型类型

Dify把模型分为了四个类型,分别为

  1. 系统推理模型。 在创建的应用中,用的是该类型的模型。智聊、对话名称生成、下一步问题建议用的也是推理模型。

    已支持的系统推理模型供应商:OpenAIAzure OpenAI ServiceAnthropic、Hugging Face Hub、Replicate、Xinference、OpenLLM、讯飞星火文心一言通义千问Minimax、ZHIPU(ChatGLM)

  2. Embedding 模型。在知识库中,将分段过的文档做 Embedding 用的是该类型的模型。在使用了知识库的应用中,将用户的提问做 Embedding 处理也是用的该类型的模型。

    已支持的 Embedding 模型供应商:OpenAI、ZHIPU(ChatGLM)、Jina AI(Jina Embeddings)

    相关学习链接:万字长文深入浅出文本嵌入(Text-Embedding)技术 - 知乎

  3. Rerank 模型Rerank 模型用于增强检索能力,改善 LLM 的搜索结果。

    已支持的 Rerank 模型供应商:Cohere、Jina AI(Jina Reranker)

  4. 语音转文字模型。将对话型应用中,将语音转文字用的是该类型的模型。

    已支持的语音转文字模型供应商:OpenAI

有兴趣的小伙伴可以自己去了解各个模型,因为我还没有学习那么深入,所以今天我们只接入DeepSeek的系统推理模型。

在Dify文档中,接入大模型有更多的技术说明,可自行查看 https://docs.dify.ai/zh-hans/guides/model-configuration

接入DeepSeek

  1. 回到Dify页面,点击 右上角头像-设置-模型供应商

  2. 第一次打开模型列表是没有的,因为我已经加入了DeepSeek模型,所以有内容。

  3. 往下滑,找到深度求索,然后点击安装

  4. 进入API购买网站,进行API充值 https://platform.deepseek.com/api_keys

  5. 第一次进入需要注册登录,然后就会是这个界面

  6. 之后点击去充值,充值完毕 点击API keys按钮

  7. 点击创建API key

  8. 自己取一个名称,然后点击确定

  9. 创建之后会弹出保存key的页面,注意 一定要保存好,他只会显示这一次,并且不要随便给他人

  10. 创建完毕,返回Dify中

  11. 点击模型列表中的apikey设置,将key粘贴到里面,并设置自定义API endpoint地址为 https://api.deepseek.com 然后点击确定

  12. 等待API-key旁边的图标变绿,并且展开有三个模型就代表创建好了。

  13. 对于模型解释
    * 出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。

    * deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model='deepseek-chat' 即可调用 DeepSeek-V3。

    * deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定 model='deepseek-reasoner',即可调用 DeepSeek-R1。

  14. 之后关闭页面,返回工作室页面。

创建聊天助手

接入完毕大模型,现在可以施展拳脚了。

创建一个聊天助手试一下。

  1. 名字随便,然后点击创建

  2. 如果不知道怎么下手,可以使用生成功能,比如我要实现一个excel公式生成器。

  3. 最后调试,在右上角选择模型

  4. 最终效果

  5. 同时,可以配合管理来进行使用,因为我也是刚入门,也不太了解,大家就自己摸索一下吧。

  6. 另外提一句,探索页面有很多模板可以直接使用,对新手很友好!

总结

因为这是第一次使用Dify,更多的还是依靠官方文档来操作,还没有太多自己的见解,所以显得有点刻意,但是学会了Dify的使用搭建方法与基本的使用步骤。

希望在接下来的学习中能悟到更多深层次的知识,许多地方我都没有提,像一些参数调优之类的。

这次只是使用Dify创建了最简单的聊天助手,其实Dify更多的是用来创建多轮会话智能体与工作流,接下来的学习更为重要。


Comment