提示
本文的对比时间在 2025 年 8 月,对比的分别是 Dify 开源版本 v1.6.0
与 BISHENG 开源版本 v1.3.1
。
很久不见,今天单独开一篇文章来聊聊 Dify 和 BISHENG 这两个开源 AI 应用框架。你问我为什么不一起说说字节的 Coze?幼儿园小朋友可不该来瞎掺和。
2025年8月7日大约 9 分钟
提示
本文的对比时间在 2025 年 8 月,对比的分别是 Dify 开源版本 v1.6.0
与 BISHENG 开源版本 v1.3.1
。
很久不见,今天单独开一篇文章来聊聊 Dify 和 BISHENG 这两个开源 AI 应用框架。你问我为什么不一起说说字节的 Coze?幼儿园小朋友可不该来瞎掺和。
本篇将以两个简单的应用场景——验证码识别(图文输入)和视频理解(视频文本输入),向你介绍如何使用 Qwen 2.5 VL 模型。我们将会使用 vLLM 作为推理框架,使用示例则使用 Python 代码和 Cherry Studio。因此同时,本篇也将会简单介绍 vLLM 部署 Qwen 2.5 VL。
相关信息
本文中使用的环境:
随着人工智能应用的普及,越来越多的开发者开始关注如何构建自己的 AI 应用。Model Context Protocol(MCP)作为一种新的协议标准,为 AI 应用的开发提供了更高效、更通用的方式。本文将以 Apache ECharts
+ TypeScript
为例,快速入手 MCP 服务器开发。
MCP (Model Context Protocol) 是一种用于 LLM 与应用程序之间交互的协议。它尽可能统一了 LLM 与外部应用(工具)之间的交互方式,让开发者可以注重于业务开发,而不是费心于与不同种类的 LLM 交互的细节。