Flowise允许用户通过拖放组件设计LLM应用,界面采用React-Flow技术,支持构建聊天机器人、文档问答系统、语言翻译工具等,无需编写代码。Flowise包含预置节点,如OpenAI连接器、文本分割器、向量数据库集成模块,用户可通过连线定义数据流向。
1、NPM部署
安装NodeJS ≥18.15.0
执行命令:
npm install -g flowise
npx flowise start --FLOWISE_USERNAME=user --FLOWISE_PASSWORD=1234
访问 http://localhost:3000
2、Docker部署
克隆仓库后进入docker目录,创建.env文件配置端口和认证信息
启动容器:
docker-compose up -d
支持自定义数据库路径和存储卷
3、源码构建
使用PNPM安装依赖并编译:
git clone https://github.com/FlowiseAI/Flowise.git
pnpm install && pnpm build
pnpm start
开发模式下代码变更自动热更新
Chatflows
基于对话流程设计,包含LLM模型、提示模板、记忆模块等节点。例如,构建天气查询机器人仅需连接OpenAI模块、提示模板和LLM链。
文档问答系统
支持PDF/Word文件上传,通过文本分割器处理内容后存入向量数据库(如Chroma、Pinecone),结合检索链实现基于文档的自动问答。
工具集成
可编写JavaScript自定义函数,调用外部API或处理业务逻辑。
应用级认证
启动时通过环境变量设置用户名密码,防止未授权访问。
API密钥管理
为每个聊天流程分配独立API密钥,调用接口需在请求头添加Authorization: Bearer <key>
。
API调用
将构建的流程导出为REST API,前端应用通过POST请求交互。
嵌入式组件 生成HTML代码片段直接嵌入网页,实现聊天窗口快速部署。
向量数据库
兼容Pinecone、Supabase、Chroma等,需预先配置API密钥与索引参数。
关系型数据库
支持SQLite、MySQL、PostgreSQL存储应用配置和会话数据。
1、历史问答机器人
上传50个历史问题文档,使用OpenAI Embeddings生成向量后存入Chroma,构建检索式问答链。
2、GitHub仓库分析
加载仓库文档,结合语义搜索实现技术栈自动解析。
3、多语言翻译器
配置多轮提示模板,连接ChatGPT实现实时语言转换。