微博

电脑版
提示:原网页已由神马搜索转码, 内容由weibo.com提供.
24-06-21 21:37发布于 上海 来自 iPhone 15 Pro Max已编辑
🎉 Langchain-Chatchat v0.3.0 现已上线,感谢大家的耐心等待,新版本中有更多开发者加入到了开发过程,并引入了更多新功能。因功能变动较大,建议参考项目 README.md#快速上手 逐步完成安装过程。

🔗 O网页链接

🥳 0.3.0 版本主要新增内容如下:

1️⃣ Langchain-Chatchat Python 库现已发布至 Pypi,可通过 pip install langchain-chatchat 方式直接安装,推荐使用官方 Pypip download 源或清华源以及时获取最新版安装包;

2️⃣ 替换原有直接使用 FastChat 模型推理框架的模型接入方案,改为支持 Xinference、Ollama、One API 等多种模型推理与在线 API 框架的接入,现已支持 GLM-4-Chat 与 Qwen2-Instruct 等最新中文开源大模型的接入;

3️⃣ 所有 Chat 接口修改为与 OpenAI API 形式对齐,真正实现 OpenAI API In, OpenAI API Out;

4️⃣ 重构 Agent 功能,针对 GLM 和 Qwen 模型进行适配优化;

5️⃣ 新增 ArXiv 文献对话、Wolfram 对话、文生图等多种 Agent 可调用工具;

6️⃣ 更新知识库问答功能,支持 Ensemble Retriever 接入,并将在后续接入更多不同类型 Retriever;

7️⃣ 更新 Streamlit WebUI,支持模型推理框架选择、对话管理、工具选择等多种新功能;

8️⃣ 增加 Text2SQL 工具,支持 SQLAlchemy 大部分数据库,支持特定表、智能判定表与 Read-Only 模式,支持对表名进行额外说明;

9️⃣ 新增 chatchat、chatchat-config、chatchat-kb 命令,支持通过命令行进行项目配置、知识库重构与项目启动;

🔟 更多细节更新,期待你的探索发现!

🌟 新版本可以在 Python 3.8-3.11 环境及 Windows、macOS、Linux 系统中运行,搭配 Xinference、Ollama、FastChat 不同模型推理框架,可实现在 CPU、GPU、NPU、MPS 等不同硬件条件下运行。

🌍 0.3.0 版本 AutoDL 镜像现已上线
O网页链接

🐳 Docker 镜像即将发布敬请期待!

💡 除了 0.3.0 版本已发布的功能外,项目组目前还在开发基于 Lobe-Chat 的前端、Graph RAG、以及 Chatchat 的更多周边玩法,欢迎大家在 Github issue 中反馈问题,或向开发组反馈意见与建议,也欢迎发起 PR 共同完善 Chatchat!
欢迎新用户

正在加载,请稍候...