一、背景
在当今社会,实际应用比纯粹理解原理和概念更为重要。即使您对某个领域的原理和概念有深入的理解,但如果无法将其应用于实际场景并受制于各种客观条件,那么与其一开始就过于深入,不如先从基础开始,实际操作后再逐步深入探索。
在这种实践至上的理念下,或许我可以为您提供一种直接的、实际操作的方法。希望能借助我的经验,为各位朋友带来一些有帮助的建议,例如:
1、您是否也在迫不及待地期待在AI时代中展示自己的能力?
2、您是否一直在研究如何使用开源大语言模型?
3、您是否一直在寻找将AI与业务结合的方向?
4、您是否一直在寻找模型推理加速及降本增效的方法?
5、您是否一直在努力整合来自互联网上碎片化的资料?
6、您是否花费成百上千元购买网上的课程但却收获甚少?
无论您是在学习中还是工作时有类似的困惑,我坚信您可以从我的文章里得到很多收获。
二、项目架构
简化后的示意图如下:
三、总览
通过实际案例,我们将为大家呈现一系列文章,帮助您了解如何将开源模型与业务整合。这些文章将引导您深入掌握该过程。
3.1. 初级入门系列
3.1.1. 开源模型应用落地-qwen模型试炼-系列
开源模型应用落地-qwen模型小试-入门篇(一)
重点:在windows环境下,使用transformer调用Qwen-1_8B-Chat模型
开源模型应用落地-qwen模型小试-入门篇(二)
重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话
开源模型应用落地-qwen模型小试-入门篇(三)
重点:在linux环境下,使用transformer调用Qwen-1_8B-Chat模型
开源模型应用落地-qwen模型小试-入门篇(四)
重点:使用gradio,构建Qwen-1_8B-Chat模型的测试界面
开源模型应用落地-qwen模型小试-入门篇(五)
重点:使用modelscope api调用Qwen-1_8B-Chat模型,实现非流式/流式输出
开源模型应用落地-qwen模型小试-调用qwen1.5新模型-进阶篇(六)
重点:Qwen1.5系列模型的新特性及使用方式
开源模型应用落地-qwen模型小试-调用Lora模型-进阶篇(七)
重点:调用微调后的qwen-7b-chat模型
开源模型应用落地-qwen模型小试-合并Lora模型-进阶篇(八)
重点:将qwen-7b-chat基座模型与Lora模型进行合并
开源模型应用落地-qwen模型小试-Zero/One/Few Shot-进阶篇(九)
重点:深入理解Zero/One/Few-Shot,让模型可以更好地处理新任务
3.1.2. 开源模型应用落地-baichuan模型试炼-系列
开源模型应用落地-baichuan模型小试-入门篇(一)
重点:在windows环境下,使用transformer调用Baichun-7B模型
开源模型应用落地-baichuan2模型小试-入门篇(二)
重点:在windows环境下,使用transformer设置模型参数/System Prompt/历史对话
3.1.3. 开源模型应用落地-chatglm模型试炼-系列
3.1.4. 开源模型应用落地-KnowLM模型试炼-系列
开源模型应用落地-KnowLM模型小试-入门篇(一)
重点:调用KnowLM模型,实现知识抽取
开源模型应用落地-KnowLM模型小试-入门篇(二)
重点:优化模型参数,提高知识提取效率和质量
3.2. 高级进阶系列
3.2.1. 开源模型应用落地-向量数据库小试-入门篇系列
开源模型应用落地-工具使用篇-向量数据库(三)
重点:Milvus Lite向量数据库的基本使用
开源模型应用落地-工具使用篇-向量数据库进阶(四)
重点:Milvus Lite向量数据库的进阶使用
3.2.2. 开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势系列
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(一)
重点:qwen-7b-chat集成vllm
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(二)
重点:gunicorn+flask构建AI服务
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(三)
重点:supervisor提升服务的稳定性
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(四)
重点:鉴权和限流提升AI服务的安全性和稳定性
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(五)
重点:定时任务处理隐藏盲点
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(六)
重点:改变模型自我认知
开源模型应用落地-qwen-7b-chat与vllm实现推理加速的正确姿势(七)
重点:AI服务性能优化
开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(八)
重点:qwen1.5-7b-chat集成vllm
开源模型应用落地-qwen1.5-7b-chat与vllm实现推理加速的正确姿势(九)
重点:qwen1.5-7b-chat集成vllm,构建与OpenAI-API兼容的API服务
3.2.3. 开源模型应用落地-业务整合系列
开源模型应用落地-业务整合篇(一)
重点:使用HttpURLConnection/OkHttp/HttpClient多种方式调用AI服务
开源模型应用落地-业务整合篇(二)
重点:使用Netty库快速构建WebSocket服务,实现客户端与AI服务交互
开源模型应用落地-业务整合篇(三)
重点:spring boot集成netty服务,实现用户界面交互
开源模型应用落地-业务整合篇(四)
重点:构建websocket身份校验机制,避免无效连接
开源模型应用落地-业务整合篇(五)
重点:构建websocket心跳机制,及时释放一些无效的连接
3.2.4. 开源模型应用落地-业务优化系列
开源模型应用落地-业务优化篇(一)
重点:使用线程池提升处理效率
开源模型应用落地-业务优化篇(二)
重点:使用Redis队列和分布式锁实现请求排队
开源模型应用落地-业务优化篇(三)
重点:使用SLB实现AI服务水平扩容
开源模型应用落地-业务优化篇(四)
重点:多级数据缓存概述
开源模型应用落地-业务优化篇(五)
重点:使用HanLP进行词性标注,并使用Redis作为一级缓存
开源模型应用落地-业务优化篇(六)
重点:使用向量数据库作为二级缓存,来为AI服务减负,提升处理效率
开源模型应用落地-业务优化篇(七)
重点:使用RocketMQ提升处理效率
开源模型应用落地-业务优化篇(八)
重点:统计问题的请求频次,实现热门问题的实时缓存
3.2.5. 开源模型应用落地-安全合规系列
开源模型应用落地-安全合规篇-用户输入合规性检测(一)
重点:使用DFA算法检测用户输入内容的合法性
开源模型应用落地-安全合规篇-用户输入合规性检测(二)
重点:使用腾讯云文本内容安全服务检测用户输入内容的合法性
开源模型应用落地-安全合规篇-模型输出合规性检测(三)
重点:使用腾讯云文本内容安全服务检测模型输出内容的合法性