作者:Sea Bean、苇哥背景自从OpenAI的ChatGPT横空出世以来,各类大语言模型(Large Language Model,简称LLM)以其丰富而强大的自然语言处理能力点燃了人们对AI的热情。无论是在教育、医疗、金融、法律还是娱乐行业,LLM的影响都在不断深化,帮助人们更有效地处理语言数据,提高工作效率,创造新的服务和产品。虽然LLM在通用知识领域表现如此出色,但是由于其训练语库(一般由普适知识、常识性知识,如维基百科、新闻、小说,和各种领域的专业知识组成)具有一定的局限性,无法覆盖到特定领域的知识,例如公共网络难以触达的企业内部文档资料,因此如何利用LLM打造垂直领域内的专属知识问答系统,特别是在ToB的场景,成为了一个很有应用潜力的课题。在过去的一段时间,我们的技术团队也在这个方向上不断尝试与探索,并取得了一些成果,希望借此机会把一些经验分享出来,跟大家一起交流和探讨。经典RAG流程RAG(Retrieval Augmented Generation,检索增强生成)是经典、高效的垂类大模型应用方案,就是通过自有的垂域数据库检索相关信息,然后合并成为提示模板,喂给大模型生成最终的答案。RAG对比另外两种常见的解决方案——提示词工程和微调大模型,有着其天然的优势:不需要每轮对话都带上整个知识库文本内容,每次仅需要携带跟提问相关的内容文本,效率更高,成本更少。另外,虽然现
...
继续阅读
(33)