近年来,大型语言模型(LLM)技术在企业客服领域的应用日益广泛,凭借其高效性和智能化,正逐步改变传统客服模式。然而,在享受技术红利的同时,企业也面临着由大模型带来的新挑战,其中最为突出的便是“幻觉”问题。所谓“幻觉”,指的是大模型在生成回答时出现不准确、无依据甚至完全错误的内容。这种现象的根源在于多方面,一方面是知识库的不完善,导致模型在检索相关信息时无从下手;另一方面则是模型训练的不足,使其无法准确理解用户意图并给出合理回答。客观地说,幻觉问题不仅来源于技术本身,也与企业对知识库的维护和对模型的迭代优化投入不足有关。因此,为了解决幻觉问题,企业需要在知识管理和运维优化方面投入更多资源,这无疑加重了运营负担。
“幻觉”问题的影响是多方面的。首先,不准确的回答会严重影响用户体验,降低用户对企业服务的满意度。其次,错误的信息可能给企业带来法律风险,尤其是在金融、医疗等对信息准确性要求极高的行业。更严重的是,持续的“幻觉”会导致用户对企业品牌失去信任,损害企业形象。因此,如何有效减少大模型“幻觉”,提升回答的精准性和可控性,成为企业在客服领域应用大模型技术时亟待解决的关键问题。
针对这一行业痛点,瓴羊智能客服Quick Service全新推出AI运营中心,旨在为企业提供全链路的对话调优解决方案。该方案的核心理念是通过对输入、检索和生成等环节的精细化控制,有效减少“幻觉”现象的发生,提高智能客服系统的可靠性和实用性。

AI运营中心的一大亮点是其对大小模型的全面调优能力。它不仅支持传统的小模型Bot标注,可以进行意图模型的重新匹配和知识检索的匹配调整,还支持大模型Agent的标注,包括对输入的内容进行改写优化、Agent的重新匹配、知识检索的匹配调整以及大模型生成答案的优化。这种全链路的调优方式,旨在实现对智能客服系统各个环节的精准控制,从而使答案更加准确和可控。
小模型Bot标注支持意图模型的重新匹配、知识检索的匹配调整外;还支持大模型Agent的标注,包含对输入内容的改写优化、Agent的重新匹配、知识检索的匹配调整、大模型生成答案的优化。真正实现对话全链路的训练调优,让答案更可控。

例如,在博物馆场景中,如果旅客小香对唐朝文物感兴趣,并希望【场馆推荐Agent】推荐唐朝相关介绍较多的场馆AA,并顺便订票。此时更应该由【票务助手Agent】进行回答,但由于Agent匹配错误,未能给出正确答案。通过AI运营中心,只需点击【重新匹配】即可修改Agent基于这个问答的正确Agent路由逻辑。完成订票后,小香继续追问场馆的开放时间,而【场馆介绍Agent】却给出了BB场馆的信息。通过AI运营中心,发现问题在于知识检索错误,文档中缺少了AA场馆的相关信息。在上传AA场馆的文档资料后,只需操作修改知识检索匹配的逻辑即可解决问题。
通过AI运营中心标注产生的高质量数据,可以直接应用于训练中心,反哺模型,减少幻觉,最终使问答更加准确。数据显示,使用AI运营中心后,模型准确率优化效率提升高达37%。
值得一提的是,瓴羊还构建了一套覆盖不同阶段的“人工智能训练师”认证体系。在AI时代,客服人员不仅需要熟悉企业业务,更需要具备模型训练的专业技能。该认证体系不仅提供操作技能培训,更侧重于培养一批懂业务逻辑、懂数据标注、懂模型反馈的复合型人才,使其成为AI客服系统的“训练师”和“调教师”。这不仅能缩短智能客服的冷启动周期,降低企业的人才门槛,更有助于加速更多企业进入AI时代。
