(图片来源:Getty Images)
当开始他们的AI项目时,许多公司各自为政,将AI视为纯粹的技术活动,要么忽视领域专家,要么在项目后期才引入他们。结果,他们开发出的AI应用缺少行业细节,提供的建议不够好,很快就不受用户喜欢。相比之下,那些深刻理解行业特定流程、约束和决策逻辑的AI系统则具有以下优点:
- 提高效率 — 随着AI吸收更多的领域知识,对人类专家的手动工作需求就会减少。
- 提高采用率 — 专家们会远离那些感觉过于通用的AI系统。AI必须用他们的语言交流,并与实际的工作流程相匹配,才能赢得信任。
- 建立可持续的竞争优势 — 随着AI成为商品,嵌入专有知识和技术是构建有竞争力的AI系统的最有效方式(参见这篇文章以了解构建AI竞争优势的要素)。
领域专家可以帮助你理解人工智能系统的技术细节如何与其实际应用和价值相连接。因此,他们应成为你的AI应用的关键利益相关方和共同创作者。这是我的关于由专业知识驱动的人工智能系列文章的第一篇指南。遵循我的人工智能系统的思维模型,它提供了一种将深厚的专业知识嵌入到你的AI里的结构化方式。
领域知识集成方法的简介
在整个文章中,我们将通过供应链优化(SCO)的案例来说明这些不同的方法。现代供应链持续面临地缘政治紧张、气候干扰和需求波动的挑战,而人工智能能够提供动态且覆盖面广的情报,帮助预测延误、管理风险并优化物流。然而,缺乏领域专业知识,这些系统往往与实际情况脱节。让我们看看如何通过在AI应用的不同部分中整合领域知识来解决这个问题。
1. 数据之基:驱动专家的人工智能AI仅了解其学习数据所属领域的知识。原始数据是不够的,必须由专家整理、精炼并提供背景信息,这些专家了解其在现实世界中的含义。
教AI理解数据中的重要性虽然数据科学家能够构建复杂的模型来分析模式和分布,这些分析通常停留在理论和抽象的层面。只有行业专家才能确认数据是否完整、准确,并且能够反映实际情况。
在供应链优化中,例如,运输记录可能包含缺失的送达时间戳、不一致的路线细节,或运输时间中的不明变化。数据科学家可能会忽略这些数据,将其视为杂音,但物流专家可能会对这些不一致之处给出实际原因。例如,这些情况可能是由天气延误、港口的季节性拥堵或供应商可靠性问题造成的。如果没有考虑到这些细节,AI可能因此学习到一个过于简化的供应链动态模型,从而导致错误的风险评估和不切实际的建议。
专家也在评估数据完整性方面发挥关键作用。AI模型依赖现有数据,并假设所有关键因素均已包含。人类的专业知识和判断是识别盲点的关键。比如说,如果你的供应链AI没有接受过海关通关时间和工厂停产历史的训练,它就无法预测由监管问题或生产瓶颈导致的中断。
✅ 实现提示: 与数据科学家和领域专家进行EDA会话,以识别关键的业务信息缺失,确保AI模型能使用完整且有意义的数据集,而不仅仅是统计上干净但可能缺乏实际意义的数据。
数据源选择:从小做起,有策略地扩展开始使用AI的一个常见错误是过早地整合过多的数据,这会导致复杂性、数据管道堵塞,以及模糊不清或噪音大的洞察。相反,可以从几个高影响力且关键的数据源开始,并根据AI性能和用户需求逐步增加。例如,一个SCO系统最初仅使用历史发货数据和供应商可靠性评分。随着时间的推移,领域专家可能会发现缺少的信息——比如港口拥堵数据或实时天气预报——并告诉工程师去哪里找这些数据。
✅ 小贴士: 从一个小而有价值的起点开始(通常包括3到5个数据来源),然后根据专家反馈和实际AI表现逐步扩展。
数据标注AI模型通过在数据中检测模式来学习,但有时,正确的学习信号尚未出现在原始数据中。这就是数据标注派上用场的地方——通过标注关键特征,领域专家帮助AI识别哪些因素重要,从而帮助AI做出更好的预测。例如一个预测供应商可靠性的AI模型。该模型用装运记录进行训练,这些记录包括交货时间、延迟和运输路线。然而,仅凭这些原始数据无法全面反映供应商的风险,没有直接标记说明某个供应商是“高风险”还是“低风险”。
没有更明确的学习指示,AI可能会得出错误的结论。它可能会认为所有延误都一样糟糕,即使其中一些是由可预测的季节性变化引起的。或者,它可能会忽略供应商的不稳定的早期预警信号,比如频繁的临时订单变更或库存不一致。
领域专家可以通过添加更细致的标签,如供应商风险类别、中断原因和例外处理规则,来丰富数据。通过引入这些精心策划的学习信号,AI 不仅仅是在记忆过去的趋势,还能学习到有意义、可直接应用于决策的见解。
不要太急于做标注工作——而是考虑一个包含以下流程的有结构的标注过程:
- 标注指南: 建立清晰、标准化的标注规则来确保一致性。例如,供应商风险类别应基于定义的阈值(例如,交货延迟超过5天加上财务不稳定=高风险)。
- 多专家评审: 邀请多个领域专家参与以减少偏见并确保客观性,尤其是在风险等级或中断影响等主观分类方面。
- 细化标签: 捕捉直接和间接因素,例如不仅要标注交货延迟,还要标注其原因(比如海关问题、天气、供应商问题)。
- 持续优化: 定期审计和优化标注,基于AI的表现 — 如果预测总是错过关键风险,专家应相应调整标注方法。
✅ 实现提示: 定义一个带有明确标注标准的标注指南,每个关键标签至少需要两位领域专家的参与以确保标注的客观性,并定期进行标注审查,以确保AI能够从准确且与业务相关的洞察中学习。
合成数据:为罕见但关键事件做好AI的准备迄今为止,我们的AI模型是从真实的历史数据中学习的。然而,一些罕见但影响重大的事件——比如工厂停工、港口关闭或供应链中的监管变化——在数据中代表性不足。由于缺乏对这些场景的接触,AI可能会无法预见重大风险,导致对供应商稳定性的过度自信以及应急准备不足。合成数据通过生成更多罕见事件的数据点解决了这个问题,但是专家的监督在这个过程中是必不可少的,以确保这些合成数据反映的是合理而非不切实际的风险。
假设我们要预测供应链系统中供应商的可靠性。历史数据中供应商失败的记录可能很少——但这并不是因为失败不会发生。相反,许多公司在风险加剧之前会主动防范风险。如果没有合成样本,AI可能会推断供应商违约极其罕见,从而导致风险评估失准。
专家可以基于以下几点帮助生成合成故障模拟场景:
- 历史模式 — 模拟引发供应商倒闭的历史模式,这些模式由经济衰退、监管变化或因地缘政治摩擦导致的供应商倒闭引发。
- 隐藏风险指标 — 训练人工智能识别未记录的早期警示信号,如财务不稳定或领导层变动。
- 反事实情景 — 创建“假如”情景,比如半导体供应商突然停产,或者港口罢工长期持续。
✅ 实际行动步骤: 与领域专家合作,定义那些高影响但低频发生的事件和场景,当生成合成数据时应关注这些事件和场景。
数据让领域专业知识更耀眼。依赖干净、相关且丰富的领域数据的人工智能项目,相对于采取“快速捷径”数据方法的项目,将具有明显竞争优势。不过,请意识到,处理数据可能很繁琐,专家们需要看到他们的努力所取得的结果——无论是提升AI驱动的风险评估,增强供应链韧性,还是促进更明智的决策制定。关键是让数据合作直观、有目的,并直接关联到业务结果,这样专家们才能保持参与和动力。
智能:让AI更智能当AI获得高质量的数据后,接下来的挑战是确保其输出既实用又准确。这需要领域专业知识的支持。
- 定义与业务优先级相匹配的明确的AI目标
- 确保AI能正确解读行业特定数据
- 持续验证AI的输出和建议的准确性
让我们看看一些常见的AI方法和途径,看看它们如何能从额外的专业领域知识中获益。
从头开始,训练预测模型对于像供应链预测这样的结构化问题,分类和回归等预测模型可以帮助预测延迟并提出优化方案。然而,为了确保这些模型与业务目标一致,数据科学家和知识工程师需要紧密合作。例如,一个AI模型可能会试图不惜一切代价减少运输延误,但供应链专家知道,将所有货物快速通过空运在财务上是不可行的。他们可以对模型施加额外的约束条件,使其优先处理关键运货,同时平衡成本、风险和交货期。
✅ 实现技巧: 在训练AI模型前,与领域专家明确界定目标和限制,确保与实际业务优先级相一致。
关于预测性人工智能技术的详细介绍,请参阅《人工智能产品管理的艺术》第四章(点击此处查看链接: [mng.bz/lYXy])。
探索大型语言模型三部曲从头训练的预测模型虽然专长于特定任务,但它们也很僵硬,不愿意执行其他任何任务。相比之下,GenAI模型更加开放,可以用于各种多样化的请求。例如,在SCO系统中,一个基于大模型的对话小工具可以让用户通过自然语言与实时洞察进行互动。用户不再需要在僵硬的仪表板中筛选信息,而是可以直接询问诸如“哪些供应商有延误风险?”或“有哪些替代路线?”等问题。AI会从历史数据、实时物流信息和外部风险因素中获取信息,提供可操作的答案、提出缓解措施,甚至自动化工作流,如重新安排运输等。
但是你怎么确保一个巨大的、开箱即用的模型,比如ChatGPT或Llama,能够理解你领域中的细微差别呢?我们一起来看看LLM三阶段——一系列将领域知识融入到你的LLM系统中的技术步骤。
图2:LLM三元组是一种将特定领域的知识以及公司特有的知识融入LLM系统的技术。
从左到右推进,你可以将知识嵌入到LLM中——然而,每个阶段也带来新挑战。如果你想深入了解LLM三部曲,请参阅我的书第5至第8章 《AI产品管理的艺术》)。这里,我们将重点介绍领域专家如何在各阶段加入:
- 提示现成的大语言模型(LLM)可能看起来像是一种通用的方法,但凭借正确的直觉和技能,领域专家可以调整提示,从LLM中提取额外的领域知识。我个人认为,这正是提示方法让人着迷的地方之一——它将最强大的AI模型直接交到了不需要任何技术背景的领域专家手中。一些关键的提示技巧包括:
- 少量样本提示法: 通过加入示例来引导模型的回答。而不是仅仅询问 “有哪些替代的运输路线?” ,一个巧妙构建的提示会包含过去的场景示例,例如 “过去的一个示例场景:先前在深圳港的延误通过改道胡志明市得到了缓解,将运输时间减少了3天。”
- 逐步推理提示法: 鼓励对复杂的物流问题进行逐步推理。而不是 “为什么我的货物运输延误了?” ,一个结构化的提示可能是 “分析历史交付数据、天气报告和海关处理时间,以确定为什么货物#12345延误了。”
- 提供进一步的背景信息: 附加外部文档以改善领域特定的响应。例如,提示可以参考实时港口拥堵报告、供应商合同及风险评估,以生成基于数据的建议。大多数LLM界面已经允许你方便地将额外文件附加到你的提示中。
2. RAG(检索增强生成):尽管提示能帮助引导AI,但它仍然依赖于可能已经过时或不完整的预训练知识。RAG使AI能够检索实时的、特定于公司的数据,确保其回复基于最新的物流报告、供应商表现记录和风险评估。例如,一个由RAG驱动的AI系统在提出建议之前,会提取实时运输数据、供应商信用评级和港口拥堵报告,而不是生成通用的供应商风险分析报告。领域专家不仅可以帮助选择和组织这些数据源,还在测试和评估RAG系统时发挥作用。
✅ 实现技巧: 与领域专家合作,整理和组织知识来源——确保AI仅检索和应用最相关和高质量的业务信息。
3. 微调:虽然提示和RAG可以在运行时注入领域知识,但它们并不会将特定领域的流程、术语或决策逻辑植入到你的LLM中。微调使LLM能够像物流专家一样思考。领域专家可以通过创建高质量的训练数据来指导这一过程,使AI从实际的供应商评估、风险评估和采购决策中学习。他们可以精炼行业术语,确保AI能够准确区分如“缓冲库存”和“安全库存”这样的概念。他们还可以使AI的推理与业务逻辑保持一致,确保它在考虑效率的同时,也考虑成本、风险和合规性。最后,他们评估微调后的模型,通过将AI与实际决策进行比较来发现潜在的偏见或盲点。
✅ 实现技巧:在大型语言模型的微调过程中,数据是决定成功的关键因素。质量胜过数量,对一个小而精的数据集进行微调可以取得很好的效果。因此,要给你的专家足够的时间来确定微调数据的正确结构和内容,并计划进行足够的端到端迭代的微调过程。
用神经符号人工智能编码专家知识每个机器学习算法偶尔也会出错。为了减少错误,将你领域的“硬事实”固定下来是有帮助的,这会使你的AI系统更可靠和可控。这种结合了机器学习和确定性规则的方法被称为神经符号AI技术。
例如,可以通过明确的知识图谱来表达供应商关系、监管规定、运输网络和风险关联,这些信息以结构化、相互连接的格式呈现。
如图3所示,知识图明确地表示实体之间的关系,减少了不确定性。
不是仅仅依赖统计关联,结合了知识图谱的AI系统可以:
- 验证预测是否符合特定领域的规则,例如确保 AI 生成的供应商推荐符合监管要求。
- 推测缺失的信息,例如,如果一个供应商没有历史延迟记录,但与高风险供应商共享依赖关系,AI 可以评估其潜在风险。
- 通过允许 AI 决策追溯到基于逻辑和规则的推理,而不是无法理解的统计输出,来提高解释的透明度。
如何决定哪些知识应该用规则来编码(符号 AI),哪些应该从数据中动态学习(神经 AI)?专业领域专家可以帮助你挑选哪些知识适合明确编码,帮助你挑选最适合明确编码的知识点。
- 相对稳定的知识
- 难以从数据中推断出的知识,例如由于表示不够充分
- 对所在领域中高影响力决策至关重要的知识,你承担不起犯错的后果
大多数情况下,这些知识将会存储在你的AI系统的不同组件中,如决策树、知识图和本体。也有一些方法可以将其直接整合到大型语言模型和其他统计模型中,例如Lamini的微调记忆。
复合型AI和模块化工作流程将见解转化为行动是一个多步骤的过程。专家可以帮助你构建工作流程和决策管道,确保你的AI系统的流程与任务相符合。例如,以下流程展示了我们迄今为止考虑的AI组件如何可以组合成一个模块化的工作流程,以降低货运风险:
图4:评估和缓解运输风险的流程
专家还需要调整人类与AI之间的劳动分工。例如,在制定决策逻辑模型时,他们可以设置门槛,确定什么时候由AI自动执行工作流程,什么时候需要人工介入批准。
✅ 实现小贴士: 在将您的流程映射到AI模型和资产的过程中,让领域专家参与其中,识别缺口并找出可自动化的步骤。
设计人性化的用户体验尤其是在B2B环境中,员工深入嵌入到日常的工作流程中,用户体验必须与现有的流程和任务结构无缝集成,以确保效率和用户接受度。例如,一个由人工智能驱动的供应链工具必须符合物流专业人士的习惯思维、工作方式和决策流程。在开发阶段,领域专家是离实际用户最近的“同行”,向他们请教是弥合人工智能能力与实际应用之间差距的一个快速方法。
✅ 实现提示: 尽早咨询领域专家,确保在用户体验设计之初,人工智能界面直观、相关并符合实际决策流程。
确保AI决策的透明和信任AI与人类的思维方式不同,这让我们对AI产生怀疑。通常情况下,这是一件好事,因为它有助于我们及时发现潜在的错误。但是不信任也是阻碍AI被接受的一个大问题。当用户不理解系统为何做出某个推荐时,他们通常不会愿意和系统合作。领域专家可以规定AI如何解释自己的决策——确保用户可以清楚地看到置信度评分、决策逻辑和关键影响因素。
例如,如果一个SCO系统推荐重新路由一个货件,物流规划者直接接受这一推荐而不进一步调查将会不负责任。她需要了解这些建议背后的“原因”——是由于供应商风险、港口拥堵还是燃油成本上涨?用户界面应该展示决策的分解过程,并辅以历史数据、风险因素和成本效益评估等信息。
⚠️ 减少对AI的过度依赖性:用户过度依赖AI可能会导致偏见、错误和意外故障。专家应找到方法来平衡AI洞察与人类专业知识、伦理监督和战略保障,以确保决策的韧性和适应性,增强信任感。
✅ 小贴士: 与领域专家合作,确定关键的可解释性特征——例如置信度得分、数据来源和影响概要——以便用户可以快速评估AI推荐。
简化与AI的互动,保持深度AI工具应该让复杂的决策变得更简单,而不是更复杂。如果用户需要深厚的技术知识才能从AI中提取洞察,那么从用户体验的角度来看,这个系统就已经失败了。领域专家可以帮助找到一个平衡,确保界面提供的建议既实用又符合情境,并允许在必要时进行更深入的分析。
例如,AI可以避免用户手动筛选数据表,而是提供基于常见物流问题的预配置报告。然而,专家用户也应在必要时能够即时访问原始数据和高级设置。关键在于设计既能满足日常使用需求,又能在需要时进行深度分析的AI交互。
✅ 实现提示: 利用领域专家的反馈来定义默认视角、优先级警报和用户可调整的设置,确保AI界面既能为日常工作提供效率,又能为深入研究和战略决策提供深度支持。
持续的用户体验测试及迭代:与专家一起
AI的用户体验不是一个一次性过程——它需要通过真实用户反馈不断进化。领域专家在用户体验测试、改进和迭代中扮演关键角色,确保AI驱动的工作流程符合业务需求和用户期望。
例如,您的最初的界面设计可能显示太多低优先级的警报,导致用户对警报感到厌烦,开始忽视AI的建议。供应链专家能够分辨出哪些警报最有价值,允许界面设计师优先考虑高影响力的见解,同时降低噪音。
✅ 实现提示:进行[出声思考],让领域专家在与您的AI界面互动时描述他们的思考过程。这有助于AI团队发现隐藏假设并根据实际情况进行调整。
结论部分垂直领域的AI系统必须在每个阶段都需要融入专业领域的知识,专家应当成为您AI开发中的关键参与者。
- 他们精炼数据选择、标注和合成数据集。
- 他们通过提示、检索和生成(RAG)以及微调来引导AI学习。
- 他们支持设计无缝用户体验,以透明可信的方式融入日常工作日常中。
一个“懂得”用户需求的AI系统不仅会在短期内被广泛采用并证明有用,还将为您的业务带来竞争上的优势。
你现在知道了如何将特定领域知识融入其中的多种方法,你可能想知道如何在你所在的组织中应用这些知识。不要错过我的下一篇文章,我们将讨论在实际操作中实施以专业知识驱动的人工智能策略时遇到的挑战和策略。
注:除非特别注明,所有图片均为作者的。
共同学习,写下你的评论
评论加载中...
作者其他优质文章