图片来自:Anthropic
看来可以说,生成式AI热潮的第一阶段主要集中在智能聊天机器人上。从ChatGPT到Gemini再到所有较小的聊天机器人,生成式AI在自然对话中提供答案。主要的应用场景包括查找信息、代码编写辅助和虚拟伙伴。现在,一类新的AI代理即将引领潮流,将引领下一阶段,届时AI工具将不仅仅限于回答问题,还会真正为你做事。
AI智能代理是能够独立执行任务且几乎不需要人工干预的AI系统。虽然AI聊天机器人会对提示作出文本回答,AI智能代理则进一步扩展了这些功能,通过自动化跨应用流程和执行数字任务,以及越来越多地自主决策。
本周二,Anthropic介绍了其Claude 3.5模型的新功能,名为“电脑操作”,使Claude能够通过查看屏幕、打字、移动鼠标和执行操作与计算机交互。这里有一个Anthropic发布的演示视频,展示了AI研究人员让其代理从计算机上的不同地方收集信息并用来填写表格。
当然,填写表格对于AI代理而言可能显得是一个相当平凡且不那么令人印象深刻的任务,但将这种自动化工具扩大应用到处理像这样的简单任务的能力将会提高生产效率并简化流程。
除了Anthropic之外,许多参与人工智能竞赛的玩家也在忙于开发自己的AI代理。例如,微软在周一宣布了其Dynamics 365套件新增了10项自动化功能,这些自动化功能能够跨部门处理任务,无需直接的人工干预。同样,Salesforce的竞争对手Agentforce系统计划在下周全面上线。与此同时,谷歌及其竞争对手,如Asana和Cognition AI等众多初创公司都在竞相构建未来的“AI同事”。
这一波最新的AI代理让我想起了今年一月在CES 2024上大放异彩的[Rabbit R1]。如果你还记得的话,Rabbit R1在CES上展示的那款设备是一款奇趣的小设备,设计用于特定任务的网络浏览助手,能够执行诸如订票或在线购物等任务。据说它使用大型动作模型(LAM),能实现跨应用界面的AI驱动任务自动化。然而,与当前这一波AI代理不同的是,Rabbit R1的LAM需要训练以直接与其它应用的用户界面互动才能执行指定的任务。相比之下,这波即将出现的AI代理则被设计成可以在不同应用间执行复杂、多步骤的任务,而无需持续的人类指导,也不需要专门训练AI来熟悉每个应用的界面。
短期对企业用例的影响毋庸置疑,,我们仍处于测试AI代理的早期阶段,从企业场景和后端操作开始测试。AI代理不仅仅关于文本回复;它们旨在简化这些常规且往往繁琐的任务,这些任务通常会消耗员工的生产力,例如预约安排、客户数据管理、邮件处理等。据Gartner预测,到2028年,至少15%的日常工作决策将由代理式AI自主做出。
一些创新品牌已经开始测试将人工智能融入其运营工作流程中。例如,快速休闲餐厅品牌Chipotle最近推出了一款名为“阿娃卡多”的新对话式人工智能招聘平台,餐厅表示该平台可以将招聘过程加快最多达75%。
与此同时,代理人工智能解决方案正在各种企业应用中迅速涌现。例如,人工智能初创公司Inflection AI最近发布了一款名为“Agentic Workflows”的新企业解决方案,使其企业系统在各种业务场景中能够执行可信行动。
可以说,一种狭义的AI代理形式早已存在于数字营销中的程序化广告系统中,其中人工智能算法通过自动实时竞价(RTB)进行媒体购买决策,以确定向哪个用户展示哪些广告,这些决策基于预设的预算和目标,并且基本上不需要人工干预。虽然与较新的代理型人工智能系统相比不算先进,但程序化广告系统可以说是数字营销早期自动化的一种形式,其中人工智能算法处理重复的基于规则的决策,以优化广告活动的性能。
类似地,随着AI代理在工作场所的大量涌现,这将进一步大幅提升RTB风格的自动化决策过程。把使用生成式AI工具比作拥有实习生团队的普遍说法可能变得更加贴切。当然,目前的AI代理依然功能有限且容易出错,比如,‘计算机使用’功能的成功率仅为14.9%,远未达到可以替代实习生的程度。但随着时间的推移,人们可以想象到,随着准确性的提高和应用场景的扩展,AI代理可以更好地适应业务目标,实现近乎无人监管的持续改进。
安全和隐私仍然是重大关切,特别是当AI代理获得访问敏感数据和操作的权限时。Anthropic已经采取了多种措施来应对这些问题,例如数据加密、严格的用户同意协议和保留政策。然而,随着AI代理被开发为能够自主理解和互动的各种应用程序,公司必须时刻保持对数据安全和隐私的关注。必须谨慎处理数据泄露和潜在滥用的风险,以维持消费者的信任。
这也指向了著名的《创新者的困境》——即成熟公司往往难以采用颠覆性的创新,因为它们过于关注现有产品、市场和客户需求。或许最能利用这类新兴的 AI 代理来构建高度自动化工作流程的是那些初创公司和挑战者品牌,它们没有什么可失去的。
长期对消费者行为的影响更令人着迷的是,这些有能力的AI代理将如何影响我们的日常生活和行为。从长远来看,这些AI代理可以组合成高级个人助手,自主管理复杂的任务。理论上,它们能通过理解我们的习惯和偏好,打造更个性化的日常生活体验。
例如,谷歌的智能家居整合或亚马逊Alexa的日常例程可以自动调节灯光、温度以及其他设置,根据用户的预设偏好。随着更智能的AI代理的出现,这种定制将进一步扩展,从优化日常安排到根据实时健康数据推荐饮食和锻炼计划。
显然,品牌会希望利用个人自动化的力量。考虑一下这个假设的零售品牌例子。借助代理型AI,购物应用程序可以成为“购物助手”,不仅可以提供推荐,还可以主动将相关商品添加到客户的购物车中或监控价格变动。通过分析浏览和购买历史,以及实时用户输入,AI代理可以动态调整其推荐和行动以符合您不断变化的喜好,从而培养高度个性化的体验,提高品牌忠诚度。毕竟,谁不想拥有一个全天候了解你喜好并随时待命的私人购物助手呢?
然而最终,个人AI助手的大规模应用仍然取决于解决长期存在的AI信任鸿沟问题。正如我在二月份写的有关AI搜索的文章中提到:
像Perplexity或Arc Search这样的新AI搜索体验在引用来源时更加谨慎,但这可能仍然不足以平息一些用户的担忧。即使来源被仔细引用,用户仍然可能会质疑每个来源的可信度,或者在某些情况下,质疑其潜在的政治偏见。这些细微差别不可避免地在AI和用户之间造成了信任鸿沟,使用户难以评估所呈现信息的准确性和可靠性。
如果有些人已经这么紧张,对AI为其总结的搜索结果感到不安,那么让AI代理来处理个人决定——比如选餐厅、订机票或买生日礼物——可能会更加让人望而生畏。个人选择本质上是主观的。它们有时可能是任意的,并受到各种情境因素的影响,而这些因素AI可能无法完全掌握或正确解读。
因此,AI代理采用面临的真正挑战在于,它们可能难以在实时情境中做出最优的决定,因为决策的质量往往是在事后评估中确定的。建立对AI代理的信任感,不仅需要它们提供可靠的支持,还需要它们能够应对人类偏好中复杂且有时模糊的特点——在我们自己做决定时也常常难以把握这一点。
共同学习,写下你的评论
评论加载中...
作者其他优质文章