为了账号安全,请及时绑定邮箱和手机立即绑定

【AI应用开发手记】Agents智能体开发中到底该选择开源大模型还是闭源大模型?

本文引用自个人AI应用开发学习资料笔记: https://1goto.ai  

在之前的课程里,我们介绍了目前国内外的一些主流大语言模型,我们可以看到不同的大模型,有着完全迥异的特长和特点,这就像在一个班级里,有人擅长数学计算,而另外的一些学生更喜欢吟诗作对。而在大模型的阵营里,目前最大的分歧点,就是对于大模型到底是开源的好还是闭源的好。

其实这个问题没有所谓的标准答案,是一个仁者见仁智者见智的事情,总体来说在行业里对于开闭源都有自己的说法和理由,总结起来无非是效率和安全的故事。在支持闭源的一派里,认为大模型的威力不亚于核武器,应该掌控在专业的人手里,这样才是最安全的选择。而在相反的派别眼里,大模型这种可以助力个体与组织事半功倍的神器,更应该开源开放出去,让大家都参与共建才是好事,才可以让AGI尽早到来。

基本上来讲,以OpenAI为代表的闭源大模型公司,基本都是站在安全性的角度去考虑的,当然这种理念的选择导致了一系列的问题和影响,选择了闭源就意味着选择了中心化服务,所有的用户只可以通过API来访问大模型,用户无需也无法知晓黑盒子里到底发生了什么,而同时越多的用户意味着越多的推理运算,这也势必会导致对算力的更高要求,算力的更高需求则催生了成本的高企,以OpenAI为例,本来是作为一个非营利组织存在的,但是在高昂的算力成本面前,也不得不暂时放下理想主义,将公司修改为有限利润公司,并进行了四五轮高达百亿美元的融资,这些钱大部分都变成了燃烧的显卡。同时,闭源就意味着中心化平台需要兜底所有的服务,从模型的理论研究到产品开发、运维部署、商业运营等等,而作为一个知识高度集中的产品,往往需要招募到顶尖的计算机人才,而所有的人才都需要高昂的薪水来维持。

当然,中心化也有非常多的好处和优势。所有的闭源平台目前产品形式主要是两种,一个是自己研发的C端平台产品,类似OpenAI的ChatGPT,另外一个则是面向B端的大语言模型API——开发者们通过调用API来实现与大语言模型的交互。这两种产品形式都非常容易实现商业变现,事实上是非常的赚钱,比如ChatGPT就创造了历史上达到100万用户最快的记录。而因为太过赚钱,OpenAI的创始人奥特曼甚至被人诟病太过的执着于利润。而另外一个好处就是基于第一点——正向的商业循环——闭源大模型往往容易取得更加革命性的成就,比如从语言交互进化到声音图像的多模态交互,再比如目前地表最强的大模型无论是GPT系列,还是Claude系列,都是闭源平台的产品,这里有一个两个正向的循环,一个是资金流,更多的用户使用它们,燃烧Token,充值费用,更多的投资,购置更加庞大的GPU集群,实验更加超前的大模型理论。另外一个是数据流,因为整个产品是通过API——即便ChatGPT也是一样——连接起终端用户和大模型,用户的每一次交互,每一个token都被详细的记录进了闭源大模型里,成为下一次训练的语料之一,这也是为什么闭源大模型的交互越来越丝滑的原因之一,可以进行预训练的语料越来越广泛——尽管所有的闭源大模型都承诺不会留存用户数据。我们可以看到,闭源大模型的这种范式,天然以一种SAAS服务的形式,将大模型与用户连接起来,从商业和自身发展来说是最佳选择,但是因为一切都在黑盒子里进行,也让其丧失了社区参与的可能性,而在B端尤其是政府企业领域,如何享受LLM的超强能力的同时,确保敏感的资料、话语不被闭源平台公司所偷窃,是一个巨大的挑战,而这也催生了开源大模型的想法和市场。

开源大语言模型的崛起并非偶然,而是在特定的技术和社会背景下应运而生的。随着AI技术的快速发展,学术界和中小企业对可访问、可研究的大语言模型的需求日益增长。这种技术民主化的呼声,成为推动开源模型发展的重要动力。开源模型为研究者和开发者提供了深入了解和改进AI技术的宝贵机会,满足了他们探索和创新的渴望。

与此同时,数据隐私和安全问题日益受到重视。对于一些对数据安全有严格要求的机构和企业而言,使用闭源模型可能存在潜在的数据泄露风险。开源模型的出现恰好解决了这一痛点,它允许用户在本地部署和运行,从而更好地保护敏感信息。这一特性使得开源模型在某些领域获得了独特的竞争优势。

另一个推动开源大语言模型发展的关键因素是定制化和创新需求。不同领域和应用场景对语言模型有着独特的要求,而开源模型为开发者提供了根据特定需求进行优化和定制的可能性。这种灵活性使得开源模型能够适应多样化的应用场景,从而在各个领域发挥重要作用。

技术进步和算力提升也为开源大语言模型的发展创造了有利条件。随着训练算法的改进和计算硬件的发展,训练大规模语言模型的门槛逐渐降低。这使得更多机构有能力参与到大模型的开发中来,极大地扩展了开源社区的规模和影响力。

此外,开源文化在软件开发领域的成功,也对AI领域产生了深远影响。它激发了AI研究者和开发者共享知识、协作创新的热情,为开源大语言模型的发展注入了强大的动力。这种开放和协作的精神,成为推动AI技术不断进步的重要力量。

在这样的背景下,一些有远见的科技公司和研究机构开始采取开源策略,推出了一系列开源大语言模型。这不仅推动了AI技术的快速迭代和创新,也为整个行业带来了新的活力和机遇。开源大语言模型的崛起,正在重塑AI领域的格局,为未来的技术发展开辟了广阔的道路

在开源大语言模型领域,我们不得不提到Meta(原Facebook)推出的LLaMA(Large Language Model Meta AI)系列模型。这个被亲切地称为"羊驼模型"的系列,无疑是最引人注目的代表之一。作为行业内的研究者,我亲眼见证了LLaMA系列模型的独特之处:它们不仅在性能上表现出色,还提供了从7B到65B不同参数规模的版本,满足各种应用需求。更令人欣喜的是,我们看到Meta团队一直在不断优化模型性能,从最初的版本到LLaMA 2,再到最新的LLaMA 3,每一次迭代都带来了显著的进步,包括逐步增强对多语言的支持。

作为一名长期关注AI发展的研究者,我深入思考过Meta选择开源LLaMA系列的原因。我认为,这一决策背后有着多重考量。首先,开源能够吸引全球研究者和开发者参与模型的改进和创新,加速AI技术的发展。其次,这种策略有助于LLaMA模型在学术界和工业界获得广泛应用,提升Meta在AI领域的影响力。此外,开源还可以促进围绕LLaMA的工具、应用和服务的开发,形成一个繁荣的生态系统。在面对OpenAI、Google等公司的强劲竞争时,这种开放策略无疑能帮助Meta保持竞争力。我还注意到,开源有助于增加AI技术的透明度,缓解公众对大型科技公司控制AI发展的担忧。从商业角度来看,虽然模型本身是开源的,但Meta仍可以通过提供相关的云服务、工具和支持来获得商业利益。

在我看来,LLaMA系列的开源对整个AI行业产生了深远影响。它显著降低了进入门槛,使更多像我这样的研究者和小型组织能够接触和使用先进的语言模型。我亲眼目睹了基于LLaMA的众多衍生模型和应用不断涌现,推动了AI技术的多样化发展。我深深感受到开源代码和模型权重带来的便利,它使我们能够更深入地理解和改进大语言模型。同时,我们也注意到开源引发了关于AI伦理和安全使用的广泛讨论,推动了相关规范的制定,这对我们整个行业的健康发展至关重要。

总的来说,Meta的LLaMA系列作为开源大语言模型的典型代表,不仅展示了开源策略在AI领域的巨大潜力,也为我们整个行业的发展注入了新的活力。它的成功激励了更多机构和个人投身到开源AI的浪潮中,共同推动着语言模型技术的进步。

此外,在开源大语言模型的生态系统中,NSFW(Not Safe For Work)模型和SFW(Safe For Work)模型代表了两种不同的应用方向和伦理考量。了解它们的区别和适用场景对于正确使用这些模型至关重要。这两类模型在内容范围、训练数据、内容过滤、使用限制以及法律和伦理考量方面存在显著差异。

SFW模型专注于生成适合在工作场所或公共环境中使用的内容,避免涉及敏感、争议或不当话题。它们使用经过筛选的"安全"数据集进行训练,通常内置强大的内容过滤机制,以防止生成不适当的内容。这类模型适用于大多数商业和公共应用场景,符合一般的内容政策,并且通常符合大多数国家和地区的法律法规和伦理标准。

相比之下,NSFW模型可能包含或生成成人内容、暴力、亵渎语言等不适合公开场合的内容。它们的训练数据可能包括更广泛的内容,包括一些在公共场合被认为不适当的材料。这类模型可能具有较少的内容限制,允许生成更多样化但可能具有争议的内容。使用NSFW模型通常受到限制,需要年龄验证和明确的用户同意,并且可能面临更多法律和伦理挑战。

SFW模型和NSFW模型的应用场景也有明显区别。SFW模型广泛应用于教育和学术研究、商业应用、公共服务、新闻和媒体、技术文档编写以及多语言翻译等领域。这些应用通常需要安全、适合所有年龄段的内容。而NSFW模型的应用则更加特殊和受限,主要集中在成人娱乐产业、特定艺术创作、心理健康研究、内容审核系统开发、法律和取证分析,以及某些社会学研究等领域。

无论是使用SFW还是NSFW模型,都需要遵守一些重要的注意事项。必须确保模型的使用符合当地法律法规和伦理标准。对于NSFW模型,实施严格的年龄验证和内容警告机制尤为重要。在处理敏感内容时,加强数据安全措施以保护用户隐私也是必不可少的。此外,持续监控模型输出、保持透明度,以及对涉及NSFW内容的项目建立严格的伦理审查流程,都是确保这些模型被负责任地使用的关键步骤。

我们可以看到开源大模型的出现即带来了机遇,当然也伴生着一定的挑战。而透明性无疑是其最大的特点之一,模型的结构、训练过程和参数都是公开的,这极大地促进了科学研究和技术创新。同时,开源模型的可定制性也非常突出,我们可以根据特定需求对模型进行微调或改进,这在特定领域或任务中尤其有价值。对于拥有足够计算资源的组织来说,使用开源模型还能大幅降低开发和部署成本。此外,开源模型通常拥有活跃的开发者社区,提供持续的改进和支持,这不仅加快了技术迭代速度,也为学生、研究者和开发者提供了宝贵的学习资源。在安全性和隐私方面,开源模型允许用户在本地部署,这对于对数据安全有高要求的应用场景来说是一个巨大的优势。

当然,开源大模型也存在一些劣势。与一些顶级闭源模型相比,开源模型在某些通用任务上的性能可能略显不足。训练和部署大规模语言模型需要大量计算资源,这对许多小型组织来说是一个不小的挑战。相比商业闭源模型,开源模型可能缺乏专业的技术支持服务,而且开源社区贡献的模型质量可能参差不齐,需要用户自行甄别和验证。我们还需要注意到,开源模型更容易被滥用于有害目的,如生成虚假信息或不当内容,这带来了法律和伦理风险。从商业角度来看,尽管开源模型可以免费使用,但开发团队可能面临商业化和可持续发展的挑战。此外,多个版本和分支的存在可能导致兼容性问题和使用混淆,而训练数据的来源和隐私保护也仍然是一个敏感问题。

在AI应用开发的过程中,选择合适的大语言模型(LLM)无疑是一个关键决策。正如我们在本书前面章节中所讨论的,LLM可以被比喻为AI智能体的大脑。这个选择不仅关乎技术层面,还直接影响项目的架构设计、成本结构、长期可持续性和战略定位。面对开源和闭源两类大模型,我们需要进行深入的分析和权衡。

首先,我们需要认识到,开源和闭源模型各有其优势和适用场景。对于追求快速开发和即时可用性的项目,尤其是处于最小可行产品(MVP)阶段的产品或采用订阅制商业模式的服务,闭源大模型往往是更为明智的选择。以OpenAI的GPT系列为例,它们提供了完善的API和技术支持,能够帮助开发团队快速构建和部署应用。根据OpenAI的报告,截至2023年,已有超过100万开发者使用GPT API,这充分说明了闭源模型在快速应用开发中的优势。

然而,对于那些对数据隐私和安全有严格要求的应用场景,或者需要对模型进行深度定制以满足特定领域需求的项目,开源模型可能更具优势。以Meta的LLaMA系列为例,自从2022年首次发布以来,它已经成为开源AI社区的重要基石。根据Hugging Face的统计,基于LLaMA的模型和应用数量在2023年呈现爆发式增长,这反映了开源模型在特定领域应用和定制化方面的巨大潜力。

值得注意的是,随着技术的发展,开源和闭源模型之间的界限正在变得越来越模糊。我们看到一些闭源模型提供者开始提供更多的定制化选项,而一些开源模型也在不断提升其易用性和性能。例如,Anthropic的Claude模型虽然是闭源的,但它提供了更灵活的使用政策,允许用户在某些情况下对模型输出进行修改。同时,开源社区也在不断推出新的工具和框架,如Hugging Face的Transformers库,大大降低了使用和微调开源模型的门槛。

在选择模型时,我们还需要考虑长期的成本和可持续性。对于用户基数庞大、采用非订阅制商业模式的产品,自行部署和维护开源模型可能更具经济效益。例如,据Stability AI的报告,对于每天需要处理数百万次请求的应用,使用自托管的开源模型可以将运营成本降低高达90%。然而,这种方案也需要考虑到维护和升级的成本,以及保持与最新技术同步的挑战。

一个值得关注的趋势是,越来越多的政府机构和大型企业正在采取一种折中的方案:基于开源模型构建自己的私有化部署方案。例如,法国政府正在开发基于开源模型的本地化AI助手,以确保数据主权和安全性。这种策略不仅能够确保数据安全和隐私保护,还保留了模型定制化的灵活性。同时,它也允许组织在保持技术自主的同时,充分利用开源社区的创新成果。

在做出选择时,我们还需要考虑到技术发展的快速变化。2023年的一项研究表明,大语言模型的能力每3-4个月就会显著提升。这意味着我们在设计AI应用时,需要保持足够的灵活性,以适应未来可能出现的新趋势和挑战。一个可能的策略是采用模块化的设计,将模型接口与具体的业务逻辑分离,这样可以在未来更容易地切换或升级底层模型。

此外,我们还需要考虑伦理和法律方面的因素。随着AI技术的普及,各国政府正在加强对AI应用的监管。例如,欧盟的《人工智能法案》对AI系统的透明度和可解释性提出了更高的要求。在这种背景下,开源模型可能在合规性方面具有一定优势,因为它们的工作原理更加透明,更容易进行审计和解释。

最后,我想强调的是,选择使用开源还是闭源大模型,或者采取混合策略,并不存在一刀切的答案。这需要项目团队根据具体情况,仔细评估项目的需求、可用资源、技术能力、数据安全要求以及长期发展规划。一个可行的方法是先进行小规模的概念验证(PoC),分别测试开源和闭源方案,然后基于实际效果做出决策。

总的来说,大语言模型的选择是一个复杂的决策过程,需要我们在技术、经济、法律和战略等多个维度进行全面的考量。通过深思熟虑和全面分析,结合实际测试和验证,我们才能为项目选择最合适的大语言模型方案,为AI应用的成功奠定坚实基础。在这个快速发展的领域中,保持开放和灵活的心态,持续学习和适应新的技术趋势,将是确保我们的AI项目长期成功的关键。

------------------------------------

如果希望学习更多langchain和Agent开发的知识,可以参考《AI Agent智能应用从0到1定制开发》这门在线课程。


点击查看更多内容
1人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消