为了账号安全,请及时绑定邮箱和手机立即绑定

静悄悄的革命:人工智能、批判性思维与技术人文主义之路

我在大学教了十几年的英语后转行进入科技领域,所以我一直对我们的思维方式很感兴趣。在文学分析中,我们会剖析文本的假设、语言和上下文。我们会深入文学、哲学和修辞,来理解复杂问题并采用以人为本的角度。现在,随着人工智能的发展,我们发现类似的方法对于成功变得越来越重要。开发者们通过结合人类反思和机器驱动的分析来解决问题。

我对AI逻辑和人类洞察的个人看法

在过去的一年里,我们都见证了AI工具从代码补全演变为解决问题不可或缺的伙伴。它们就像一个更加强大的橡皮鸭或是一个总是对你直言不讳的写作搭档,无论是深夜里陷入困境的创意,还是兴奋时的灵感,你都不想打扰正在忙碌的队友。当我们转向AI模型时,我们惊讶于它们通过逻辑步骤进行深入思考的能力。这就像它们在实时进行推理。不过,对我来说,我越是依赖这种系统分析,我就越会停下来思考:“我是否在正确的方向上?是否需要根据上下文或可能产生的后果来寻找不同的解决方案?”

那种让AI处理繁重的逻辑任务与依赖我们的人类直觉来重新审视大局之间的紧张感,感觉像是一场静悄悄的革命。这并不是将我们的批判性思维交给机器,而是关于融合两种世界的最佳部分:一台不断提供路径的机器和一个能够退一步,看清整个森林,并确保我们不会错过大局的人。

批判性思考的矛盾

这里就出现了悖论:AI 能够以近乎人类的细腻程度来串联逻辑论证或调试代码,我们也就越依赖它来做“繁重的活儿”。更讽刺的是,最关键的进展往往来自人类主导的批判性思考,这种思考质疑基本前提。无论 AI 的推理多么系统化,它仍然受制于它的训练数据和设定的框架。

我们已经到了一个阶段,AI可以以一种更加方法论的方式来探索解决方案。在Linux基金会里,我们发现开发者越来越依赖开源库来加速复杂模型的开发工作。但我们都清楚,最好的结果发生在人们成为AI输出的最终裁决者时。这并不是说我们要放弃关键思考;而是引导AI来处理重复性和系统性的任务,这样我们就可以从高层进行挑战和解读,像是这样。

与其纠结于AI是否会“超越”人类,我们更应关注人类逻辑与AI的穷举搜索如何互补。DeepSeek最近的高性价比模型展示了将现有开源资源与创新的工程方法相结合的力量,但它也促使我们思考如果在伦理或许可方面有所妥协会发生什么。在急功近利的过程中,监管是否会放宽,偏见是否会加深,是否会导致许可证条款的违规?也许这并不是提升批判性思维的关键所在,也许更需要的是在特定领域的模型开发上投入更多。

当AI在思考,人类却在重新想象未来

一个通用模型可以成为头脑风暴的好伙伴,但是一旦引入特定领域的知识,我们就打开了协作的新层次。AI 不再只是一个普通的助手,而更像是一个理解主题的细致同事。不过,如果没有记录下所有细微的调整,这种协同也会带来复杂性。比如在写作过程中发现某个背景信息不再适合当前的情境。多阶段的神经网络理论上很优雅,但如果一个节点出现问题,它们也会变得脆弱。第一阶段中,如果忽略了一个数据偏差或许可不匹配,它可能会影响到每一层。最终,这是一场细节与大局共舞的表演,在这种情况下,让AI处理系统的逻辑部分,而我们则把握大局是合理的。我认为这就是创新将继续闪耀的地方,机器推理与我们深刻的人类洞察力在这里交汇。

技术人文科学

我们正在见证一个被称为“技术人文主义”的混合领域。在这里,程序员学习如何结合人工智能的问题解决能力与人类的问题设定和质疑假设的能力。人文背景的开发者在这个新领域中并不奇怪地感到如鱼得水。我们已经习惯了在字里行间寻找线索,质疑背景,识别盲点。现在,我们将这些经验与机器辅助的系统搜索相结合,以产生更深入和更稳健的解决方案。

建立对AI合作伙伴的信任

我注意到自己在信任AI推理方面的个人挣扎与其他人的经历相似。我们依赖AI的速度,但我们也信任我们的同事,因为我们了解他们的表现,见过他们应对挫折。相比之下,AI有时会以奇怪的方式出错(参见NPR的这篇文章举例)。这种时刻让人清楚地意识到,虽然AI在某些方面表现很好,但它仍然缺乏人类的生活细微之处,也存在偏见。

根据《塑造未来:生成式人工智能开源创新的影响(2024)》[https://dub.sh/open-source-ai-LI\],82% 的受访者认为开源人工智能对于未来的发展至关重要。但是开源并不能解决所有问题。73% 的受访者表示,他们计划扩大开源人工智能的使用,主要是因为它提供了透明度和社区驱动的验证。世界正与我的个人感受趋同。我们想要人工智能快速发展的速度,但也需要有人或事物来解释每个决策背后的“为什么”,以确保责任感。

到最后,无论人工智能的逻辑看起来多么先进,我们才会在理解它背后的原理后信任它,这正是社区审查和透明的开放框架发挥作用的地方。

为什么批判性思维依然这么重要

我们都听说过人们担心人工智能对人类工作的影响。但其实我们应该关注的是,开源人工智能正在蓬勃发展,因为我们仍然需要人类的合作和监督来优化这些模型的学习、进化和输出结果。

实际上,我们需要:

  1. 人工监督:即使是最聪明的AI有时也会看不到全局,比如当它默认使用单一参照框架,或者忽略细微的文化差异时。这就是我们批判性思维的重要性所在。
  2. 集体责任:开源提供了许多眼睛来捕捉潜在问题的框架。“社区驱动的发展优于封闭方法,这并非一句空洞的口号”,它有证据支持:多个视角可以更系统地发现弱点或被忽略的部分。
  3. 透明的数据与模型追踪:AI物料清单确保我们不会忽视瞬时的变动。我们可以在不陷入“我们训练的是哪个版本?数据集来自哪里?”这些混乱的情况下迅速行动。物料清单是我们真相的基石,创造了内部和外部的信任。使用SPDX 3.0实施AI物料清单(AIBOM) (2024)强调了一个关键点:如果不记录数据来源、模型配置和许可证详细信息,瞬时更新可能会导致同样瞬时的监督缺失。
展望未来:参与的呼唤

真正的关键不在于“AI是否会超越人类的批判性思考?”这样太简单化了。相反,真正的关键在于机器辅助的系统推理和人类驱动的批判性思考如何更好地互补。

随着这些模型在推理任务上越来越接近或甚至超越人类,问题来了:我们如何使用这种逻辑,同时保留我们独特的理解和解释方式?我之前教授批判性思维的经历并非徒劳;这让我在理解和调整模型或处理多重阶段流程时更加谨慎。在面对这些情况时,我总是保持谨慎和好奇,并经常问自己“等等,这真的对我们要解决的问题最好吗?”

如果你只是偶尔使用AI工具,可以考虑更深入一些:试着看看那些开源框架,它们让你能深入理解这些黑箱。如果你是来自人文或非传统科技背景的人,那就更应该深入研究。这种质疑假设的能力现在比任何时候都更加重要。AI可以系统化,而你则可以进行概念化的思考。

那就是悄然进行的革命:将先进的AI逻辑与经得起时间考验的人类批判性思维结合起来,依靠开源协作确保我们都能看到、学习并改进幕后的一切。让我们继续这样做。我们追求速度,但绝不会以牺牲我们反思、质疑和想象未来的能力为代价。

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

0 评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

举报

0/150
提交
取消