照片由 Brett Jordan 在 Unsplash 拍摄。
“科技终结了一切”——《叙事的艺术》一书中的受访者
起初,我以为我父亲这么说是因为他对WhatsApp主页顶部那个总也找不到的小垃圾桶图标心生不满。然而,这句话其实是他过往青春故事的宏大收尾,也是他现在所认为的反乌托邦的引子。大多数人会同意,在过去的五十年到七十年间,技术(包括便携设备、家用电器,甚至机器人机制)极大地提高了我们的生活质量。它革新了我们生产产品、消费媒体、通勤、开采和分配资源以及彼此沟通的方式。由此看来,技术似乎创造了我们现在所拥有的一切,而不是摧毁了它。
社交媒体剥夺了民主社会的自主性,因为它在社会层面影响了自我管理,而在个人层面影响了自由选择。
就像尼古拉斯·卡尔一样,我也能感觉到有人在我的大脑里重写那些根深蒂固的习惯。过去只是睁眼走去浴室的简单事情,现在变成了一个持续三十分钟或更久的例行公事:登录游戏,查看邮件,刷Reddit,落入YouTube短片的无底洞,迈出向冰冷地板走去的一步,最后,我见到了我的瓷制水槽朋友,它用反射的光泽和闪烁的水珠迎接我。我在一天中找手机,好像在找烟盒或烟具。当我看到屏幕时间报告显示我在TikTok上连续用了八个小时,在YouTube上花了五个小时时,我知道我触底了。我相信许多用户,比如刷牙,也会经历类似的日常习惯变化。我问自己,为什么我不能停止滑动屏幕,即使我内心深处知道我的“为你推荐”页面是无尽的?大型科技公司是否意识到他们的平台成瘾性?他们是否做了任何调整来减少我们这一代对科技的依赖?
《社会难题》这部在 Netflix 上的纪录片解答了我关于科技是如何破坏了“所有东西”的问题,它通过展示了所有社交媒体公司商业模式中的三个基本原则。
- 目标: 提高使用率,确保用户持续滚动。
- 增长目标: 让用户回来并邀请朋友,而这些朋友再邀请更多朋友。
- 广告目标: 在达成上述两个目标的同时,确保公司从广告中获得尽可能多的收益。
纪录片显示,大型科技公司使用一种“自适应”算法来增加使用量或参与度,以创造个性化的体验。作者兼纪录片受访者 Jaron Lanier 描述此类算法为“尝试优化结果;这里的‘更好’是指更吸引人,从而更赚钱”(Lanier 15)。每一次点击和浏览,你都在给这些算法提供更多信息,它们的自适应性可以预测你想要什么,并向你提供下一个要看的帖子。想象一下你在上班或上学的路上经过的一家咖啡店。在你不知情的情况下,一名店员从垃圾桶里捡起你喝过的咖啡杯里的唾液,将其放入一个密封袋中并送到实验室。实验室对你的咖啡杯里的唾液进行处理,以找到你的唾液中导致你对咖啡上瘾的生物成分。第二天,这家店调整了它的配方,让咖啡对你来说更加上瘾。每次你光顾时,他们都遵循这些步骤,并逐渐获得关于你的唾液越来越多的信息。最终,他们调制出一种你无法抗拒的咖啡。这和许多社交媒体的自适应算法如出一辙。
这些自适应算法所做的调整或修改以定制用户内容被归类为“自适应”。它们能够通过提供的数据和反馈来学习,从而适应各种环境和用户。它们收集你的信息——如年龄、姓名、位置、兴趣、观点等——来创建一个你的用户模型,或如 Tristan Harris 所说的“虚拟人物”。每次点赞、评论、发帖或观看视频都像是给这个“虚拟人物”添加更多细节。一点一滴地,你的数据轨迹使这个虚拟人物更加个性化定制(伯克利加州大学公共政策)。有了这样一个准确的你,自适应算法可以测试哪些内容能让你在平台上多停留二十分钟。它们预测你的点击并推荐与收集的信息相关且合适的内容,让你陷入无底洞般的滚动中,最终,十一小时的刷信息流变得司空见惯。
由于算法可以通过进行无限的分组测试来解读你的个性类型和心理触发点,从而创建一个不可抗拒的“为你”推荐列表,可以说你已经失去了自主性。从社会学的角度看,自主性是一个团体维护和调节定义其统一性的结构的能力,而不受外界干扰。这一定义承认了存在像政府或拥有更大权威的力量这样的局外人,与这些力量在事业上往往是对手。想想十三个殖民地对抗英王,或者纳尔逊·曼德拉对抗种族隔离。社交媒体是否也成为这些威胁美国等民主社会的民主结构的局外力量之一?在任何民主的核心,大多数人才是社区真正的领导者,因为他们选择任命谁作为他们的代表。本质上,大多数人通过讨论公共事务和应对系统性问题来行使言论自由。言论自由的核心在于每个人都有权在不受审查或限制的情况下表达自己的意见。然而,当一个群体被算法引导,其行为和言论只展示与其信念体系一致的信息,这是否还是同样的言论自由?例如,在剑桥分析公司丑闻中,该公司据称收集了约8700万Facebook用户的数据,主要是美国人。剑桥分析公司推出了一份包含120个问题的调查问卷,以确定用户在五因素人格模型中的位置。他们还利用Facebook数据来推断用户的教育背景、位置、喜欢的群组和页面、关系状态和工作场所(Detrow)。该公司据称收集了每个用户大约5000个数据点,以创建心理档案,确定用户的人格特质。凭借这些信息,剑桥分析公司能够进行微定位或“个性化”政治信息,以影响用户行为,最终促使他们为特定选举候选人投票(Kroll等)。
“我们利用Facebook收集了数百万个人的资料,并根据我们对他们了解的信息建立了模型,以便利用这些信息,针对他们的心理弱点,”数据顾问、剑桥分析公司吹哨人克里斯托弗·威利如是说。(Kroll等)
Analytica对2016年选举的影响有多大尚不清楚,然而这种情况反映了控制的二元性和权力的不对等,即选民与剥削性的超级计算机(加州大学伯克利分校公共事务学院)之间的权力失衡。选民和用户将社交媒体视为他们的代表,就像过去的国家任命国王作为领导者一样。对于许多民主社会中的个人来说,社交媒体和言论自由几乎成了同义词。如果您觉得有什么困扰,或者只是想吐吐槽,发一条推文,等着别人转发和评论。没有人能阻止您向数十亿人发表自己的言论。而在另一端,算法负责将每个用户置于一个志同道合的用户群体中。这些虚拟社区与现实世界分离,因为它们坚守极端的世界观和价值观。在更大的社会背景下,我们有这些小型虚拟社区,我们失去了解决非虚拟系统性问题和公共事务的能力。多数人不会在自己的虚拟社区或针对不同观点时站出来反对对立的真理,因为他们害怕被排斥或封杀。我们是否也会因为被排斥或封杀而受到言论自由的限制,进而影响民主?不要误解我的意思,多样化的社群丰富了我们的社会,因为每个社群都带来了不同的视角。然而,许多社会,特别是美国,已经达到了如此高的不宽容程度,以至于人们无法与光谱另一端的人进行对话,因为他们的感受可能受到伤害。这种不宽容现象被称为“雪花一代”,其成员无法处理不同的观点和意见。
问题不在于我们社会中有小的在线群体,而在于算法常常是这些群体的中介和创始人。例如,Reddit 拥有最大的在线社区集合。与其他许多 SNS 平台一样,Reddit 有一个主页,上面有来自不同领域的帖子,这些帖子会根据你订阅的社区和你的一般兴趣来吸引你。主页的设计是为了让你订阅新的社区,浏览多个子版块,并偶尔看到一些广告。这个过程本身并无害处,除非潜在的社区是一个极端主义团体。但是,算法安排了你与该社区的整个互动过程。用户从未真正掌控局面,因为一切都由算法决定。每次打开平台时,我们都在与那台“拥有每个地球人化身的超级计算机”斗争,它能“模拟三百亿种信息和广告的变化”(伯克利加州大学公共事务)。因此,算法就像一个被任命的君主,决定了我们社会的状态。
“如果你不为产品付费,那么你就是产品。”特里斯坦·哈里斯,这位前谷歌设计伦理学家曾说过(奥尔洛斯基)。“这种对我们进行微细分的能力,就是将我们当作产品来对待。”他继续说道(在伯克利加州大学公共事务活动上的演讲)。
大型科技公司通过向你,用户,销售产品(如苹果公司直接向你出售设备)或通过广告商付费展示广告并促使用户购买商品来盈利。Instagram、Facebook和其他平台提供“免费服务”,将产品带到平台上供你使用。广告商实际上是真正的客户,因为他们是付费购买“你”这一资源,正如哈里斯所言。对科技公司而言,这是一场争夺注意力的比赛,通过提供特定的菜单来吸引尽可能多的眼球。可以将这些菜单视为社交媒体服务平台中的设计元素,反映了用户可选的思维模式。例如,你刚醒来时锁屏上不断增加的时间戳通知,给你一种急迫感,让你觉得需要追上所有错过的信息,从而分散了你刷牙、散步或吃早餐这些更有益选择的注意力(Edelman)。当你在Gmail或Outlook上收到邮件时,你得到的是快捷键菜单,而不是“更有力的沟通方式”(Harris)。这些菜单忽略了用户如何自由使用他们的时间,通过提供一种虚假的完整选择假象。兰尼尔进一步阐述了大科技公司如何影响人们的思维方式,他说:
“你行为和感知中逐渐产生的细微难察觉的变化才是结果。”
广告商到底在付你哪部分的费用?他们想要从你这里得到的不仅仅是浏览信息流吧,对吧?社交媒体就是利用操作性条件反射,这意味着可以通过在不可预测的时间间隔内给予奖励和惩罚来改变用户的行为(Maza et al.)。被奖励的行为会重复,而被惩罚的行为则很少出现。拉动“拉斯维加斯老虎机”的杠杆带来的多巴胺快感就是用户的奖励。在滚动浏览YouTube页面获取新动态时,我们会拉动这个杠杆。点击带有红色圈圈的应用时,我们会再拉动这个杠杆。当滚动到下一个视频,查看帖子的点赞数,或听到通知铃声时检查锁屏时,也会拉动杠杆。这种算法在个性化信息流中创造的微小期待与社会和情感刺激混合而成的奖励,就是社交媒体的使用带来的。而我们没有获得这些奖励就是惩罚。例如,错过点赞带来的认可和接受(情感方面),以及早上收到的无数通知让我们感到与群体或社会相连(社会方面)。
指责机器引起刺激过度上瘾很简单,然而,如果用户从未同意交出数据以换取“免费服务”,大多数算法将无法运行。教授Shoshana Zuboff创造了“重构”这一术语来描述资本主义市场中存在的一个双向等式,即“将人类体验视为免费原材料”(即大型科技公司)。第一部分描述了一个过程,就像我们从油中提取脂肪一样,科技设计成将我们的体验转化为数据。第二部分则是某物自愿接受转变的过程,比如“投降”,例如“判决”或“服务”(Zuboff 234)。Zuboff认为,为了使监视资本主义运作,等式两边缺一不可。使用社交媒体服务时,我们通过隐私协议与这些平台达成一种“新协定”;他们获取我们所有的信息来优化算法,而我们则得到我们所需的刺激,感到与他人相连。但要保持这种协定,我们就要遵照一个改变过程或上瘾的状态,用户必须经历行为调整,正如Lanier所言。因此,我们放弃了部分自由意志,屈服于一种操控手段。
自由意志 忽视了更大力量的存在,仅承认个人在没有任何阻碍的情况下从选项中做出选择的能力。简单来说,就是当用户自愿控制自己的生活体验,而没有算法监视他们的每一步行动或影响他们的选项时。然而我们知道,用户首先必须提供关于自己的信息,以便平台算法将其转化为数据。这些数据创造了一个个性化环境,在这个环境中,用户逐渐向算法让步,并经历行为调整,以使这一循环得以重复。类似于Analytica丑闻的研究发现,一项研究调查了是否可以从韩国SNS用户的Facebook个人资料上公开可用的几条信息中推断出111,123名用户的私人属性。尽管用户并未披露每个属性的答案,但实验结果表明,机器学习算法可以推断出性别、年龄、婚姻状况和伴侣状态(Choi 等人)。这不仅突显了此类算法的强大,还引发了公众对于公开信息的责任问题。是的,我们对算法的控制力微乎其微,但作为用户,我们应该意识到自己在网上公开了哪些私人信息。另一篇文章指出,父母在社交媒体上发布孩子的照片可能使他们面临潜在的伤害,比如身份盗窃、数据可能被重新分享到潜在危险的网站以及泄露令人尴尬的信息。文章作者认为,未经孩子同意的父母分享侵犯了孩子的隐私(Keith 和 Steinberg)。在这种情况下,算法再次成为你的信息流向的中介,但往往无法控制第三方如何使用这些信息。
公民不服从是一种自由意志的表现,它以非暴力的方式反对由如社交媒体这样的管理力量制定的法律。在这种情况下,公民不服从意味着有能力对算法说“不”,从而重新获得对我们在线体验的某些控制权。也许不要将您的 Google 或 Facebook 账户链接到所有东西上,使用一个限制数据收集的网页浏览器,在 YouTube 上使用隐身模式,这样至少您的搜索和观看历史不会被存储。尽管对许多人来说这已是常识,但我们不愿意为了额外的保护措施而破坏我们在平台上的体验,宁可选择继续使用这些平台。然而,我们应该让社交媒体“塑造我们的行为”,使我们脱离现实生活吗?任何民主的基本前提都是思想和行为的自由——当然要在相应的社会礼仪范围内。然而,许多人在面对面思考、行动或互动方面遇到了困难,因为他们的现实世界就是互联网和社交媒体。总而言之,我们在社交媒体政府的掌控下失去了身体和精神上的控制权。在个人层面,我们限制了自己的选择范围,只选择了屏幕上展示的选项,从而失去了说“不”的能力,无法继续探索符合我们时间管理需求的不同选择。
完全无法摆脱社交媒体,甚至无法按下重启社会的大红按钮。相反,我们将控制权交给了自己创造的适应性物品,结果是分裂而不是连接——这真是讽刺。我们像是在被训练成为孤狼,活跃时就会受到奖励,长时间缺席就会受到惩罚。我们对于不同意见的容忍度已经降低到如此地步——更准确地说,是对“为你”页面的不同意见,因为算法才是主导——以至于在我们个人资料的“匿名”保护下,我们失去了所有的同理心,发布一些刻薄的微博也不再犹豫。通过个性化方案,我们失去说“不”的机会,被困在不断根据我们心理特征和触发点变化的小岛上。从个人角度来看,我们忘记了去探索我们口袋设备之外的实体菜单。但这种情况在一个“监控经济”中不足为奇,该经济通过逐渐改变其产品的行为向广告客户“出售确定性”,即“你”。这种新型的“你”与平台之间的协议,成为了我们关系中的束缚。只要我们自愿提供信息并参与自我破坏宣扬言论自由和公民不服从的民主结构,我们将在一个由我们自己创造的经济中沦为“自由原材料”。
共同学习,写下你的评论
评论加载中...
作者其他优质文章