早在2017年,长岛冰茶——以其平淡无奇、几乎难以入口的糖水饮料著称——改名为“Long Blockchain Corp。”其股价飙升至宣布前价格的400%。该公司既没有宣布任何具体的区块链整合,也没有做出任何实际的整合。
LBCC随后因与SEC关于虚假投资者声明的和解而从纳斯达克股票市场退市。现在,该公司在场外市场交易,其市场价值为3600万,从之前的1.38亿下降到如今的3600万。
https://cointelegraph.com/news/加密货币炒作的典型案例:一家冰茶公司转向区块链失败,尽管其股价上涨百分之二百八十九
最令人惊讶的是,这个特别荒谬的故事中,LBCC 并不是区块链泡沫的最高潮——相反,它标志着区块链泡沫最后的一次冲刺。以 2022 年区块链圈骗子的标准来看,LBCC 只是个小骗局,价值大约 1.38 亿美元,空洞无物,在那些圈内人眼中只是小菜一碟。
他们没有NFT,没有洗售交易,也没有ICO。他们没有在超级碗上做广告。他们没有从散户投资者那里窃取数十亿美元,同时宣称自己是“有效利他主义者”。他们也没有通过稻草捐款和其他形式的竞选财务欺诈,将数十亿美元转移到竞选活动中。他们甚至没有开一家以加密货币为主题的汉堡店,你在那里根本无法用加密货币买汉堡。
该链接是:https://robbreport.com/food-drink/dining/bored-hungry-restaurant-no-cryptocurrency-1234694556/
他们是业余的。他们试图“让fetch发生”,但只成功了片刻。相比之下,加密货币泡沫中的超级捕手却能够在相当长的时间段里让fetch发生,自Pets.com以来,他们利用了最强大的现实扭曲力量。
任何不能永远持续的东西最终都会停止。过去一年据说数万亿美元的加密货币资产蒸发了,但这些损失并未反映在实体经济中——因为这些所谓的“财富”本来就是泡沫,所以它们的消失并未对实体经济造成影响。
就像任何庞氏骗局一样,加密货币是一种将普通人与他们的储蓄分开的方式,通过假装他们在“投资”这个庞大家业中获得了收益——但实际上,系统中唯一的真正资金(即“法币”在加密术语中的意思)是辛辛苦苦的退休储蓄,而泡沫的推动者将这些储蓄换成了流动性差、毫无价值的垃圾币。
我们已经不再相信那些虚幻的数十亿。萨姆·班克曼-弗莱德现在处于在家软禁状态。但那些把钱给了他的人——以及那些更狡猾、逃避逮捕的庞氏骗局操纵者——正在寻找新的骗术来从受害者身上捞取钱财。
比如说摩根士丹利,该公司在2021年和2022年极力推荐加密货币为巨大的增长机会。
https://cointelegraph.com/news/摩根士丹利成立了加密货币研究小组
今天,摩根士丹利想告诉你,人工智能将带来6万亿美元的商机。
他们并不孤单。Endeavor、BuzzFeed、微软、Spotify、YouTube、Snap、《体育画报》、CAA等公司的这些CEO们都在不停地天天吹大AI泡沫,都说未来是AI的。
https://www.hollywoodreporter.com/新闻/最新华尔街AI股票-1235343279/
谷歌和必应正处于一场技术竞赛中,旨在通过各自的聊天机器人将各自的搜索引擎变得最快、最深入地恶化,用聊天机器人生成的段落替换原有的网页链接,这些段落是由全自动化且自信满满的骗子编写的华丽内容。
https://pluralistic.net/2023/02/16/tweedledumber/#easily-spooked(《双蠢》:易惊篇)
区块链是在寻找一个具体的问题。同样地,人工智能也是如此。是的,Buzzfeed可以通过自动化其性格测试栏目来减少其工资支出,而Spotify的“AI DJ”将生成稍好一些的播放列表(至少在Spotify没有特意插入付费歌曲的情况下)。
但即使你把这一切加起来,加倍,平方,再加上十亿美元的置信区间,仍然无法达到美国银行分析师所说的“一个定义性的时刻——就像90年代的互联网”。原因之一是,“90年代的互联网”最令人激动的部分在于它的进入门槛极低,并未被大公司主导——事实上,它让大公司都感到害怕。
相比之下,AI泡沫经济是由一些大型企业吹大的,他们的兴奋点在于让最大的公司变得更大,而你们其他人就自生自灭吧。这算哪门子革命。
AI 具有经典“炒作然后抛售”的所有特征,这一切都始于术语。AI 并不是“智能的”。“机器学习”并不能真正“学习”。在本周的Trashfuture播客节目中,他们用一个出色(而且粗俗且滑稽)的观点论证了ChatGPT更应该被视为一种高级的自动补全功能——而不是像人们想象中的那种新机器人主宰。
点击这个链接来听播客 https://open.spotify.com/episode/4NHKMZZNKi0w9mOhPYIL4T
我们都清楚,自动完成功能是一把双刃剑。像所有统计推断工具一样,自动完成功能也非常保守——它希望你明天做的事情和昨天一样(这就是为什么广告重定向会在你搜索鞋子后向你展示鞋子的广告)。如果你在“嘿”后面通常打的是“宝贝”,那么下次你输入“嘿”时,自动完成功能就会准备好填入你通常接下来的那个词——即使这次你想输入“嘿,别再发短信骚扰我了,你这个怪人”。
https://blog.lareviewofbooks.org/provocations/恐新症-AI掌控者希望一切保持原状/
而且当自动完成遇到一个新的输入——当你尝试输入从未输入过的内容时——它会试着帮你输入大多数人通常会打的词来结束句子。通常这会产生极其平淡无奇的结果,但有时结果会非常搞笑。2018年,我给我们的保姆发短信“嘿,你有空帮我照看一下吗?”时,Android 自动完成了句子“在我的脸上”(我之前没输过!)
https://mashable.com/article/android-predictive-text-sit-on-my-face 安卓预测文本坐在我脸上
现代的自动完成功能可以针对提示生成长段落的文字,不过它的可靠性跟2018年的Android短信自动完成功能一样不可靠。亚历山大·汉夫发现ChatGPT告诉他,他已经死了,并且生成了一个看似可信的链接网址,链接到《卫报》上并不存在的讣告。
https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/
当然,那些兜售AI泡沫的人坚持认为这是个功能而非错误。如果自动完成功信地说出愚蠢和错误的废话,那是因为“AI”越来越像人类,因为人类也会自信地说出愚蠢和错误的话,这就是所谓的“更像人类”。
展示A是亿万富翁AI骗子山姆·阿尔特曼,他是OpenAI的CEO——一家产品既不开放,也不智能,更不是真正的人工智能的公司。阿尔特曼在推特上庆祝ChatGPT发布时发帖:“我就像个随机鹦鹉,你也一样。”
这是一个来自sama在Twitter上的推文: https://twitter.com/sama/status/1599471830255177728
这是对“随机鹦鹉”论文的一次挖苦,这篇全面地汇总了对人工智能的批评,这些批评最终导致谷歌解雇了Timnit Gebru,一位受人尊敬的人工智能专家,因为她有勇气指出了这种现象,就像揭露“皇帝的新衣”一样。
Gebru关于鹦鹉的论文的合著者是美国华盛顿大学的计算语言学领域的专家Emily M Bender,她是批评AI炒作方面最知情且最具批判性的人之一。你可以从Elizabeth Weil在《纽约杂志》的人物特写中了解她的观点:
纽约杂志的一篇文章,讨论人工智能、聊天机器人和Emily M. Bender的话题 https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html
班德在她的领域做出了许多重要的学术贡献,但她也因其经验法则而闻名,这些法则提醒她的同行科学家不要自满得意。
- 别把词形和意思搞混了
- 别太相信自己听到的
正如 Bender 所说,我们已经制造出了“可以自动生成文本的机器,但我们仍然无法停止对背后心智的想象。”一个可能的解药是像一位意大利议员建议的那样,将“AI”替换为“SALAMI”(“学习算法和机器推理的系统方法”)。当有人问你“这 SALAMI 聪明吗?”“这 SALAMI 能写小说吗?”“这 SALAMI 应该享有基本人权吗?”时,保持冷静要容易得多。
Bender最著名的贡献是“随机鹦鹉模型”,这一构造“只是随机生成单词”。AI大佬如Altman非常喜爱随机鹦鹉模型,并且极力想把人类简化为随机鹦鹉,这样他们就能宣称他们的聊天机器人与人类一样功能齐全。
与此同时,Altman 及其团队却莫名其妙地害怕他们的创造物。这可能只是在吹牛:“我造了个这么牛逼的东西,它有可能毁灭人类!还好,我是它的靠谱老大,所以还好。但老天,它确实牛逼!”
他们已经玩这个游戏很长时间了。像埃隆·马斯克(OpenAI的投资人)这样的人都一直警告我们,除非我们控制住AI,否则AI会毁灭我们。马斯克希望说服欧盟委员会和FTC相信,他可以解雇所有推特的人工审核员,并用聊天机器人来替代,而不违反欧盟法律或FTC的同意令的规定。
这些说法有很多盲目的重复,不仅来自AI的支持者,也是AI的批评者容易陷入所谓的“批亢之 hype(即通过重复支持者的话来批评该技术)”,正如Lee Vinsel 所说:通过重复支持者的说法来批评,而不去验证这些说法的真实性。
https://sts-news.medium.com/你做错了关于批评和技术炒作的一些笔记-18b08b4307e5
回应埃隆·马斯克警告我们人工智能会破坏地球并把人类当作食物时,不必大喊:“看看这个巫师多么不负责任!他造了一个弗兰肯斯坦式的怪物要把我们都杀了!”我们可以指出,在埃隆·马斯克所有错误的观点中,他对《黑客帝国》这类电影的理解最为片面。
https://www.theguardian.com/film/2020/may/18/lilly-wachowski-ivana-trump-elon-musk-twitter-red-pill-the-matrix-tweets 莉莉·沃卓斯基、伊万娜·特朗普、埃隆·马斯克的推特和“红蓝药丸”与《黑客帝国》的推文
但即使我们相信那些自称为“人工智能存在风险”感到恐惧的人的话,我们也可以通过寻找可能引发这种恐惧的其他原因来找到更好的解释。正如查理·斯图尔特所指出的,公司就像是“慢速AI”,这些自主的人工生命体即使在表面控制他们的人试图引导他们朝更好方向发展时,也总是做出错误的决定。
https://media.ccc.de/v/34c3-9270-dude_you_broke_the_future
想象一个超级有钱的“富家公子”,他虽然名义上领导着一家公司,但实际上却无法让公司听从自己的指挥。他说:“所有人都以为我是老板,然而实际上,我在某些日子里成了慢AI的提线傀儡,在其他日子里成了它的泥偶。”
特德·蒋早在2017年就准确地描述了这一点(同年也是长岛区块链公司成立的年份)。
弗雷德里克·詹明信曾流行过这样一句话,说想象世界末日比想象资本主义终结还要容易。硅谷资本家不愿考虑资本主义终结,这一点并不令人惊讶。令人意外的是,他们想象世界末日的方式是通过一种不受约束的资本主义形态,以超级智能AI的形态出现。他们不经意间创造了自己形象的恶魔,一个其放纵的行为正反映了他们自己的本质。
文明面临的真正危险不是AI,而是失控 (wénmíng liàngháng de zhēngrén wēnhǎn bù shì AI, ér shì shāoháng)
姜仍然在撰写关于“AI”的最佳批评文章之一。他二月份在美国杂志《纽约客》上发表的文章《ChatGPT是网络的模糊JPEG》,很快就成为了经典。
[AI] 的幻象是压缩伪影,但——就像复印机生成的错误标签一样——它们足够逼真,以至于识别它们需要将它们与原版进行比较,在这种情况下指的是网络上的信息,或者是我们自己对世界的了解。
《纽约客》科技专栏文章:ChatGPT是网络的模糊图像。
https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web
“AI”几乎就是为了吹捧另一个泡沫经济而设计的,它擅长制造一些花哨的小把戏——比如看似合理的文章、奇怪的图像、模仿声音。但正如普林斯顿大学的马修·萨尔加尼克所指出的,酷炫与工具之间存在着巨大的差异:
https://freedom-to-tinker.com/2023/03/08/can-chatgpt-and-its-successors-go-from-cool-to-tool/ 点击这里阅读更多关于ChatGPT及其后续工具的文章。
《自然》杂志可以宣称“对话式AI确实改变了科学”,但“从写搞笑指南教你怎么从家用电器里取出食物到真正做科学研究,中间存在巨大的差距。”Salganik尝试让ChatGPT帮忙做最平常的学术任务——审阅同事的论文。结果是:“ChatGPT一点忙也没帮上;它根本没帮我审稿。”
批评热潮不仅限于ChatGPT——人们有很多(正当的)担忧,关于图像生成器和语音生成器及其对创意劳动市场的影响,但这种担忧往往通过放大那些自利公司的说法来表达,这些公司希望炒作这些技术。
Kirby Ferguson 在他最后的《Everything Is a Remix》系列视频中提供了对图像和声音生成工具的出色、视觉上令人惊叹、论点精辟的批判。
点击观看 https://www.youtube.com/watch?v=rswxcDyotXA
弗格森在思考版权问题上表现出色——你是否有权决定谁可以研究你制作的艺术作品?除了某些特殊情况之外,这些系统并不会存储它们分析的图像副本,也不会复制这些图像的内容:
https://pluralistic.net/2023/02/09/ai-monkeys-paw/#bullied-schoolkids
对于创作者来说,最重要的问题是经济上的,而不是创意上的:我们的老板是否会利用这些系统来降低我们的工资?这是一个非常重要的问题,答案无疑是肯定的。
市场看重自动化主要是因为它能让资本家支付给工人的工资更低。纺织厂老板购买自动织布机并不是为了提高工人工资或者缩短工作日。他们想要解雇熟练工人,并用从孤儿院领养来的小孩取而代之,这些小孩被强迫充当童工十年,挨饿受打,即使在被机器弄伤后,他们仍然被迫继续工作。有趣的是,《雾都孤儿》(注:即《奥利弗·退斯特》)正是根据罗伯特·布林科的畅销自传改编的,布林科就是一位经历过十年强制劳动并幸存下来的孩子:
访问这个链接: https://www.gutenberg.org/files/59127/59127-h/59127-h.htm
今天,为游戏公司录制的声优不得不在每次录音开始前说:“__,我同意你们用我的声音训练AI,并以任何方式使用它。”
声优签署将权利转让给人工智能的协议 (shēngyōu shūqǐ jiāng quánlì zhuǎn ràng gěi shèngjì qìzāi de xiéyì)
让我们在这里明确一点:事实上,目前并没有确立的声纹版权主张。声优在不可谈判的条件下为这些大型垄断企业工作的所谓“权利”实际上并不存在。当一家公司让员工放弃这一“权利”时,他们赌的是将来会以“艺术家权利”的名义设立这一权利——然后就可以利用这一权利来解雇那些为之奋斗的艺术家。
还有其他的方法。我们可以支持美国版权局(USCO)的立场,即机器生成的作品不属于人类创作的范畴,因此不应享有版权——那么,如果公司想要控制其产品的话,就必须雇用人类来创作它们。
美国版权局拒绝了AI生成的艺术作品,最近进入了一个称为“天堂入口”的领域。
或者我们可以创建属于所有艺术家的共同权利,这些权利无法转让给任何公司。这就是录制其他音乐家歌曲的权利是如何运作的——这也是为什么泰勒·斯威夫特能够重新录制那些被不良的私募股权人士从她手中转卖的音乐录音的原始版本。
https://medium.com/united-we-stand-61e16ec707e2 (来源:克莱格·道克托罗医生)
无论我们作为创意工作者还是作为有权享受体面生活的普通人,我们负担不起喝所谓的“区块链冰茶”这种东西。这意味着我们得懂点技术,理解随机算法,并确保我们的批评不只是重复那些新骗术的营销话术。
如果你想以论文格式阅读或分享这篇文章,这里有一个链接,指向我无监控、无广告、无跟踪的博客pluralistic.net上的文章。
https://pluralistic.net/2023/03/09/autocomplete-worshippers/#所谓的AI就是那些一路上与之斗争的公司.
图像:
Cryteria(改过版)
https://commons.wikimedia.org/wiki/File:HAL9000.svg
知识共享署名3.0许可证
访问此链接: https://creativecommons.org/licenses/by/3.0/deed.en (英文版行为)
Cory Doctorow (craphound.com )是一位 科幻作家 、活动家 以及 博主 。他拥有一档 播客 、一份 通讯 、一个 推特主页 、一个 Mastodon社交媒体账号 以及一个 Tumblr账号 。他生于加拿大,后来成为英国公民,现居加利福尼亚州的伯班克。他最新的非小说作品是 《窒息资本主义》 (与Rebecca Giblin合著,这本书探讨了艺术劳动市场和买家的过度权力)。他最新的成人小说是 《攻击面》 。他最新的短篇小说集是 《激进化》 。他最新的图画书是 《怪物杀手波西》 。他最新的青少年小说是 《海盗电影院》 。他最新的漫画小说是 《现实生活》(In Real Life) 。他即将出版的作品包括《红队蓝调》(Red Team Blues),一本关于加密货币、腐败和洗钱的黑色惊悚小说(Tor,2023);以及《失落的事业》(The Lost Cause),一本探讨与白人武装民兵组织和解过程的乌托邦小说(Tor,2023)。
共同学习,写下你的评论
评论加载中...
作者其他优质文章