Meta首席科学家杨立昆:关于AI风险的讨论已经变得“精神错乱”

更新时间:2023-12-22 14:05:40作者:橙橘网

Meta首席科学家杨立昆:关于AI风险的讨论已经变得“精神错乱”

2023 年或许是人工智能领域最疯狂的一年。

连续不断的新产品发布、 董事会政变、关于人工智能末日论的激烈辩论,以及寻找下一个“颠覆产品”的竞赛。

但我们也看到了许多具体的工具和政策,它们的出现旨在让人工智能行业能够更加负责地行事,并让强大的参与者承担责任。这让我对人工智能的未来充满希望。


(来源:STEPHANIE ARNETT/MITTR | MIDJOURNEY)

这是我在 2023 年学到的东西:


生成式人工智能彻底离开实验室,但还不清楚它的下一步走向

2023 年伊始,大型科技公司就全力投入生成式人工智能的研发之中。 的 ChatGPT 获得了巨大成功,这促使各大科技公司发布了自己的大模型。

2023 年可能会被载入史册,因为我们看到了人工智能技术发布次数最多的一年。 的 LLaMA 2、的 Bard 聊天机器人和 Gemini 大模型、的 Ernie Bot、 的 GPT-4 以及许许多多的模型,开源和闭源的都有。

尽管公司和媒体进行了大量宣传,但我们还没有看到任何一个人工智能应用程序一夜成名。和推出了强大的人工智能驱动的搜索引擎,但事实证明它更像是一个无聊的玩物,而不是一个杀手级应用。

大语言模型的根本缺陷,例如它们经常编造一些东西(又叫做幻觉),导致了一些尴尬且搞笑的失误。的必应经常用阴谋论来回答人们的问题,并建议《纽约时报》的一名记者离开他的妻子。

的 Bard 聊天机器人发布时,被人们发现其宣传内容中包含了并不符合事实的东西,导致该公司股价蒸发了 1000 亿美元。

现在人们正在疯狂地寻找一种人人都想使用的流行人工智能产品。和都在尝试允许公司和开发人员创建定制的人工智能聊天机器人,并让人们使用人工智能构建自己的应用程序,而无需任何编程经验。

也许生成式人工智能最终会嵌入到无聊但有用的工具中,帮助我们提高工作效率。它可能会以人工智能助手的形式存在,也许具有语音功能和编程支持。接下来的一年对于确定生成式人工智能的真正价值至关重要。


人们了解很多语言模型的知识,但仍然对其知之甚少

尽管科技公司正在以疯狂的速度将大型语言模型部署到产品中,但我们仍然不知道它们究竟是如何工作的。

它们会编造事实,并且有严重的性别和种族偏见。2023 年我们还发现,不同的语言模型会生成带有不同政治偏见的文本,它们还是窃取人们敏感信息的绝佳工具。

当使用特殊的提示,文本到图像模型可能会产生受版权保护的图像和真人图片,并且它们很容易被欺骗,进而生成令人不安的图像。

我很高兴看到我们对这些模型的缺陷进行了如此多的研究,因为这可以让我们进一步了解它们的工作方式,并最终修复它们。

生成式模型可能非常难以预测,2023 年有很多工作是试图让它们按照创建者希望的方式运行。

表示,它使用了一种名为“根据人类反馈进行强化学习”的技术,该技术利用人类测试员的反馈来帮助引导 ChatGPT 获得更理想的答案。

人工智能实验室 Anthropic 的一项研究表明,简单的自然语言指令可以如何引导大型语言模型,从而降低其结果的毒性。

但遗憾的是,很多努力最终都只是暂时的解决办法,而不是永久性的。还有一些本质上错误的方法,比如禁止在图像生成人工智能系统中使用“胎盘”等看似无害的词语,以避免产生血腥场面。

科技公司之所以采取这种“一刀切”的解决方法,是因为它们不知道为什么模型会生成这些内容。

我们还要更好地了解了人工智能的真实碳足迹。人工智能初创公司 和美国卡内基梅隆大学的研究人员发现,使用强大的人工智能模型生成图像所消耗的能量与为智能手机充满电所消耗的能量一样多。

在此之前,生成式人工智能所消耗的具体能量一直是未能填补的空白。对此类问题进行更多研究,可以帮助我们改变使用人工智能的方式,使其变得更加可持续。


人工智能末日论成为主流

关于人工智能可能对人类构成生存风险的讨论在 2023 年变得十分常见。数百名科学家、商界领袖和政策制定者纷纷发声。

从深度学习先驱杰弗里·辛顿()和约书亚·本吉奥(),到山姆·奥特曼()和戴米斯·哈萨比斯()等顶级人工智能公司的 CEO,再到美国加州国会议员特德·刘(Ted Lieu)和爱沙尼亚前总统克尔斯季·卡柳莱德(Kersti Kaljulaid)。

生存风险已成为人工智能领域最大的话题之一。“假设有一天我们将构建一种比人类聪明得多的人工智能,这可能会导致严重的后果”,这是一种受到硅谷许多人拥护的意识形态。

这些人中包括 首席科学家伊尔亚·苏茨克维(),他在罢免 CEO (几天后职位又被恢复)的过程中发挥了重要作用。

但并不是所有人都同意这个想法。 的人工智能领导者(Yann LeCun)和乔尔·皮诺()表示,这些担忧是“荒谬的”,关于人工智能风险的讨论已经变得“精神错乱”。

人工智能领域的许多其他重要人物,例如研究员乔伊·布拉姆维尼()表示,专注于假设的风险会分散人们对人工智能今天造成的真正危害的注意力。

尽管如此,人们对这项技术可能造成极端伤害的关注日益增加,引发了许多关于人工智能政策的重要对话,并促使世界各地的立法者采取行动。


人工智能的“野蛮生长”时代已经结束

多亏了 ChatGPT,2023 年从美国参议院到 G7 集团的每个人都在谈论人工智能政策和监管。12 月初,欧洲立法者就《人工智能法案》达成一致,结束了忙碌的政策年。

该法案将就如何更负责任地开发风险最高的人工智能制定了具有约束力的规则和标准。它还将禁止某些“不可接受”的人工智能应用,例如警察在公共场所使用面部识别。

与此同时,白宫推出了一项关于人工智能的行政命令,并且获得了一些人工智能公司的自愿承诺。它们正在努力提高人工智能的透明度和标准,并为各机构提供很大的自由来调整人工智能规则以适应其行业。

一项引起广泛关注的具体政策提案是水印,即添加在文本和图像中的隐形信号,可以被计算机检测到,以标记人工智能生成的内容。

这些水印可以用来追踪盗版或帮助打击虚假信息,2023 年我们看到一些研究成功地将它们应用于人工智能生成的文本和图像之中。

不仅立法者很忙,律师们也很忙。我们看到了创纪录的诉讼数量,因为艺术家和作家认为,人工智能公司在未经他们同意且没有任何补偿的情况下侵犯了他们的知识产权。

在一场令人兴奋的反攻中,美国芝加哥大学的研究人员开发了 Nightshade,这是一种新的数据中毒工具,艺术家可以把它用到自己的作品上,进而扰乱训练数据,实现反击生成式人工智能的目的,还可能对图像生成式人工智能模型造成严重损害。

更多的反击正在酝酿之中,我预计 2024 年会有更多的、来自底层的努力来改变科技领域的力量平衡。

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

排版:刘雅坤


04 /

05 /