AI大牛们预警,但眼前问题或毁灭人类风险,哪个更值得担心?-环球观焦点
5月4日消息,建构当今人工智能基础技术的“大牛们”纷纷发出警告,称该技术存在潜在的危险。然而,他们目前尚未就人工智能的危险性或预防措施达成共识。
杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他刚刚宣布从谷歌离职。他对自己的部分工作感到后悔,因为他担心机器会变得比人类更聪明,进而危及人类生存。
(相关资料图)
蒙特利尔大学教授约书亚·本吉奥(Yoshua Bengio)是另一位人工智能领域的先驱。他与辛顿以及Meta首席人工智能科学家杨立坤(Yann LeCun)因在人工神经网络领域取得突破而获得了2018年图灵奖,这些突破对当今人工智能应用程序(例如ChatGPT)的发展至关重要。周三,本吉奥表示,他“非常赞同”辛顿对聊天机器人(例如ChatGPT及其相关技术)的担忧,但他担心,仅仅简单地说“我们注定要失败”并不能解决问题。
本吉奥补充说:“主要的区别在于,他(辛顿)是个悲观的人,而我则更乐观。我确实认为,不论是短期的还是长期的,这些危险都非常严重,不仅需要少数的研究人员认真对待,而且需要政府和民众认真对待。”
有很多迹象表明,各国政府正在倾听各方声音。白宫已经召集了谷歌、微软和ChatGPT制造商OpenAI的首席执行官们,与美国副总统卡玛拉·哈里斯(Kamala Harris)在周四举行了一次“坦诚”的讨论,重点是如何缓解其技术的短期和长期风险。欧洲立法者也在加快谈判,以通过全面的人工智能监管规则。
而有些人则担心,过度炒作尚不存在的超级智能机器,幻想着它能造成最可怕的危险,会分散人们对当前人工智能产品制定切实保障措施的注意力,而这些产品往往没有得到监管。
在谷歌人工智能伦理团队前负责人玛格丽特·米切尔(Margaret Mitchell)看来,她对辛顿在谷歌掌权的十年里没有直言不讳这一点感到不安,特别是在著名黑人科学家蒂姆尼特·格布鲁(Timnit Gebru)2020年被解雇之后。格布鲁曾在大型语言模型被广泛商业化到ChatGPT和谷歌Bard等产品之前,研究过它们的危害。
在格布鲁离职后,米切尔也被迫离开了谷歌。她说:“她(格布鲁)幸运地跳出了歧视传播的圈子,仇恨语言的传播、对女性的贬低和未经双方同意的色情内容,所有这些问题都在伤害着科技领域被边缘化的人们。她跳过了所有这些事情,可以去担心更遥远的事情。”
2018年图灵奖的三位获奖者中,本吉奥是唯一一位没有在大型科技公司工作的人。多年来,他一直对人工智能的近期风险表示担忧,包括就业市场不稳定、自动化武器和有偏见数据集的危险等等。
但是最近,这些担忧变得更加严重,促使本吉奥联合特斯拉首席执行官埃隆·马斯克(Elon Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等其他计算机科学家和科技商业领袖,呼吁暂停开发比OpenAI最新模型GPT-4更强大的人工智能系统六个月。
本吉奥在周三表示,他相信最新的人工智能语言模型已经通过了“图灵测试”。图灵测试以英国密码破译者、人工智能先驱艾伦·图灵(Alan Turing)于1950年提出的方法命名,旨在衡量人工智能何时变得与人类难以区分,至少在表面上如此。
本吉奥说:“这是一个里程碑,但如果我们不小心,可能会产生严重的后果。我主要担心的是这些技术将如何被利用来发动网络攻击和传播虚假信息等邪恶目的。你可以与这些系统对话,并认为是在与真人互动。它们很难分辨。”
研究人员对于目前的人工智能语言系统是否能够比人类更聪明存在争议,因为这些系统有很多局限性,比如倾向于捏造信息等。
艾丹·戈麦斯(Aidan Gomez)是2017年一篇开创性论文的合著者之一,该论文引入了一种所谓的转换器技术,用于提高机器学习系统的性能,特别是在从文本段落中学习。当时只有20岁的戈麦斯是谷歌的实习生。他记得在凌晨3点左右,当他的团队发送论文时,他正躺在公司加州总部的沙发上。
戈麦斯还记得一位同事告诉他:“这将产生巨大影响。” 自那以后,他们的研究帮助推动了新系统的出现,后者可以生成类似人类撰写的文章。
六年后,戈麦斯如今已是其所创人工智能公司Cohere的首席执行官。他对这些系统的潜在应用充满了热情,但他也被技术威胁所困扰。他说,这些系统的真实能力与现实脱节,并且依赖于非凡的想象力和推理能力。
戈麦斯说:“认为这些模型会以某种方式获得核武器的控制权,并发动某种灭绝级别事件的想法是杞人忧天,无益于那些试图做好事、真正务实的政策努力。”(小小)
标签: