《马斯克认知太过“肤浅”?人工智能专家“末日警示”?》
— CnBays.cn湾区中国 | 【睿问财讯-国际】
导读:
人工智能专家警告埃隆-马斯克的签名信不够深入,称 "实际上地球上的每个人都会死亡。”
埃利泽-尤德考夫斯基写道,先进的人工智能将杀死地球上所有有知觉的生命,必须关闭。
人工智能研究人员实际上不知道学习模型是否已经有了 "自我意识",以及如果它们有了自我意识,拥有它们是否合乎道德。
对尤德考夫斯基来说,问题在于比人类更聪明的人工智能可能会不服从它的创造者,不会关心人类的生命。
尤德考夫斯基建议进行国际合作,甚至在美国和中国这样的竞争对手之间进行合作,以阻止强大的人工智能系统的发展。
他呼吁对新的大型人工智能学习模型实施 "无限期和全球性 "的暂停。
这位拥有二十多年研究人工智能安全经验的人工智能专家说,一封呼吁暂停开发强大人工智能系统六个月的公开信做得不够好。
机器智能研究所的决策理论家Eliezer Yudkowsky在最近的一篇专栏文章中写道,特斯拉首席执行官Elon Musk和其他数百名创新者和专家呼吁 "暂停 "开发 "比GPT-4更强大的人工智能系统 "的六个月时间,低估了 "情况的严重性"。他将更进一步,呼吁对新的大型人工智能学习模型实施 "无限期和全球性 "的暂停。
这封信由未来生命研究所发布,有1000多人签名,包括马斯克和苹果公司联合创始人史蒂夫-沃兹尼亚克,认为需要由独立的监督者制定安全协议,以指导人工智能系统的未来。
信中说:"只有在我们确信强大的人工智能系统的效果将是积极的,其风险将是可控的,才应该开发。尤德考夫斯基认为这还不够。"
尤德考夫斯基为《时代》杂志写道,关键问题不是人类竞争性'智能(正如公开信所说),而是在人工智能达到比人类智能更聪明之后会发生什么。许多精通这些问题的研究人员,包括我自己,预计在任何像目前的情况下,建立一个超人般聪明的人工智能,最可能的结果是,地球上的每个人都会死亡。不是说“也许可能”有一些遥远的机会,而是说“那是明显会发生的事情”。
对尤德考夫斯基来说,问题在于比人类更聪明的人工智能可能会不服从它的创造者,不会关心人类的生命。
他进一步阐明,我们不要想 "终结者--",想象一下整个外星文明,以数百万倍于人类的速度思考,而我们最初局限于计算机--在一个从它的角度来看,我们是一个非常愚蠢和非常缓慢的生物世界。
尤德考夫斯基警告说,没有任何拟议的计划来处理一个超级智能,这个超级智能决定对它负责解决的任何问题的最优化解决方案是消灭地球上的所有生命。
他还提出担忧,人工智能研究人员实际上不知道学习模型是否已经有了 "自我意识",以及如果它们有了自我意识,拥有它们是否合乎道德。
他认为,六个月的时间不足以想出一个计划。从人工智能的概念首次被提出和研究,到我们达到今天的能力,花了60多年时间。解决超人类智能的安全问题--不是完美的安全,而是在'不杀死所有人'的意义上的安全--可能非常合理地需要至少一半的时间。
尤德考夫斯基建议进行国际合作,甚至在美国和中国这样的竞争对手之间进行合作,以阻止强大的人工智能系统的发展。他说:"这比 '防止全面的核交换 '更重要,而且各国甚至应该考虑使用核武器,如果这是减少大型人工智能训练的风险所需要的。"
尤德考夫斯基写道:"把它全部关闭,关闭所有的大型GPU集群(大型计算机农场,最强大的人工智能在这里得到完善)关闭所有的大型人工智能训练运行。对任何人在训练人工智能系统时被允许使用的计算能力设置上限,并在未来几年内将其下调,以补偿更有效的训练算法。政府和军队没有例外。"
尤德考夫斯基的激烈警告是在人工智能软件继续流行的时候发出的。OpenAI的ChatGPT是最近发布的一款人工智能聊天机器人,它能够谱写歌曲,创造内容,甚至编写代码,令用户震惊。
OpenAI首席执行官Sam Altman本月早些时候谈到他公司的创作时说:"我们在这里必须谨慎。我认为人们应该感到高兴的是,我们对这一点有点害怕。"
CnBays.cn湾区中国|【睿问财讯—国际】综合国内外权威财经资讯,部分国际内容由浦诺英英文精英翻译供稿,睿问财讯编辑整理。来源:网络;图源:网络
【声明】:Cnbays湾区中国 | 【睿问财讯】立足湾区,面向世界,关注产业,助力企业。本网站中英文及图片内容版权属原作者所有,本文转载、摘编、引用、翻译、编辑整理等均出于传播财经等信息之目的和需要,CnBays.cn湾区中国 | 【睿问财讯】刊发所有内容不代表本网任何观点,也不构成任何投资建议。有来源标注错误或文章侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢
联系:ReveMgt_Express@163.com