《正殃及人类!?强大的人工智能已经无法控制?》
— CnBays.cn湾区中国 | 【睿问财讯-国际】
导读:
斯图尔特-拉塞尔教授以对人工智能的贡献而闻名于世。他告诉英国媒体,是上个月签署公开信的1000多名专家之一。
由全球上千名专家学者或知名人士签名新建呼吁暂停开发比OpenAI新推出的GPT-4更强大的系统--它是由GPT-3.5驱动的在线聊天机器人ChatGPT的后继最新模型。
他说,最大的担忧之一是虚假信息和深度造假,比如:视频或照片,通常用于恶意或传播虚假信息。
甚至他指出,你可以看到军事行动由人工智能系统组织。
他正试图说服各国政府有必要开始为 "我们需要改变我们整个数字生态系统......的运作方式 "提前做好规划。
一位加州大学伯克利分校的计算机科学教授、英国科学家,以对人工智能的贡献而闻名于世。他告诉英国媒体,强大的人工智能系统 "无法控制","已经在造成伤害"。他认为,随着人工智能的迅速发展,需要时间来 "制定法规,以确保这些系统对人们有益而不是有害"。
斯图尔特-拉塞尔教授是上个月签署公开信的1000多名专家之一,他们呼吁暂停开发比OpenAI新推出的GPT-4更强大的系统--它是由GPT-3.5驱动的在线聊天机器人ChatGPT的后继最新模型。新模型的头条特征是其识别和解释图像的能力。
拉塞尔教授在接受英国媒体采访时说到这封信:我签署了这封信,因为我认为需要说的是,我们并不了解这些[更强大的]系统是如何工作的。我们不知道它们有什么能力。这意味着我们无法控制它们,我们无法让它们乖乖听话。人们担心虚假信息,担心这些系统的输出存在种族和性别偏见。
他说,最大的担忧之一是虚假信息和深度造假,比如:一个人的视频或照片,其面部或身体被数字改变,所以他们看起来像其他人--通常用于恶意或传播虚假信息。
他警告说:这些系统会产生巨大的影响,通过操纵人们的方式,使人类甚至没有意识到什么正在发生。
里奇将其描述为 "真正非常可怕",当被询问这种事情现在是否正在发生,该教授作出肯定回答:很有可能,是的。
关于那封千人签名信件,教授指出,这封信的关注点其实是关于下一代的系统。现在,这些系统在构建复杂计划的能力方面有一些局限。
他设想,在下一代系统下,或之后的系统,企业可以由人工智能系统管理。
甚至他指出,你可以看到军事行动由人工智能系统组织。
如果你正在建立比人类更强大的系统,人类如何永远保持对这些系统的权力?这就是这封公开信背后的真正担忧。
这位教授说,他正试图说服各国政府有必要开始为 "我们需要改变我们整个数字生态系统......的运作方式 "提前做好规划。
自去年发布以来,微软支持的OpenAI的ChatGPT已经促使竞争对手加速开发类似的大型语言模型,并鼓励公司将生成性人工智能模型整合到他们的产品中。
英国公布了围绕人工智能的 "轻触 "法规提案。政府在一份政策文件中概述的方法,将在其人权、健康和安全以及竞争的监管机构之间分配管理人工智能的责任,而不是创建一个专门针对该技术的新机构。
CnBays.cn湾区中国|【睿问财讯—国际】综合国内外权威财经资讯,部分国际内容由浦诺英英文精英翻译供稿,睿问财讯编辑整理。来源:网络;图源:网络
【声明】:Cnbays湾区中国 | 【睿问财讯】立足湾区,面向世界,关注产业,助力企业。本网站中英文及图片内容版权属原作者所有,本文转载、摘编、引用、翻译、编辑整理等均出于传播财经等信息之目的和需要,CnBays.cn湾区中国 | 【睿问财讯】刊发所有内容不代表本网任何观点,也不构成任何投资建议。有来源标注错误或文章侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢
联系:ReveMgt_Express@163.com