绝非耸人听闻?人工智能"灭绝人类问题"应与核战争一样优先。人工智能安全中心发布了一份由350位行业领袖签署的声明,其中包括OpenAI和谷歌DeepMind的CEO们。
非营利性的人工智能安全中心周二在一份由人工智能和相关领域的350名知名人士签署的声明中说,防止失控的人工智能造成人类的灭绝,应该是全球最高级别的优先事项。
声明中说:"减轻人工智能造成的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如大流行病和核战争一样”。
签名者包括谷歌DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei和OpenAI首席执行官Sam Altman,他最近告诉国会,他担心这项技术可能会"相当错误",并敦促他们对这个行业进行监管。这三位行业领袖本月早些时候会见了美国总统拜登和副总统卡马拉-哈里斯,讨论潜在的法规。他们公司的众多高管也在周二的声明中加入了他们的名字。
Geoffrey Hinton和Yoshua Bengio因其在神经网络方面的工作而被认为是"人工智能教父",他们被列在文件的首位,尽管与他们一起做研究、现在为Meta公司负责人工智能研究的Yann Le Cun没有签名。辛顿本月早些时候离开了他在谷歌的职位,为人工智能的风险敲响了警钟,并表示他有时会对自己一生的工作感到后悔。
人工智能安全中心执行董事丹-亨德利克斯周二告诉《纽约时报》,这封信代表了行业领导者的"出柜",他们之前一直将对人工智能未来的担忧隐藏起来。
"有一种非常普遍的误解,甚至在AIA社区,认为只有少数几个厄运者,"他解释说,"许多人私下里会对这些事情表示担忧。"
这条信息与"生命的未来研究所"3月份发表的另一封公开信相呼应,主张在六个月内暂停大规模人工智能的发展,以避免"失控地开发和部署越来越强大的数字思维"。这条信息由1000多名有影响力的科技界人士签署,包括亿万富翁埃隆-马斯克,他刚刚获得美国政府批准,继续对他的Neuralink脑机接口进行人体测试,该接口旨在为人们提供对抗人工智能的竞争优势。
然而,并非所有的人工智能影响者都需要畏首畏尾。Nvidia首席执行官黄仁勛最近在台湾大学告诉听众,那些不加入人工智能大军的人将看到他们的工作被盗,他们的公司灭亡,他们自己被吃掉。而微软联合创始人、人工智能大户比尔-盖茨则坚持认为该技术将只带来"巨大的好处"。
RT2023年05月30日
绝非耸人听闻?人工智能"灭绝人类问题"应与核战争一样优先
狂踩
(0)
0%
点赞
(0)
0%