整天想立规矩,人工智能监管真的可行?随着人工智能开发者再次提出监管该技术的请求,政策制定者们的热度也随之而来。本周,萨姆-奥特曼、杰弗里-辛顿和成千上万的人发布了另一封公开信,主流媒体将其解读为人工智能给人类带来了类似于核战争或大流行病规模的"灭绝风险"。在他们看来,减轻这种风险应该是一个"全球优先事项"。
这种观点认为,人类目前主宰着其他物种,因为人类的大脑具有其他动物所缺乏的一些独特能力。如果人工智能在一般智能方面超过了人类,成为"超级智能",那么它可能会成为人类难以控制或无法控制的对象。正如许多濒危物种的命运取决于人类的善意,人类的命运也可能取决于未来机器超级智能的行动。
然而,建立和采用法规来减轻这些风险是否可行?其后果可能是什么?监管本身远不是一个无风险的过程。毕竟,不清楚的是,为减轻与基于冠状病毒疫情有关的风险而通过的法规,对社会的危害如果不是比它们试图解决的风险更多,也同样是如此。虽然封锁可能推后了个人感染病毒的时间,减少了感染的传播,但是,高通货膨胀的经济后果,失去学校教育的后果,以及人类面对面交往中断的社会甚至精神健康的后果,对人类的一个重要子集构成了"生存威胁",并对更多的人造成了终身的限制。
问题是,将设计和实施人工智能法规的人类,是有限度的理性。这表现在两个方面。首先,法规必须解决一系列可能的结果,在目前的时间点上,任何人都无法知道这些结果,因为我们无法预测,即使在目前知识或计算能力的最佳状态下,也无法预测未来会发生什么。其次,即使我们对可能发生的事情有一些想法,减轻每一个预期的风险,会是非常昂贵。因此,必须对如何优先处理这些风险做出一些选择。要求或期望这些优先事项由面临一系列相互冲突的目标的政治代理人来选择,会带来这样的风险,即他们会优先考虑保护他们自己的持续存在以及从他们对决策的持续控制中受益的利益相关者的干预。
后一点涉及到这样一个问题,即为什么人工智能开发者现在才要求进行监管干预,而其可能产生的影响在学术界和行业参与者中早已有了争论。前者提出了一个问题,即有效的人工智能监管首先是否可行,以及谁应该带头?
在承认自己可能存在偏见的情况下,我向ChatGPT提出了"人工智能监管能否有效"和"谁应该监管人工智能"的问题,以了解该工具中所包含的人类知识的累积情况。不出所料,输出结果反映了目前人类对这个问题的有限理性的立场。
第一个提示提出了一份"人工智能监管可以有效的理由"的清单,这些理由非常通用,几乎可以适用于任何监管问题或解决社会问题;促进信任和透明度;减少风险和伤害;鼓励道德实践;平衡创新和保护;提高法律清晰度;协调国际努力;与技术一起发展。它的结论是:"虽然人工智能监管可以是有效的,但重要的是要取得适当的平衡,以避免过于繁琐或窒息的监管,这可能会阻碍创新和增长。政策制定者、专家、行业利益相关者和民间社会之间的持续合作,对于制定和实施充分了解、实用和响应不断变化的人工智能性质的法规至关重要。"
整天想立规矩,人工智能监管真的可行?随着人工智能开发者再次提出监管该技术的请求,政策
狂踩
(0)
0%
点赞
(0)
0%