资料来源:报纸。
记者小芳
“我们最终可能需要类似IAEA(国际原子能机构)的东西,在超级智能方面做出努力;任何超出某些能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求审计,测试是否符合安全标准,限制部署程度和安全级别,等等。”
OpenAI的领导层在其官方博客上发表了《超级智能治理》。
人工智能的发展足够迅速,可能存在的危险也足够明显,以至于ChatGPT的开发机构OpenAI的领导层主动提出,世界需要一个类似核能的国际机构来监管超级智能。
当地时间5月22日,OpenAI创始人萨姆·奥特曼(Sam Altman)、总裁格雷格·布罗克曼(Greg Brockman)和首席科学家伊利亚·苏茨基弗(Ilya Sutskever)在公司博客上联名撰文称,人工智能的创新速度如此之快,以至于我们不能指望现有的机构完全控制这项技术。
这篇题为《超级智能的治理》的文章承认,人工智能不会管理自己。“我们最终可能需要类似IAEA(国际原子能机构)的东西,在超级智能方面做出努力;任何超出某些能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求审计,测试是否符合安全标准,限制部署程度和安全级别,等等。”
同一天,领先的人工智能研究人员和评论家蒂姆尼特·格布鲁(Timnit Gebru)在接受《卫报》采访时也说了类似的话:“除非有外部压力要求做一些不同的事情,否则公司不会自我监管。我们需要监督,我们需要比纯粹的利润动机更好的东西。”格布鲁因公开谈论人工智能的危险而被谷歌解雇。
OpenAI的提议可以成为行业对话的启动器,表明全球最大的人工智能品牌和供应商支持监管,迫切需要公众监督,但“我还不知道如何设计这样的机制”。
上周,奥特曼出席美国国会听证会时表示,OpenAI“非常担心”选举会受到人工智能生成的内容的影响。他担心人工智能行业可能“对世界造成巨大伤害”。“我认为,如果这项技术出现问题,它可能就大错特错了,我们希望对此直言不讳。”“我们希望与政府合作,防止这种情况发生。”奥特曼建议国会成立一个新的组织,为“超过一定规模”的人工智能技术发放许可证。在向公众发布AI系统之前,应该由能够判断模型是否符合这些规定的专家进行独立审核。
以下为《超智之治》全文:
鉴于我们现在看到的画面,可以想象,在未来十年,人工智能系统将在大多数领域超越专家的技能水平,并开展与今天最大的公司之一一样多的生产活动。
从潜在的优缺点来看,超级智能将比人类过去不得不面对的其他技术更加强大。我们可以有一个更加繁荣的未来;但是我们必须控制风险来实现这个目标。鉴于风险的可能性,我们不能只是被动。核能是具有这种特征的技术的一个常见的历史案例;合成生物学是另一个例子。
我们也必须降低当今人工智能技术的风险,但超级智能需要特殊对待和协调。
一个起点
有许多想法对我们有很好的机会成功控制这种发展是重要的;在这里,我们对其中的三个想法进行了初步的思考。
首先,我们需要在领先的开发工作之间进行一些协调,以确保超级智能的开发以一种不仅可以保护我们安全,还可以帮助这些系统与社会顺利融合的方式进行。有许多方法可以实现这一点;世界上的主要政府可以设立一个项目,使当前的许多努力成为其中的一部分,或者我们可以集体同意(在下面建议的新组织的支持下)每年将前沿人工智能能力的增长率限制在一定的比率。
当然,个别公司也应该以极高的标准负责任地行事。
第二,我们最终可能需要类似IAEA(国际原子能机构)的东西,在超级智能方面做出努力;任何超过一定能力(或计算资源)阈值的工作都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,并限制部署程度和安全级别等。跟踪计算和能源使用将有很大的帮助,给我们一些希望。这个想法其实是可以实现的。作为第一步,公司可以自愿同意开始实施这一机构有朝一日可能需要的要素,而作为第二步,各国可以实施这些要素。重要的是,这样一个机构应该专注于降低现有风险,而不是应该留给各国解决的问题,比如定义人工智能应该被允许说什么。
第三,需要技术能力来保证超级智能的安全。这是一个开放的研究问题,我们和其他人都在为此做很多努力。
什么不在范围内?
我们认为,允许公司和开源项目在没有我们在这里描述的监管(包括繁琐的机制,如许可或审计)的情况下开发低于重要功能阈值的模型是很重要的。
今天的系统将为世界创造巨大的价值。虽然它们确实有风险,但这些风险水平似乎与其他互联网技术相称,可能的社会实践似乎也是适当的。
相比之下,我们所关注的系统将拥有超越任何尚未被创造出来的技术的力量,我们应该注意不要通过将类似的标准应用于远低于这一标准的技术来稀释我们的注意力。
公共投入和潜力
但最强大系统的治理,以及关于其部署的决定,必须有强有力的公众监督。我们认为,全世界的人们都应该民主地决定人工智能系统的边界和默认值。我们还不知道如何设计这样的机制,但我们计划测试它的开发。我们仍然认为,在这些广泛的范围内,个人用户应该对他们使用的人工智能的行为有很大的控制权。
鉴于风险和困难,值得考虑我们为什么要建立这项技术。
在OpenAI,我们有两个基本原因。首先,我们相信这会带来一个比我们今天想象的更好的世界(我们已经在教育、创造性工作和个人生产力领域看到了早期的例子)。世界正面临许多问题,我们需要更多的帮助来解决这些问题。这项技术可以改善我们的社会,每个人使用这些新工具的创造能力肯定会让我们感到惊讶。经济增长和生活质量的提高将是惊人的。
其次,我们认为防止超级智能的出现会有直观的风险和困难。因为利益如此之大,建造它的成本每年都在降低,参与建造它的人数在迅速增加。这基本上是我们正在走的技术道路的一部分。要阻止它,需要类似于全球监控系统的东西,即便如此,也不能保证有效。所以我们必须把它做好。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"OpenAI领导层三巨头联合撰文,呼吁设立监管超级智能的国际机构":http://www.ljycsb.cn/qukuailian/218120.html。

微信扫描二维码投放广告
▲长按图片识别二维码