AI应该如何被监管?业内辩论升级 谷歌和OpenAI存严重分歧

随着ChatGPT大火带来的AI热潮,如今,如何监管AI技术成为市场热议的话题。一份最新的文件显示,谷歌和OpenAI这两大AI领域的领导者对政府应如何监管人工智能持有相反的看法。OpenAI首席执行官Sam Altman最近一直在鼓吹由政府来监管AI技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管AI,而且他认为,该机构应该专注于监管AI技术,以及为使用该技术的实体颁发许可。

但Google则不希望AI监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的AI治理方法”。

图片[1] - AI应该如何被监管?业内辩论升级 谷歌和OpenAI存严重分歧 - EVLIT

AI领域的其他人,包括研究人员,也表达了和Google类似的观点,称政府部门对AI进行监管可能是保护边缘化社区的更好方式——尽管OpenAI认为技术进步太快无法采用这种方法。

Google称:

在国家层面,我们支持中心辐射式方法——由美国国家标准与技术研究院(NIST)等中央机构通知部门监管机构监督AI实施——而不是一个“人工智能部门”。AI将在金融服务、医疗保健和其他受监管的行业带来前所未有的挑战,这些挑战将由具有这些行业经验的监管机构来应对,而不是一个新的、独立的部门来监管。

华盛顿大学计算语言学实验室教授兼主任Emily M. Bender说:

我完全同意所谓的AI系统不应该在没有某种认证程序的情况下部署。但是这个过程应该取决于系统的用途。现有的监管机构应保持其管辖权和决定权。

Google的这一观点与OpenAI和微软偏爱更集中的监管模式形成鲜明对比。微软总裁Brad Smith表示,他支持组建一个新的政府机构来监管人工智能,而OpenAI 的创始人们也公开表达了他们的愿景,即组建一个类似国际原子能机构的组织来监管AI。

Google全球事务总裁Kent Walker表示,他“不反对”由新监管机构监督大型语言模型许可的想法,但表示政府应该“更全面地”看待这项技术。

Google和微软在监管方面看似相反的观点表明人工智能领域的争论越来越多,争论远远超出了技术应该受到多少监管的范畴。

今年5月,美国副总统哈里斯在会见了AI界重要公司的领导人后称,这项技术“有可能极大地增加对安全和安保的威胁,侵犯公民权利和隐私,并侵蚀公众对民主的信任和信心”。

她补充说,企业有责任遵守现有的法律,以及“伦理、道德和法律责任,以确保其产品的安全和保障”。

原文链接: AI应该如何被监管?业内辩论升级 谷歌和OpenAI存严重分歧

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
评论 抢沙发
头像
说说你的看法!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容