当前位置:   article > 正文

OpenAI、谷歌DeepMind现任和前任员工警告人工智能风险:可能导致人类灭绝!呼吁保护吹哨人...

OpenAI、谷歌DeepMind现任和前任员工警告人工智能风险:可能导致人类灭绝!呼吁保护吹哨人...


每日经济新闻
|
2024-06-05 10:51:14


每经编辑:杜宇

4日,7名OpenAI前员工、4名现任匿名员工和谷歌DeepMind前任与现任员工发布公开信,警告商业公司竞相开发人工智能产品存在风险,该行业缺乏足够的监管,并可能对吹哨人打击报复。

公开信刊载在righttowarn.ai网站上,网站域名和信件标题都在捍卫这些顶尖AI公司员工《对先进人工智能发出警告的权利》,呼吁对AI行业进行全面改革,包括提高透明度和保护吹哨人。

信件称,人工智能技术有潜力为人类带来前所未有的利益,但也存在严重风险,包括进一步加剧现有的不平等、操纵和误导信息,以及失去对自主人工智能系统的控制,可能导致人类灭绝。


信件随即列出OpenAI、谷歌人工智能实验室Google DeepMind、谷歌和亚马逊支持的AI初创公司Anthropic等官网,以及英美等国政府网站和一些人工智能专家都“已承认存在这些风险”。

公开信称,原本希望在科学界、政策制定者和公众的充分指导下,上述先进AI系统带来的风险能够得到充分缓解,但人工智能公司有强烈的经济动机来逃避有效监督:

“人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性,以及不同类型伤害的风险水平。但它们目前只有很弱的义务向政府分享部分信息,对公民社会则没有任何分享义务。我们认为,不能指望它们(注:商业公司)自愿分享这些信息。”

信件还称,AI公司们与员工签署了广泛的保密协议,与离职员工签署了不能借由披露AI风险而“对公司进行贬低批评”的严苛条款,整个行业发生过对吹哨人各种形式的报复案件。

因此,公开信要求OpenAI及所有人工智能公司都不得签订或执行避免批评AI风险的保密协议,不能通过妨碍揭露AI风险吹哨人的既得经济利益来打击报复,而且要为现任和前任员工提供“可验证的匿名流程”,以便向公司董事会、监管机构和具有相关专业知识的独立组织提出与AI风险相关的担忧,前提是吹哨人需要对公司的商业机密和其他知识产权利益进行适当保护。

公开信的签署者之一、今年4月从OpenAI人工智能治理岗位离职的Daniel Kokotajlo指出,辞职是因为“对OpenAI能否负责任地行事失去了信心”。他称OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年:

“世界还没有准备好(迎接如此高级的AI智能),我们也没有准备好,我担心(这些商业公司)将不管不顾地一意孤行,并为自己的行为寻找借口。先进的人工智能毁灭人类或对人类造成灾难性伤害的可能性高达70%。”

另据参考消息,沙特阿拉伯《阿拉伯新闻》日报网站5月26日刊登题为《全球人工智能讨论必须在关注机遇的同时关注风险》的文章,英国伦敦政治经济学院国际事务、外交和重大战略研究中心研究员安德鲁·哈蒙德表示,目前,人工智能带来的巨大经济机遇令市场兴奋不已。许多投资者认为,这项新兴技术将在未来几年大幅提高生产率并重塑全球经济。

然而,人工智能的风险也必须成为全球讨论的一个关键点。著名计算机科学家杰弗里·欣顿断言,这项技术对人类构成的威胁可能比气候变化“更为紧迫”。

埃隆·马斯克等关键商业领袖也发出警告,呼吁立即暂停某些系统的开发。这位特斯拉创始人经常警告在他看来人工智能系统存在的危险,甚至签署了一封公开信,警告“失控”的发展可能“对社会和人类构成巨大风险”。

这一话题是全球人工智能安全峰会的一个关键主题,该峰会由韩国总统尹锡悦主持,而去年英国主持召开了一场类似会议。这两场会议都汇集了世界各国领导人、科技企业负责人和学者,讨论如何以最佳方式监管这种快速发展的技术,以及通过采用这种技术促进更大程度的数字包容和可持续增长。

虽然韩国、英国和法国(法国将在今年或明年举办第三次全球人工智能安全峰会)正寻求在这一议程上引领国际社会,但它们并不孤单。中美官员最近在日内瓦同样就人工智能安全问题举行了会议。

在日内瓦会议上,中美两国高级官员讨论了如何最大限度降低人工智能的风险,以及抓住这项技术带来的机遇。会谈更多关注如何在两国各自努力推动这一议程的背景下最大限度地管理风险。

据新华社此前消息,美国总统拜登2023年10月30日签署一项行政命令,为人工智能安全制定了新标准。美国媒体称,这是拜登政府对人工智能技术采取的第一项具有约束力的重大行动。

白宫在一份声明中说,这项行政令“具有里程碑意义”,将保护美国公民隐私,促进公平和公民权利,维护消费者和工作者权益,促进创新和竞争等。

这一行政令要求,美国最强人工智能系统的研发人员需与政府分享其安全测试结果及其他关键信息;完善相关标准和测试工具,确保人工智能系统安全、可靠;制定严密的合成生物检查新标准,防范使用人工智能设计危险生物材料的风险;建立检测人工智能生成内容和验证官方内容的标准和最佳实践,以帮助民众防范人工智能驱动的欺诈;建立先进的网络安全计划,开发人工智能工具查找和修补关键软件漏洞;研发制定“国家安全备忘录”,指导人工智能和安全方面的进一步行动。

据介绍,美国国家标准与技术研究所将制定严格的人工智能“红队”标准。美国国土安全部将把这些标准应用于核心基础设施项目,并成立人工智能安全委员会。美国能源部和国土安全部将具体应对人工智能系统对关键基础设施的威胁,及其带来的化学、生物、放射性材料、核及网络安全风险。

人工智能“红队”测试是网络安全中的一项关键实践,由专家团队模拟真实世界的对手及其策略,以测试和增强系统的安全性。

每日经济新闻综合新华社、参考消息、公开资料


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/734081
推荐阅读
相关标签
  

闽ICP备14008679号