欧洲新闻网 | 中国 | 国际 | 社会 | 娱乐 | 时尚 | 民生 | 科技 | 旅游 | 体育 | 财经 | 健康 | 文化 | 艺术 | 人物 | 家居 | 公益 | 视频 | 华人 | 有福之州
投稿邮箱:uscntv@outlook.com
主页 > 财经 > 企业 > 正文

OpenAI员工发公开信警告“严重风险”,呼吁保护举报人

2024-06-05 10:21 凤凰网  -  493530

凤凰网科技讯 6月5日,知名人工智能公司现员工与前员工发表了一封公开信,警告该行业缺乏安全监督,并呼吁加强对举报人的保护。这封呼吁《对人工智能提出警告的权利》的公开信,是人工智能行业员工就人工智能的危险的一次公开发声,11名现任与前OpenAI员工、两名谷歌DeepMind员工在这封信上签了名。

信中指出,“人工智能公司掌握着大量非公开信息,这些信息涉及其系统的能力和局限性、保护措施的充分性以及不同种类危害的风险水平。然而,这些公司目前只有微弱的义务与政府分享部分信息,而没有义务与民间社会分享信息。我们认为不能依靠它们全部自愿分享这些信息”。

OpenAI在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司存在的问题,并且在有适当的保障措施之前不会发布新技术。谷歌未立即回应置评请求。

OpenAI发言人表示,“我们为提供最有能力和最安全的AI系统的记录感到自豪,并相信我们在应对风险方面的科学方法。鉴于这项技术的重要性,我们同意进行严格的辩论是至关重要的,并且我们将继续与政府、民间社会和世界其他社区接触,”

对人工智能潜在危害的担忧已经存在了几十年,但近年来的人工智能繁荣加剧了这些担忧,使监管机构措手不及,难以跟上技术进步的步伐。尽管AI公司公开表示承诺安全开发技术,但研究人员和员工警告称,缺乏监督可能会加剧现有的社会危害或创造全新的问题。

由现任和前AI公司员工签署的这封信首次由《纽约时报》报道,呼吁加强对在先进AI公司工作并决定提出安全问题的员工的保护。它要求公司承诺四项关于透明度和问责制的原则,包括一项规定,即公司不得强迫员工签署任何禁止公开AI风险相关问题的非贬损协议,并建立一个机制,使员工能够匿名向董事会成员分享担忧。

“只要这些公司没有有效的政府监督,现任和前任员工是少数能对公众负责的人之一,”信中写道。“然而,严格的保密协议阻止我们表达我们的担忧,除了对那些可能未能解决这些问题的公司。”

OpenAI等公司还采取了积极的策略,防止员工自由谈论他们的工作。据Vox上周报道,OpenAI让离职员工签署极其严格的保密文件,否则将失去所有已归属的权益。OpenAI首席执行官Sam Altman在报道后道歉,称他将改变离职程序。

在两名OpenAI高层员工、联合创始人Ilya Sutskever和关键安全研究员Jan Leike上月辞职后,这封公开信发布了。Leike在离职后声称OpenAI已放弃了安全文化,转而追求“闪亮的产品”。

周二的公开信呼应了Leike的一些声明,称公司没有表现出对其运营透明的义务。

  声明:文章大多转自网络,旨在更广泛的传播。本文仅代表作者个人观点,与美国新闻网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如有稿件内容、版权等问题请联系删除。联系邮箱:uscntv@outlook.com。

上一篇:一份2500页的文档,让谷歌再次成为“大骗子”
下一篇:马斯克解释将英伟达芯片从特斯拉转移到X:没地方放

热点新闻

重要通知

服务之窗

关于我们| 联系我们| 广告服务| 供稿服务| 法律声明| 招聘信息| 网站地图

本网站所刊载信息,不代表美国新闻网的立场和观点。 刊用本网站稿件,务经书面授权。

美国新闻网由欧洲华文电视台美国站主办 www.uscntv.com

[部分稿件来源于网络,如有侵权请及时联系我们] [邮箱:uscntv@outlook.com]