据环球网援引美国调查新闻网站“拦截者”报道,Open AI公司删除了“禁止该项技术被用于军事用途”的条款。
报道称,“拦截者”网站称,在今年1月10日之前,Open AI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。然而,在对使用条款进行调整后,Open AI公司虽然在禁止项中仍然提到“禁止将其产品、模型和服务用于会导致人员伤亡的用途”,并提到了“武器开发和使用”,但先前同样被禁止的“军事用途”已被删除。
对此,Open AI表示:“我们不允许研发的工具被用于伤害人类、开发武器、进行通信监视、伤害他人或破坏财产。但部分国家安全议题与我们的使命相符。我们已经与 美国国防部高级研究计划局(DARPA)合作,推动创建新的网络安全工具,以保护关键基础设施和部分行业所依赖的开源软件。”
有分析认为,随着人工智能技术的发展日臻成熟,其不利影响尤其是该项技术可能被用于战争用途一直是业界关注的焦点,ChatGPT以及Bard等生成式人工智能技术的推出进一步引发了人们的担忧。
据此前报道,谷歌前首席执行官埃里克·施密特曾将人工智能技术的面世与二战前的核武器研发进行类比。施密特说:“每隔一段时间,就会出现一种新武器和技术,从而改变一切。爱因斯坦在20世纪30年代给罗斯福写了一封信,提出有一种新技术即核武器可以改变战争。事实证明确实如此。”