黑客去年曾侵入OpenAI外部系统 部分AI设计细节被盗 知情人士 (黑客去年曾侵入中国吗)
据媒体征引知情人士走漏,一名黑客去年曾成功“黑入”了OpenAI的外部信息系统,并窃取了该公司人工自动技术的设计细节。
两名熟习此事的人士表示,这名黑客从一个OpenAI外部在线论坛的讨论中窃取了一些细节,在这个在线论坛上,员工们还讨论了OpenAI的最新技术。不过,黑客并没有能入侵OpenAI寄存和构建人工自动的中心系统。
报道称,OpenAI高管在去年4月的全体员工大会上向员工和公司董事会通报了这一破绽,但高管选择不对外地下这一信息,由于在该起事情中并没有客户或协作同伴的信息被盗。
据悉,OpenAI的高管们并不以为这起事情是对美国国度安保的要挟,他们以为此次事情中的黑客只是公家行为,与任何本国政府都没有已知的咨询。
报道还补充称,这家总部位于旧金山的公司并未向美国联邦执法机构通报此次破绽事情。
不过,一些业内人士表示,若上述相关知情人士走漏的细节失实,那么仍或许会惹起人们对该公司技术安保性的担忧。OpenAI在5月曾表示曾经阻止了五次秘密滥用其AI的执行,这些执行试图运行其人工自动模型在互联网上启动诈骗性活动。
据悉,在该起黑客事情出现后,担任确保未来AI技术不会构成严重危害的OpenAI原技术项目经理Leopold Aschenbrenner,曾向OpenAI董事会发送了一份备忘录,以为公司在防止本国对手窃取其秘密方面做得不够。
Leopold表示,OpenAI在往年春天解雇了他,要素是他向公司外部暴露了其他信息,他以为OpenAI解雇他是出于政治动机。Leopold称,OpenAI的安保性还不够弱小,假定有外部权益浸透到公司外部,OpenAI无法防止关键秘密被窃取。
不过对此,OpenAI发言人Liz Bourgeois回应称,“我们感谢Leopold在OpenAI任务时期提出的担忧,但他的离任并非源于此。”
在谈到该公司为构建通用人工自动所做的努力时,她补充称,“尽管我们和他一样努力于构建安保的通用人工自动,但我们不赞同他后来对我们任务的许多(诽谤)说法。这包括他对我们安保任务的描画,尤其是这起事情,我们在他参与公司之前就曾经处置并与董事会分享了这一事情信息。”
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。