非法阻止员工披露AI安全风险,OpenAI严厉「封口协议」再遭举报

机器之心报道

编辑:大盘鸡


OpenAI 在人工智能领域的领头羊地位家喻户晓。其产品聊天机器人 ChatGPT 系列、文生图 DALL・E 系列、文生视频 Sora 等都被誉为生产力提升的超强助手
据透露,OpenAI 内部正在一个代号为「草莓(Strawberry)」的项目中开发一种新的人工智能模型。该项目的细节此前从未被报道过,而 OpenAI 正努力证明其提供的各类模型能够提供高级推理能力。不过 OpenAI 现在似乎正陷在另一场风波当中。
据《华盛顿邮报》报道,一位举报人向美国证券交易委员会(SCE,Securities and Exchange Commission)提出投诉,指控这家人工智能公司非法禁止其员工警告监管机构其技术可能对人类构成的严重风险,并要求进行调查。

《华盛顿邮报》相关报道

举报人将一封长达 7 页的信函递送。信中表示,OpenAI 向其员工发出了过于严格的雇佣、遣散费和保密协议,这些协议可能导致向联邦监管机构提出对 OpenAI 的担忧的员工受到处罚。

这封信由《华盛顿邮报》独家获得。查看地址:https://www.washingtonpost.com/documents/83df0e55-546c-498a-9efc-06fac591904e.pdf?itid=lk_inline_manual_4

「这些合同传递了一个信息,即『我们不希望...... 员工与联邦监管机构对话』,其中一位举报人说,由于害怕遭到报复,他不愿透露姓名。「我认为,如果人工智能公司屏蔽审查和异议,就无法构建安全且符合公众利益的技术。」
代表匿名举报者的律师将这封信寄给了美国证券交易委员会主席 Gary Gensler。信中提到了一份单独的正式投诉,要求美国证券交易委员会调查 OpenAI 的离职、非贬损和保密协议。
这封信中谈道:「这些协议禁止并阻止员工和投资者就证券违规行为与 SEC 沟通,强迫员工放弃举报人奖励和补偿的权利,并要求员工将与政府监管机构的沟通情况通知公司。」
信中还称,SEC 已获得证据,证明 「OpenAI 之前的保密协议违反了法律,要求其员工签署非法的限制性合同,以获得雇佣、离职金和其他经济对价」。
在一份声明中,OpenAI 发言人 Hannah Wong 说:「我们的举报人政策保护员工进行受保护披露的权利。此外,我们认为对这项技术进行严格讨论至关重要,并且已经对我们的离职流程进行了重要修改,删除了非贬损条款。」
据 TechCrunch 报道,参议员 Grassley 表明:「监测和减轻人工智能带来的威胁是国会保护国家安全的宪法责任的一部分,而举报人对这项任务至关重要。」「OpenAI 的政策和做法似乎对举报人的权利造成了寒蝉效应,使他们无法畅所欲言,也无法因其受保护的信息披露而获得应有的补偿。」
他补充说,如果联邦政府要在人工智能领域保持「领先一步」,OpenAI 的保密协议必须改变。 
今年早些时候,OpenAI 的员工离职协议已经饱受批评,因为据报道,如果前员工拒绝签署该文件或违反保密协议,他们的既得股权将被剥夺。首席执行官 Sam Altman 随后表示 「非常抱歉」,同时还声称公司 「从未收回任何东西」,并且 「已经在修正标准的离职文件」。

六月初, OpenAI 和其他知名人工智能公司的几名现任和前任员工警告说,这项技术对人类构成严重风险,并呼吁公司实施全面变革以确保透明度并促进公共辩论文化。 
这些员工写道,由于人工智能受到的监管并不严格,因此责任只能由公司内部人员承担,他们呼吁公司解除保密协议,并为员工提供保护,允许他们匿名提出担忧。
此举正值 OpenAI 面临员工外流之际。许多批评人士认为,包括 OpenAI 联合创始人 Ilya Sutskever高级研究员 Jan Leike 在内的知名员工离职是对公司领导的斥责,一些员工认为,公司领导以牺牲 OpenAI 技术的安全性为代价来追逐利润。

Sam Altman、 Ilya Sutskever 和 Jan Leike

举报者在信中提到的正式投诉已于今年 6 月提交给美国证券交易委员会。OpenAI 举报人的代理律师 Stephen Kohn 表示,美国证券交易委员会已对投诉做出回应。目前尚无法确定证交会是否已展开调查。该机构没有回应《华盛顿邮报》的置评请求。
参考链接:https://techcrunch.com/2024/07/13/whistleblowers-accuse-openai-of-illegally-restrictive-ndas/https://www.washingtonpost.com/documents/83df0e55-546c-498a-9efc-06fac591904e.pdf?itid=lk_inline_manual_4https://www.washingtonpost.com/technology/2024/07/13/openai-safety-risks-whistleblower-sec/?continueFlag=7791616afbbc3fe3125af5b41149023fhttps://www.reuters.com/technology/openai-whistleblowers-ask-sec-investigate-restrictive-non-disclosure-agreements-2024-07-13/


创意为王安全为先,AIGC的双线作战

7月17日,《AIGC体验派》第五期,邀请到火山引擎内容安全与风控负责人张建洋和NVIDIA企业级开发者社区高级经理何琨,一起聊聊AIGC在营销领域的创新与安全问题:
  • 如何避免大语言模型不再胡言乱语?

  • 如何确保AIGC创作内容的质量与安全?

  • 如何避免营销活动成为黑产的提款机?

识别海报二维码点击阅读原文,立即报名直播。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

相关推荐

  • 直击真实的甲方AGI需求,人工智能赋能产业融通发展论坛顺利召开
  • AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键
  • AI机器人伴侣成美国老年人新宠!美国每年花70万刀,失去爱人的84岁老人重新笑了
  • 设计师+AI,3个月就能完成一套千字中文字库@智琮科技
  • 明年,每个人都能零基础创作3D内容 | 对话VAST宋亚宸
  • 自动驾驶雨天也能平稳规划,北理港中文腾讯提出端到端学习道路几何图形
  • OpenAI被举报:非法限制员工披露AI安全风险
  • 揭秘快手可灵背后的「关键7人」
  • 台积电宣布2nm芯片,下周见!!!
  • 【Python】流程图神器PygraphViz详解
  • 多所985、双一流高校食堂,牵涉油罐车混装食用油事件
  • 快停下,Redis 都要被你玩坏了
  • 下周,我倒闭 2 年的小网站将重出江湖!
  • 以LLM+KG技术为核心打造四大版块:老刘说NLP技术社区对外持续纳新
  • 有趣的“分而治之RAG”- Speculative RAG实现策略:兼看20240713大模型技术总结回顾
  • SpringBoot+XXL-JOB:高效定时任务管理
  • 微软发布 Visual Studio 17.10.2
  • 网易游戏如何基于 Apache Doris 构建全新湖仓一体架构
  • 软考,拿证了!| 极客时间
  • 大厂期权归属前遭暴力裁员,80 余万期权泡汤;去哪儿宣布每周两天“不坐班”;萝卜快跑是人类远程代驾?客服:无人操控 | Q资讯