HyperAI超神经
Back to Headlines

OpenAI升级安全措施防止技术泄露

8 days ago

据报道,OpenAI 近日大幅加强了其安全措施,以防止技术泄露。今年1月,中国初创公司DeepSeek发布了一款竞争模型,OpenAI指控DeepSeek使用“蒸馏”技术不当复制其模型。这一事件加速了OpenAI现有的安全加强计划。 加强后的安全措施包括新的“信息隔离”政策,限制员工访问敏感算法和新产品。例如,在开发OpenAI的o1模型期间,只有经过验证的团队成员可以在共享办公空间内讨论该模型,据《金融时报》报道。此外,OpenAI还采取了一系列其他措施来保护其核心技术:将专有技术隔离在离线计算机系统中,实施生物识别门禁控制(如指纹扫描),以及执行“默认拒绝”的互联网政策,需要明确批准才能进行外部连接。公司还提高了数据中心的物理安全水平,并扩大了网络安全人员的规模。 这些改变反映了OpenAI对外国对手试图窃取其知识产权的广泛担忧。然而,考虑到当前美国人工智能企业之间的激烈挖角竞争以及OpenAI CEO Sam Altman言论的频繁泄露,公司也可能是为了应对内部安全问题。尽管如此,OpenAI的一系列举措显示出其对信息安全的高度关注,尤其是在技术研发方面。 业内人士认为,OpenAI之所以加大安全投入,是因为其在市场竞争中的领先地位正受到前所未有的挑战。作为全球领先的人工智能研究实验室,OpenAI致力于开发尖端的人工智能技术,尤其是在自然语言处理领域。其最著名的产品包括ChatGPT、DALL-E 等,已成为业界标杆。加强安全管理不仅有助于保持技术优势,还能保护公司的核心资产免受侵犯。但也有声音指出,这种严格的管理可能会影响员工的工作效率和创新精神。

Related Links