OpenAI发布安全指南:董事会有权阻止CEO发布新款AI模型
2023-12-19
更新时间:2023-12-19 08:05:51作者:橙橘网
12月19日消息,美国当地时间周一,人工智能研究公司OpenAI表示,即使公司领导层认为人工智能(AI)模型足够安全,其董事会也可以选择推迟发布。这是该公司授权其董事加强尖端技术开发安全保障措施的另一个明显迹象。
周一发布的一套指导方针详细说明了这一决策流程,并解释了OpenAI计划如何应对其最强大人工智能系统可能带来的极端风险。该指导方针发布前,OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾被董事会短暂罢免,公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。
OpenAI最近组建的“准备”(Preparedness)团队表示,它将继续评估公司的人工智能系统,以确定它们在四个不同类别中的表现,包括潜在的网络安全问题以及化学武器、核武器以及生物武器威胁,并努力减少该技术可能造成的任何危害。具体来说,OpenAI正在监控所谓的“灾难性”风险,它在指导方针中将其定义为“任何可能导致数千亿美元经济损失或导致许多人受到严重伤害或死亡的风险”。
亚历山大·马德里(Aleksander Madry)是“准备”团队的负责人,目前正在麻省理工学院休假。他称,该团队将向一个新的内部安全咨询小组发送月度报告,后者随即将分析马德里团队的工作,并向奥特曼和公司董事会提交建议。在奥特曼被短暂解雇后,公司董事会进行了全面改革。根据这份文件,奥特曼及其领导团队可以根据这些报告决定是否发布新的人工智能系统,但董事会有权否决他们的决定。
OpenAI在10月份宣布成立“准备”团队,使其成为该公司监督人工智能安全的三个独立团队之一。另外两个团队分别是“安全系统”团队,着眼于当前的产品,如GPT-4,以及“超级对齐”(Superalignment)团队,专注于未来可能存在的极其强大的人工智能系统。
马德里表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,根据不同类型的感知风险将它们评为“低等”、“中等”、“高等”或“关键”。该团队还将做出改变,希望减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的指导方针,OpenAI将只推出危险评级为“中等”或“低等”的模型。
马德里还希望其他公司也能使用OpenAI的指导方针来评估其人工智能模型的潜在风险。他说,这些指导方针是OpenAI之前在评估已发布人工智能技术时遵循的许多流程的正规化。他和他的团队在过去几个月里提出了许多细节,并从OpenAI内部其他人那里得到了反馈。(小小)