OpenAI发布安全指南:董事会有权阻止CEO发布新款AI模型

2024-01-16 16:53 资讯

12月19日消息,美国当地时间周一,人工智能研究公司OpenAI表示,即使公司领导层认为人工智能(AI)模型足够安全,其董事会也可以选择推迟发布。这是该公司授权其董事加强尖端技术开发安全保障措施的另一个明显迹象。

周一发布的一套指导方针详细说明了这一决策流程,并解释了OpenAI计划如何应对其最强大人工智能系统可能带来的极端风险。该指导方针发布前,OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾被董事会短暂罢免,公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。

OpenAI最近组建的“准备”(Preparedness)团队表示,它将继续评估公司的人工智能系统,以确定它们在四个不同类别中的表现,包括潜在的网络安全问题以及化学武器、核武器以及生物武器威胁,并努力减少该技术可能造成的任何危害。具体来说,OpenAI正在监控所谓的“灾难性”风险,它在指导方针中将其定义为“任何可能导致数千亿美元经济损失或导致许多人受到严重伤害或死亡的风险”。

亚历山大·马德里(Aleksander Madry)是“准备”团队的负责人,目前正在麻省理工学院休假。他称,该团队将向一个新的内部安全咨询小组发送月度报告,后者随即将分析马德里团队的工作,并向奥特曼和公司董事会提交建议。在奥特曼被短暂解雇后,公司董事会进行了全面改革。根据这份文件,奥特曼及其领导团队可以根据这些报告决定是否发布新的人工智能系统,但董事会有权否决他们的决定。

OpenAI在10月份宣布成立“准备”团队,使其成为该公司监督人工智能安全的三个独立团队之一。另外两个团队分别是“安全系统”团队,着眼于当前的产品,如GPT-4,以及“超级对齐”(Superalignment)团队,专注于未来可能存在的极其强大的人工智能系统。

马德里表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,根据不同类型的感知风险将它们评为“低等”、“中等”、“高等”或“关键”。该团队还将做出改变,希望减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的指导方针,OpenAI将只推出危险评级为“中等”或“低等”的模型。

马德里还希望其他公司也能使用OpenAI的指导方针来评估其人工智能模型的潜在风险。他说,这些指导方针是OpenAI之前在评估已发布人工智能技术时遵循的许多流程的正规化。他和他的团队在过去几个月里提出了许多细节,并从OpenAI内部其他人那里得到了反馈。(小小)

点赞

全部评论

相关阅读

新款24英寸M1iMac的6种方式仍然令人沮丧

Fitbit的新款Luxe追踪器是Sense和Charge4的时尚混合体

长安汽车新款报价

摩羯座的恋爱指南有哪些

双鱼座和天蝎座配对指南,你知道吗?

做梦梦见袜子破了,预示着什么?|解梦SEO指南

忘记钥匙没问题您的无钥匙锁完整指南

谷歌将于9月30日推出新款Pixel手机Chromecast

斯巴鲁在3月30日挑逗更坚固的内陆模型

起亚详细介绍了具有可用全轮驱动和美观的新款K8轿车

易经入门必背100篇:学习易经初学者的必备指南

新款爱唯欧图片

八字过弱,如何改善?|八字过弱怎么办,改善方法指南

奇门遁甲入门指南

家用榨油机多少钱一台 新款

晚年生活指南,晚年的生活

ai格式用什么软件打开

布莱克斯科尔斯期权定价模型

胜利符咒包括哪些东西?外行人都爱搜的胜利符咒完全指南

ai复制快捷键是什么