OpenAI解散安全团队备受质疑!马斯克:显示安全并不是他们的首要任务
【环球时报特约记者 任重】美国人工智能研究公司OpenAI内部动荡持续。据美国CNBC网站17日报道,消息人士透露,OpenAI在宣布成立人工智能长期风险团队——“超级对齐”仅一年后,就解散该团队,一些团队成员被分配到公司其他团队。去年7月,OpenAI宣布成立这个团队,专注于“科学和技术突破,以引导和控制比我们聪明得多的人工智能系统”。当时,OpenAI表示将在4年内将其20%的算力投入到该团队中。特斯拉首席执行官马斯克针对“超级对齐”团队解散这一消息评论称:“这显示安全并不是OpenAI的首要任务。”
就在这一消息公布的几天前,OpenAI的两名高管——联合创始人兼首席科学家伊利亚·苏茨克韦尔和简·雷克宣布离开这家公司,他们是“超级对齐”团队的共同领导人。雷克17日在社交媒体发文称,“加入OpenAI是因为我认为这家公司是进行这项研究的最佳场所。然而,我一直不同意OpenAI领导层对公司核心优先事项的看法,直到我们达到了临界点。”雷克写道,“在过去的几个月里,我的团队一直在逆风航行。有时我们会为算力资源苦苦挣扎,完成这项关键的研究变得越来越困难。”雷克提醒说,OpenAI必须成为一家“安全第一的人工智能公司”,“制造比人类更聪明的机器本身就是一种危险的尝试。OpenAI肩负巨大的责任。但在过去几年时间里,安全文化和流程已经让位于‘闪亮的产品’。”
“为何OpenAI负责人类安全的团队被解散?”美国沃克斯网站17日称,去年11月,OpenAI董事会试图解雇首席执行官奥特曼,结果奥特曼很快夺回权力。此后,至少有5名公司最具安全意识的员工辞职或被解雇。美国《华尔街日报》称,苏茨克韦尔将注意力集中在确保人工智能不会伤害人类上,而包括奥特曼在内的其他人更渴望推动新技术的发展。美国《连线》杂志称,苏茨克韦尔是去年11月解雇奥特曼的4名董事会成员之一。
该公司的消息人士向沃克斯网站透露,有安全意识的员工已经对奥特曼失去了信心,“这是一个信任一点点崩塌的过程,就像多米诺骨牌一块块倒下一样”。他们认为,奥特曼声称将安全放在首位,但在行为上却自相矛盾。
美国TechCrunch科技博客网站18日称,OpenAI放弃安全研究,转而推出像GPT-4o这样的新产品,最终导致“超级对齐”团队的两位负责人辞职。目前尚不清楚科技行业何时或是否会实现必要的突破,以创造出能够完成人类所能完成的任何任务的人工智能。但“超级对齐”团队的解散似乎证实了一件事:OpenAI的领导层——尤其是奥特曼——选择优先考虑产品而不是安全措施。在过去一年时间里,OpenAI让其聊天机器人商店充斥着垃圾邮件,并违反平台的服务条款从YouTube抓取数据……安全似乎在该公司处于次要地位——越来越多的安全研究人员得出这种结论,选择另谋高就。
雷克17日还提到,“我们应该把更多的资源用于为下一代模型做准备,包括安全性、监控、一致性、保密性、社会影响等。这些问题很难解决,我担心我们没有走在解决问题的正确轨道上。”沃克斯网站称,当一名世界领先的人工智能安全专家说,世界领先的人工智能公司没有走在正确的轨道上时,我们都有理由感到担忧。
据加拿大全球新闻网18日报道,17日发布的一份关于人工智能安全的国际报告称,专家们对这项技术带来的风险意见不一。这份由加拿大魁北克人工智能研究所科学主任本吉奥主持的报告得出结论,通用人工智能的未来轨迹非常不确定。报告称,在不久的将来人工智能可能呈现各种各样的发展轨迹,包括非常积极和非常消极的结果。该报告概述了一些风险,包括人工智能可能通过虚假信息、欺诈以及网络攻击造成伤害。报告提到人工智能中的偏见可能导致风险,特别是在“医疗保健、招聘和金融贷款等高风险领域”。还有一种情况是,人类可能失去对人工智能的控制。