随着全球生成式AI竞争加剧,OpenAI却再次经历人事动荡。
近日,OpenAI联合创始团队成员、负责超级对齐项目的John Schulman宣布离职加入Anthropic,而另一联合创始人、OpenAI总裁Greg Brockman则表示,将延长休假至今年底,但未透露离职意向。此外,OpenAI联合创始人、时任首席科学家Ilya Sutskever和对齐团队主管Jan Lei日前也已离职,其负责的超级对齐团队也被传已经解散。
目前,OpenAI的原11人创始团队成员已大幅缩减,只有Sam Altman、Wojciech Zaremba和暂休假的Greg Brockman三人仍在任职。而随着多位联合创始人离开,这或意味着OpenAI对人工智能对齐方面关注变得更少,抑或对AI安全的投入重点发生了变化。
另一方面,在商业化进展并不顺利同时,OpenAI还被指推动商业目标过于 “激进”、“背离非营利组织的初心”等。面对诸多挑战与质疑,以及重要骨干的纷纷出走,OpenAI似乎走到了新的十字路口,下一代GPT以及AGI是否会受人事变动的影响还需继续观察。而在这背后,OpenAI内部对安全方面达成共识至关重要,这或将成为“定海神针”。
再添重要人事变动
继去年11月发生“宫斗”大戏后,OpenAI内部持续出现重要人事变动。近日,OpenAI的创始团队成员、负责超级对齐项目的John Schulman宣布离职,转而加入Anthropic,并继续研究AI超级对齐等。
John Schulman在社交媒体发文表示,作出离开OpenAI并加入Anthropic这一决定是因为他希望进一步关注人工智能对齐,并重返实际技术工作。他还强调,其离职并不是因为OpenAI缺乏对于对齐研究的支持,相反OpenAI一直致力于在这一领域进行投资。
OpenAI CEO Sam Altman发文感谢了John Schulman对于OpenAI所做的贡献,并称John Schulman是一位才华横溢的杰出研究员,对产品和社会有深刻思考。
据悉,John Schulman于2015年作为OpenAI的11名联合创始人之一加入公司,曾被称为“ChatGPT架构师”。据其发布在个人网站上的介绍,他获得加州大学伯克利分校计算机博士学位,联合领导OpenAI的“后训练(post training)”团队,即对模型进行精调后以ChatGPT或API接口的形式上线。
Anthropic是由前OpenAI研究高管和员工创建的公司,旗下拥有Claude系列大模型,被认为是OpenAI的最强竞争对手。今年6月,Anthropic发布最新模型Claude 3.5 Sonnet,该模型在研究生水平推理 (GPQA)、编码能力 (HumanEval)、文本推理(DROP)等方面的成绩均好于GPT-4o,而推理速度和成本仅与上一代中档模型相当。目前,Anthropic已接连获得谷歌、亚马逊等科技巨头的数十亿美元投资。
在John Schulman宣布离职同一日,OpenAI总裁Greg Brockman也发文称将休假至年底,但并未透露离职意向。他表示,这是其联合成立OpenAI 九年后的第一次休息,“我们仍然需要构建安全的AGI(通用人工智能),这一任务远未完成。”
但在这个关键的时候选择长时间休假,也引发了不少猜测,届时去留无从得知。
Greg Brockman是ChatGPT商业化的重要推动者,一直被视作Sam Altman最可靠的盟友。此前,Ilya Sustkever联合四位董事会成员将Altman和前董事长Brockman一起逐出了董事会,彼时的管理权争夺战中,Brockman在阵前冲锋,发布了大量细节支持Altman。
另有消息称,OpenAI的产品负责人Peter Deng也将离职,但目前尚未公布动向。Peter Deng是硅谷知名产品经理,曾任谷歌、Instagram、Facebook、Uber等公司产品经理,去年加入OpenAI任消费产品副总裁,负责ChatGPT背后的产品、设计和工程团队。
而在OpenAI再现人事动荡同时,特斯拉CEO马斯克再次对OpenAI及其首席执行官阿尔特曼提起诉讼,指控OpenAI将利润和商业利益置于公共利益之上,背离了创立公司时造福全人类的初衷,而且涉嫌骗取自己向OpenAI投入大量时间和数千万美元的种子基金。
值得一提的是,今年2月,马斯克曾对OpenAI和Altman提起过类似的诉讼。6月,在法官准备审理OpenAI驳回此案请求的前一天,马斯克没有给出任何解释而撤销了诉讼。但新诉讼的篇幅几乎是原诉讼的两倍,同时还新增了对OpenAI涉嫌敲诈勒索的指控。
无论是从联合创始人离职,还是特斯拉的起诉来看,OpenAI正面临严峻的挑战。而在这背后,OpenAI对AI安全的平衡裁定以及商业化推动过于“激进”或是关键矛盾点。
核心高管相继离职
随着AI安全重要性与日剧增,越发受到世界各地关注,OpenAI语言模型的对齐(alignment)、安全性和透明性已经成为业界焦点。其中,对齐是人工智能控制领域的一个主要的问题,即要求AI系统的目标要和人类的价值观与利益保持一致。
OpenAI称,要解决超级人工智能对人类造成的风险,人类需要建立新的监管方式并解决超级人工智能的对齐问题,即如何确保比人类聪明得多的超级人工智能会遵循人类的想法。
2023年7月,OpenAI成立超级对齐团队,由OpenAI联合创始人、时任首席科学家Ilya Sutskever和对齐团队主管Jan Lei共同领导。在该部门成立的同时,OpenAI还宣布,未来四年内,将目前拥有的计算资源的20%用于解决超级对齐问题。
虽然Sam Altman置顶的一条推文仍是安全相关,即将为AI安全相关研究和开发工作,保障提供至少20%计算资源,但OpenAI内部关于AI安全的分析问题已经越发严重。
例如Ilya Sutskever曾在采访中提到ChatGPT可能有意识,世界需要清醒认识到他的公司和其他公司正在创造的技术的真正力量。而Altman近期称,“人工智能对齐问题还不能说完全解决,但目前让人工智能系统学会如何按一套价值观行事,效果比我想象的更好。”
今年5月15日,即Ilya Sutskever在参与罢免CEO Sam Altman事件半年后,正式宣布从OpenAI离职。Ilya Sutskever在社交平台X上宣布,他将在近十年后离开公司,相信在首席执行官Altman等人的领导下,能够打造出既安全又有益的通用人工智能。
据知情人士透露,Ilya Sutskever的退出导致OpenA的分歧严重到了无法调和的地步。
紧接着,超级对齐团队另一位负责人Jan Leike也宣布离职,并称OpenAI需要成为一家安全之上的AI公司。Jan Leike随后发文称己加入Anthropic,继续超级对齐的研究。
对于离职原因,Leike称,超级对齐团队一直在努力争取资源。“过去几个月里,我门的团队一直在逆风航行,有时在计算资源上挣扎,而且越来越难以完成这项关键的研究。”他还表示,公司不够关注AI相关的安全措施,离职是因为他与OpenAI在公司的“核心优先事项”上存在一系列分歧。另据报道,OpenAI此后解散了超级对齐团队。
直至5月28日,OpenAI在官网宣布成立董事会安全委员会,其中负责对齐科学的主管正是此次离职的John Schulman。而如今,随着John Schulman的离职,OpenAI创始团队中,仅剩Sam Altman、Greg Brockman、Wojciech Zaremba三人仍在OpenAI任职。
至于OpenAI的8位前联合创始人离职后去向,分别包括马斯克专注于特斯拉、x.AI和SpaceX等,llya Sutskever创立Safe Superintelligence,Trevor Blackwell成为行业学者,Vicki Cheung创立Gantry,Andrej Karpathy创立Eureka Labs,Durk Kingma加入Google Brain,Pamela Vagata创立Pebblebed,以及John Schulman加入Anthropic。
其中绝大多数去向仍为人工智能领域。例如Ilya Sutskever提到,由于专注于安全超级智能,公司不会受到管理开销或产品周期的干扰,也不会受到短期商业压力的影响。在外界看来,这似乎是在影射在追逐盈利和商业化道路上逐渐降低安全要求的OpenAI。
此外,马斯克去年创立了人工智能初创公司xAI,于今年5月完成新一轮60亿美元融资,融资规模仅次于OpenAI,推高公司估值至240亿美元。
前进道路更多“阴霾”
OpenAI的人事动荡早有迹可循,而且对齐发展路径造成重要影响。
去年11月,OpenAI爆发震惊硅谷乃至全世界的“宫斗”大戏,其中焦点事件包括三天三换CEO、“推手”倒戈、700员工联名“逼宫”、投资者发起诉讼威胁、微软介入助攻… 在这背后,究其根源既有OpenAI“加速主义“与“安全主义”的路线之争,以及凸显出有效利他主义社会运动在硅谷大大小小的AI公司中间制造的裂痕。
在OpenAI内部,Sam Altman是“加速主义”代表,而Ilya Sutskeve则可谓“超级对齐”代表。然而,鉴于Sutskeve等人离职以及超级对齐团队解散,OpenAI或将进入全面加速主义发展阶段。这一发展导向或能在马斯克的起诉文件窥见一斑。
马斯克的诉讼文件中指出,该起诉是“利他主义与贪婪之争的典型案例” Sam Altman等被告利用虚假的人道主义使命诱导而投资。此外,马斯克要求法院裁定OpenAI的最新模型是否已实现AGI。因为依据协议一旦实现AGI,微软将不再有权使用OpenAI的技术。
他还称,OpenAI可能出于经济利益考量,推迟公布其已实现AGI。
据悉,5月底,OpenAI在一篇博文中透露,已开始训练下一个前沿模型,将在构建AGI的使命中提供更高级别的能力,但并未明确是否命名为GPT-5。7月,Sam Altman则称,开发GPT-5还需要一些时间,相关的技术仍处于早期阶段,存在数据和算法方面的问题。
直至8月6日,OpenAI表示,在今年10月即将举办的开发者大会OpenAI DevDay上,不打算发布下一个旗舰模型,会更专注于更新其API和开发者服务。
在推进AGI的进程上,OpenAI已创建了一套分级衡量系统,将人工智能划分为五个等级:
其中,当前的ChatGPT等聊天机器人还处于第一级水平;第二级相当于一个可以解决基本问题的系统,其水平相当于拥有博士学位的人;第三级是指能够代表用户采取行动的人工智能代理;第四级是可以自我创新的人工智能;第五级则是实现AGI的最后一步,即人工智能可以执行人类的全部工作。
OpenAI声称,其人工智能已经接近第二级的水平。但AGI还有很长的路要走,首先就需要达到超强的计算能力。多位专家对AGI给出的时间表存在很大差异,OpenAI内部也是如此。2023年10月,Sam Altman表示,我们“大约需要五年时间”才能实现AGI。
在这背后,或许也有OpenAI的现实考量。业内人士称,“OpenAI的营收在35亿至45亿美元之间,但其运营亏损可能高达50亿美元,收入远远无法覆盖成本。而为了推出下一代的大模型GPT5,OpenAI需要更多的数据和算力,但却没有清晰模式的商业产品。”
无论如何,从GPT-5发布延迟,SerachGPT演示出错,到7万亿美元造芯等,彰显出OpenA的研发和商业化之路并不顺利,而且被指推进商业化目标 “激进”、“背离非营利组织的初心”。在面临着诸多挑战与质疑中,OpenAI似乎走到了一个新的十字路口。
业内普遍认为,重要骨干纷纷出走,将让麻烦不断的OpenAI雪上加霜,为其前进的道路带来更多的阴霾,下一代GPT以及AGI是否会受人事变动的影响还需继续观察。OpenAI能否破障?或许取决于在安全这一核心问题上能否被妥善处置,以及内部能否达成共识。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.