苏茨克维想做真实的自己
库迪亚·苏茨克维(Ilya Sutskever),做为OpenAI的创始人与前首席科学家,一直是人工智能领域的领军人,她在深度神经网络行业贡献,特别是在生成式对抗网络(GANs)神经网络结构的创新,为OpenAI的初期取得成功打下基础。
但是,这名AI领域内的超级巨星第一次被公众熟知,却是因为OpenAI内部一场振动业内的“宫界”。
上年11月,苏茨克维与其它监事会成员一起,进而对企业未来发展趋势和安全问题的矛盾为理由,促进了对OpenAICEO罗伯·奥尔特曼(Sam Altman)的免去。
这一事件在那个年代引起了不小的轰动,不仅仅是因为Altman在OpenAI的位置,更加是因为这个身后反映出的AI领域里关于安全发展和商业化深层次分歧。
苏茨克维曾公开表露出对AI产品安全性深入担忧和对技术发展的谨慎态度,而Altman在公司内部所表现出的对利益扩大的向往,恰好与苏茨克维的安全性优先选择核心理念发生了冲突,最终导致了这一场“宫界”全面爆发。
但是,这一场试图改变OpenAI航行方向行动并没有以苏茨克维的获胜结束。
经过几天的不断与员工、投资人的极力反对,Altman戏剧化地重回CEO岗位,而苏茨克维的知名度好像也因而遭到消弱,在公司内部的影响力反而变得有一些细微。
事件之后,苏茨克维更加是罕见地在自己的社交平台上发帖子承认错误致歉:“我很后悔参加了此次股东会行动,我从来没有有意想要损害OpenAI。我热爱大家一起创造的工作成果,会竭尽全力使企业再次团结在一起。”
Altman也分享了苏茨克维的这条帖文,并送上了三颗红心的表情。
彩色图库:X(前Twitter)
虽然他与Altman在公共场合表明调解,但许多业内人士看来,苏茨克维的撤出好像无法挽救。
果然,2024年5月15日,苏茨克维在社交平台公布离去工作中近十年的OpenAI。
彩色图库:X(前Twitter)
而且,他还强调会到“合适的时候”告诉你们自身下一步的方案,会是一个对她本人很有意义的新项目。
这一决定意味着苏茨克维对目前AI商业化的路径的认真反思和个人理念的执着,它的下一步行动更加是导致了业内的高度关注。
许多人猜想它会返回前东家微软中国再次完成他的梦想,也有专业人士剖析苏茨克维所言的这样的项目会由其自身一手操办。
这并不,就在那相隔一个月以后,2024年6月20日,苏茨克维宣告成立了名叫“安全性智能”(Safe Superintelligence,通称SSI)的新公司,自身发布了回答。
并已经确定SSI的目的是追寻安全性智能的单纯科学研究总体目标,创立目的是想“一步到位”地创造一个充足安全智能,这不仅仅是技术层面考验,也是对AI产品安全性一次慎重考虑探寻。
彩色图库:X(前Twitter)
苏茨克维在SSI的通知中指出,企业将完全屏蔽掉外界的压力,无须解决繁杂大型商品,都不会卷进激烈竞争当中。
此外,他还强调,企业将只有一个关键、一个目标和一个产品,团队最终目标就是利用“小而美”的破译精英团队,去追寻安全性超级人工智能。
这类致力于科研和产品安全性心态,与她在OpenAI阶段所带动的核心理念一脉相承。
伴随着SSI的建立,苏茨克维不但为自己核心理念寻找了一个新的演出舞台,同时也为AI领域内的未来探索带来了全新的概率。
志趣相投的人走到了一起
提到“小而美”团队,就不得不提到此次与苏茨克维并肩战斗的两名超重量级合作伙伴:托妮·格罗斯(Daniel Gross)与托妮·莱维( Daniel Levy)。
一位是原美国苹果公司机器学习算法负责人、著名高新科技职业投资人,另一位乃是与苏茨克维一同在OpenAI练习大模型的技术人员。
前面一种不但在美国苹果公司任职期内,促进了机器学习算法的整合及应用,仍在AI新成立公司行业具有前瞻性的投资眼光,比如他对于GitHub和Instacart的早期投资,及其他目前拥有着Perplexity.ai和Character.ai等公司的股份。
格罗斯的加持,为SSI增添了丰富的行业经验与资源,在此次新公司成立环节中,格罗斯甚至直接扬言:“企业确实要面临诸多问题,但挣钱不容易是其中之一。”
尽管现在并不知道SSI这个公司将来到底能发展趋势到哪个相对高度,但格罗斯的心态最少验证了这个公司拥有不错的经济实力。
技术工程师托妮·莱维在OpenAI的助力当然也十分重要,他和苏茨克维共同训练太大实体模型,对深度学习和神经元网络有清晰的认知。
作为行业内顶级的研究者,莱维的专业背景和技术经验,为SSI的产品研发提供了坚实的支撑点。
三位创办人因一同的美好愿景——造就一个安全、有利于人类智能——而走到一起。
苏茨克维的前瞻思维、格罗斯的领域洞察力和莱维的技术专长,三者的融合形成了一种强悍的相辅相成优点。
这种优势既为SSI提供了一个多样化的角度,同时也为发挥其宏伟蓝图打下了坚实的基础。
而且,SSI在成立之初就表现了不意追寻短期内利益,而是专注于科学研究的运营模式,这一点在现阶段以需求为导向的AI初创公司中甚为罕见。
这个模式的优势是可以致力于科技的长远发展可靠性和科学研究,防止了急切商业化的很有可能带来的损失。
但是,这个模式仍然存在隐患。
欠缺实时的商业服务收益可能对现金流和市场信心造成负担。虽然拥有格罗斯承诺,但大家都清楚SSI倘若真完成了最终目标,所花费人力资金很有可能是一笔庞大的数字。
因此,怎样在确保研究深度的前提下,让公众和投资者见到具体的价值和进度,便是SSI需要思考的问题。
和传统AI公司相比,SSI必须在科研与销售市场之间找到均衡点,以确保其企业愿景既宏大又贴近生活。终究苏茨克维曾表露出,他想要让非常AI惠及所有人类。
AI安全系数非常值得核安全等级的高度重视
正如新公司名称(Safe Superintelligence)所描述的那样,库迪亚·苏茨克维将AI安全性视作头等大事。
他把AI安全性一定程度上视作核安全等级,而非群众平时所简单理解的“信赖安全性”。
核安全局重视的是对潜在性灾难性后果的预防控制,AI安全系数他认为也是如此。这也就意味着学者在科研开发的每一个阶段都要对自身的AI再次进行全面的的风险评估和防范措施。
这样的高度重视代表了从AI系统设计、开发到布署,每一个环节开发者们都必须考虑到其对于人类和环境中的潜在影响。
这般高规格的高度重视,不是空穴来风。
AI技术发展带来了前所未有的便捷,却也与此同时带来了全新的安全系数风险性。
中国科学院院士邬江兴、吴世忠等专家就在今年公布表达过人工智能技术产生安全问题是前所未有的难点问题。
最先,个人隐私侵害难题就随着数据信息收集和分析技术发展而日趋严重。专家学者表明,现阶段的网络安全隐患正在从信息内容扩展到数据加物理学域、认知能力域。
次之,管理决策成见都是AI领域的一个关键难点。因为训练样本的不均衡或计算机算法问题,AI系统软件有可能在项目投资、招骋等行业造成不平衡的决策结果。
不过随着AI运用普及面越来越广泛,人们对于AI技术性的心态也比较复杂。
一方面,大家希望AI技术性能够提升金融服务效率和效果,例如通过大中型语言模型(LLM)给予更加个性化的客户服务。
另一方面,很多人都比较担心AI很有可能带来的损失,如数据泄漏、优化算法偏见和网络安全隐患等。
之前,大家都比较在意自己的访问记录被泄露,但在现如今大数据挖掘的精准投放下,哪怕是我们都爱看什么电视、喜欢看谁直播间都可以清楚地在网络上留痕迹,大自然也会引起大家深层次的忧虑。
因此,针对苏茨克维的离开及其SSI企业的开创,业内外都有着不少拥护者。
以前苏茨克维仍在OpenAI内部结构刮起转型时,美国的大学AI专家教授Gary Marcus就公布表达过适用,“他们一定看见了尼克所做的事的风险性。”
创作者 | 李迎