Ilya再融20亿SSI估值300亿,20人王牌团队首曝光,阵容超豪华

关注
从OpenAI到SSI,他用了9年

编者按:本文来自微信公众号 新智元,作者:新智元,创业邦经授权转载。

Ilya团队再次拿到20亿美元新一轮融资,估值300亿美元。与此同时,SSI在以色列特拉维夫办公室的首支研究团队的成员曝光,阵容堪称豪华。

硅谷当下投资最热门,不是某个产品,而是一个人。

成立9个月的神秘初创SSI,至今从未发布任何产品,却靠着Ilya撑起了整个台面。

在WSJ最新的融资爆料中,SSI已完成20亿美元新一轮融资,估值超300亿美元。

最新融资由Greenoaks Capital领投,该公司的估值也从去年9月的50亿美元增长了6倍。

此前,Ilya曾明确表示,在开发出超级智能之前,不打算发布任何产品。

一直以来,我们只知道,这家公司除了Ilya,还有两位初创——

一位是前苹果AI业务的风险投资人Daniel Gross,另一位是前OpenAI研究员Daniel Levy。

三位联创:Daniel Gross、Ilya Sutskever、Daniel Levy

关于内部员工的具体信息,外界对此知之甚少。

恰在昨天,外媒Globes直接公开了一份SSI现任员工名单,并称Ilya已经在以色列特拉维夫办公室,悄然组建了一支顶级研究团队。

其中,不乏有特拉维夫大学的Yair Carmon博士、前谷歌研究员Yaron Brodsky、数学竞赛获奖者Nitzan Tor等等。

接下来,就让我们一探究竟。

SSI神秘团队,首次公开

SSI的以色列办公室位于特拉维夫的市中心大厦(Midtown Tower)。

公司刻意低调,不允许员工在社交媒体上透露身份。

Ilya在特拉维夫组建的首批研究团队,聚焦计算机科学和数学,目标是打造公司的首个AI模型。

这支团队的阵容,堪称豪华。

领衔者之一是Yair Carmon博士,他是特拉维夫大学计算机科学学院高级讲师,拥有斯坦福大学物理学博士学位。

研究方向是机器学习、优化和统计学,致力于让AI算法更稳定可靠。

目前,他正处于无薪休假状态,全身心投入SSI,并协助招募更多人才。

还有其他三位成员,也是行业中的佼佼者。

Shahar Papini是以色列理工学院毕业生,曾在Waze和区块链公司Starkware工作,约半年前加入SSI。

Nitzan Tor是一位数学天才,曾三次摘得世界学生数学竞赛桂冠,此前在算法交易公司Final担任计算机工程师。

手持旗帜从左至右,第三个人是Nitzan Tor

Yaron Brodsky是前谷歌软件开发员,专注于照片编辑领域的创意AI。

网友为此还制作了一个总结表。

此外,团队还吸纳了来自Google Research的数名研究人员和程序员。值得一提的是,SSI的招聘全靠「熟人推荐」,不找猎头或人力资源公司。

目前,SSI已暂停招聘,团队规模尚在个位数至十余人之间。

非传统的扁平化运作

SSI在以色列特拉维夫和硅谷Palo Alto的办公室的员工大约有20名,甚至不到OpenAI和Anthropic员工人数(1000+)的零头。

这些人被要求,在LinkedIn个人资料中不得提及SSI。

获得面对面的面试机会候选人,在进入SSI办公室之前,必须将手机放在「法拉第笼」(Faraday Cage)里。这是可以屏蔽蜂窝和Wi-Fi信号的容器。

至今,SSI网站上只有一份223字的使命宣言

从以上特拉维夫招募的员工来看,他们听起来在硅谷并不知名。

因为,SSI的目标在于寻找有前途的技术人员,而不是那些来回横跳,并带走他们所学知识的有经验的人。

据一位了解SSI的行业高管透露,这家公司的组织结构极为扁平,没有明确的团队领导,两个办公室的员工围绕共同项目紧密协作。

这种非层级化的模式,或许正是Ilya对创新和效率的追求。

他希望通过去中心化的方式,最大限度激发团队的创造力。

SSI的愿景宏大而具体:开发能力超强的AI,同时确保其安全性。

比如,未来的SSI模型可能自主设计新药、优化生产材料,甚至助力解决气候危机。

然而,Ilya始终强调,任何技术突破都必须以安全为前提。

从OpenAI到SSI,他用了9年

Ilya在加拿大攻读研究生时,因合著的一篇深度学习AI算法的论文,从此声名鹊起。

毕业后,他加入谷歌。直到2015年,Ilya做了一个大胆的决定——加入OpenAI成为其首批员工之一。

吸引他的,正是奥特曼和马斯克的愿景,即开发通用人工智能,一个能在大多数任务上与人类匹敌的AI,并为人类社会谋福利。

在OpenAI时,同事们常常开玩笑地称他为「先知」,他总是沉浸在对未来世界的思考中:一个拥有AGI的世界会是什么样子?如何确保这种强大技术不会带来灾难性后果?

这些问题,一直萦绕在他的脑海当中。

2022年底,OpenAI发布了ChatGPT,这款AI聊天机器人迅速成为全球瞩目的焦点。

他在OpenAI 2022年的节日聚会上曾说,「我们的目标是制造一个热爱人类的AGI」。

然而,随着ChatGPT的成功,OpenAI也逐渐从一个纯粹的研究实验室,转变为一家更注重产品和收入的公司。

这种转变,让Ilya和团队感到深深不安。

他们担心的是,公司对商业化的追求,会削弱对先进AI研究的投入,尤其是对AI潜在风险的管控。

与此同时,Ilya和奥特曼的关系也日益紧张。

2023年11月,OpenAI内部上演了一场宫斗剧,董事会决定解雇奥特曼,因其未能始终对董事会保持坦诚。

然而,这一决定却遭到内部强烈反对,数百名员工威胁辞职,甚至微软还要当接盘侠,提出要雇佣奥特曼和离职员工。

最终,奥特曼在一周内被重新聘用,而Ilya选择退出,尽管他名义上仍在职,但实际上已经停止了工作。

直到2024年5月,Ilya正式公开辞职,并于6月和前OpenAI研究员Daniel Levy以及投资者Daniel Gross共同创办了Safe Superintelligence。

与OpenAI不同,SSI的目标更加纯粹——开发安全的超级智能(Superintelligence)。

他相信,超级智能不仅仅是AGI的进阶版,而是一种更为复杂、更具潜力的技术。

在去年NeurIPS会议上,Ilya罕见公开露面,并分享了自己对超级智能的思考。

他告诉在场的数千名研究人员,未来的超级智能系统可能是不可预测的,甚至可能具备自我意识,并为自己争取权利。

然而,他也表示,「如果AI想要的就是与我们共存,那也不是一个糟糕的最终结果」。

参考资料:

https://en.globes.co.il/en/article-ssi-israel-hires-first-senior-researchers-1001503535

https://www.wsj.com/tech/ai/ai-safe-superintelligence-startup-ilya-sutskever-openai-2335259b?mod=tech_lead_pos3

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。


反馈
联系我们
推荐订阅