Back to Blog

田渊栋AI创业估值315亿,老黄苏妈都投了,姚班施天麟也是合伙人

2026年5月14日

离职Meta后的田渊栋,现身独角兽联创名单,成了AI创业合伙人。

Recursive Superintelligence(RSI),不到30人,刚从隐身状态走出来,就拿到6.5亿美元融资(约44亿元人民币),估值46.5亿美元(约316亿元人民币)。

谷歌GV、Greycroft联合领投这轮早期融资,英伟达、AMD等也参与其中。

8位联创亮相,阵容豪华。

这些8人里随便挑一个出来,都足以单独撑起一家AI独角兽。

那么,他们聚在一起要做什么?

公司名字就点明了:Recursive Superintelligence,AI自我改进的闭环,直到超级智能。

他们给出的路线图中的第一步,是先训练一个具备“50000名博士”能力的系统,自动化AI科学研究本身。

再把这台”尤里卡机器”指向药物研发、电池材料和核聚变物理。

300亿砸向下一条Scaling Law

RSI的成立基于一条核心判断:

预训练Scaling Law仍然重要,但如果只靠更多数据、更多算力、更多参数,边际收益已经没有过去那么陡。

AI行业正在找新的增长曲线。

RSI押的就是其中最激进的一条,recursive self-improvement,递归式自我改进

这刚好打中了AI行业现在最焦虑的问题,也就是大模型之后,下一次能力跃迁从哪里来?

CEO Richard Socher在访谈中给出解释:

“AI是代码,而现在AI可以写代码。”

过去,AI研发的循环大体还是人类主导。研究员提出想法,工程师写实验,团队跑训练,评估模型,再根据结果调下一轮方向。

RSI把这个循环的一部分交给AI。

它们设想中的系统,不只是回答问题,也不只是帮人写代码。它要能发现自己的能力短板,设计新的实验,写新的benchmark,然后主动重写自己的代码库,让下一版系统更强。

传统AI优化像是在固定考卷上刷分,考到100分就算到头。RSI要的是另一条路:像生物进化一样,永远不停下来,永远有新发明。

一个AI改进另一个AI;改进后的AI继续改进后面的AI。

Socher自己很清楚这个赌注的分量。

如果你是学术研究者且超前于时代,你最终会被称作远见者。但如果你是创业者且超前于时代,你的公司就死了。

他是NLP领域早期神经网络派代表人物之一。2010年,他试图把一篇神经网络论文投给NLP顶会,结果被拒。审稿人的理由是神经网络没用,你为什么要把这玩意投给NLP会议?

15年后,神经网络不仅主导了NLP,而且Socher就是奠定这一基础的人之一。

那么创办RSI,为什么是现在?

Socher判断,AI领域正在触及对数级收益递减。你需要增加一两个数量级的数据,却只得到微小的改进。

RSI不是这条道路上的唯一个。

David Silver的Ineffable Intelligence种子轮拿了11亿美元,估值51亿美元。Ilya Sutskever的SSI,估值未披露。Yann LeCun的AMI Labs,募资10亿美元。

顶级科学家集体出走、资本集体押注,已经成为2025年以来AI领域最明确的结构性浪潮。

8位联创干出顶级独角兽

Recursive能在早期拿到这个估值,一个直接原因就是创始团队人才密度高。

独角兽门槛是10亿美元估值,RSI首轮估值46.5亿美元,相当于8位联创平均每人值0.58个独角兽。

Richard Socher,吴恩达在斯坦福的博士生,ImageNet和Glove作者,谷歌学术引用量超过24万次。在创立Recursive之前,他创办了MetaMind并被Salesforce收购,后来还做出了估值15亿美元的AI搜索引擎You.com。

田渊栋,Meta FAIR前研究科学家总监,长期做强化学习、基础模型效率和神经网络理解。更早之前,他还做过ELF OpenGo,把AlphaZero式训练重新开源实现到围棋场景里;最近几年,他的研究线又转向Llama推理、长序列加速、低成本训练等更贴近大模型系统瓶颈的问题。

施天麟是清华姚班校友,Cresta联合创始人之一,Cresta从斯坦福AI实验室起步,2019年就把Transformer模型用到实时客服Agent Assist里。

Tim Rocktäschel的是开放式智能和安全循环专家。他是UCL人工智能教授,也曾在Google DeepMind担任开放式研究方向负责人,研究重点就是AGI、open-endedness和self-improvement。他和合作者把安全红队问题改写成开放式搜索Rainbow Teaming:不靠人手列完攻击方式,而是让系统持续生成更多样、更有效的对抗提示。现在几乎所有的AI安全团队都在用

Alexey Dosovitskiy是Vision Transformer作者之一,在2020年率先把Transformer直接用到图像patch序列上,证明视觉任务不一定非要卷积网络做底座。

Josh Tobin是OpenAI早期成员,OpenAI Agents Research Team负责人之一;

Caiming Xiong曾在Salesforce负责AI Research和Applied AI,和Socher长期共事,也共同署名过CTRL等可控文本生成工作。

Jeff Clune的研究和RSI路线高度重合,他长期研究开放式进化、AI-generating algorithms和AI安全,也是Darwin Gödel Machine论文作者之一。那篇论文讨论的正是让AI系统修改自身代码、再用benchmark验证改进是否有效。

8个人分别对应强化学习和大模型效率、开放式算法、安全红队、视觉Transformer、智能体产品化、企业AI落地、创业组织和自我改进研究。

8位联创,再加少量创始团队,RSI总人数不超过30人,Socher在采访中还特别强调:

我们将尽可能保持团队小而精,最终把很多事情委托给我们的Agent。

参考链接:
[1]https://www.recursive.com

[2] https://www.gv.com/news/recursive-superintelligence-self-improving-ai

版权所有,未经授权不得以任何形式转载及使用,违者必究。