杨植麟当主持人的大模型圆桌:张鹏罗福莉夏立雪都放开说了
杨植麟当主持人的大模型圆桌:张鹏罗福莉夏立雪都放开说了
<p>中国大模型顶流都来了!</p> <p>中国大模型顶流罕见同台!这一次是在中关村论坛上。</p>
聚焦最热龙虾话题,月之暗面杨植麟、小米MiMo大模型负责人罗福莉、智谱AI CEO张鹏、无问芯穹联创兼CEO夏立雪,以及香港大学助理教授黄超齐聚一堂,共论agent的下一代演进。
这也是刚发布小米新模型的罗福莉,在公开论坛上的首次露面。
杨植麟还犀利提问智谱张鹏:智谱新模型怎么涨价了?

各位大咖的观点相当硬核,信息密度极高:
罗福莉:中国大模型团队的优势,不在于算力,而在“算力受限下的最优解能力”。超长上下文是模型“越用越好用”的前提,只有达到100万甚至1000万上下文,才能实现真正的模型自迭代。
张鹏:OpenClaw是脚手架;模型从简单对话到真正能干活,背后消耗的token是十倍甚至百倍,所以新模型涨价是回归正常商业价值。
夏立雪:从一月底开始,token调用量每两周翻一倍,到现在已增长十倍。上次见到这个速度还是3G,手机流量快速普及的时候;真正的AGI时代到来,连基础设施本身也会是智能体。
黄超:未来很多软件可能不再以人类为中心,因为人类需要GUI,但很多系统可能会越来越偏向agent-native,也就是原生面向agent使用。
以下附上对话实录,为提升可读性,量子位在不改变原意的前提下做了适当调整。
对话实录
龙虾的使用体验和技术演进
杨植麟:我们邀请到了各位重磅的嘉宾,覆盖了不同的层面,从底层的算力的上面的agent层,很高兴今天能跟大家一起来探讨一下。最主要的关键词是开源,还有agent。
我们从第一个问题开始,这个问题是给所有人。现在最流行的OpenClaw,大家日常使用觉得最有想象力或者印象深刻的是什么?从技术的角度来看,如何看待今天OpenClaw和agent的演进?

张鹏:OpenClaw我很早就开始玩了,毕竟也是程序员出身,玩这个东西还是有一些自己的体验。
我觉得它最大的突破点在于,这件事情不再是程序员或者极客们的专利,普通人也可以方便地使用顶尖模型的能力。
所以我现在更愿意把OpenClaw称作脚手架。它提供的是一种可能性,在模型的基础上搭起了一个个牢固的、很方便的,但是又很灵活的脚手架。
大家可以按照自己的意愿去使用底层模型提供的一些新奇的东西。原来自己的想法受限,自己不会写代码,今天终于通过很简单的交流就把它完成。这对我来说是一个非常大的一个冲击。
夏立雪:我最开始用它的时候其实不太适应,因为我习惯于跟大模型聊天的交流方式,会觉得它响应慢、不像对话。
后来我意识到一个问题:它和之前的聊天机器人有一个很大的不一样——它应该是能够帮我完成大型任务的一个人。当我开始给他更复杂的任务的时候,我发现其实它能够做的很好。
这件事情对我来说有一个很大的感触:模型从最开始用于对话沟通,到现在变成一个agent,能够帮你去完成任务,它对于整个AI的想象空间已经做了一个很大提升。
但与此同时,它对整个系统能力的要求也显著提高。这也是我一开始觉得它“卡”的原因。作为基础设施厂商,我看到的是agent的兴起对整个系统生态带来了更多机遇和挑战。因为要支撑这样的增长,我们现有资源面临巨大压力。
就拿我们公司来说,从一月底开始,基本上每两周我们的token量就翻一番,现在基本上翻到10倍。上次见到这个速度还是3G,手机流量快速增长的时候。
所以我现在的感觉是,现在的token使用量,有点像当年每月100兆手机流量的早期阶段。在这种情况下,我们所有资源都需要更好的优化和整合,让更多人都能用得起、用得上这种能力。
作为基础设施提供方,我对这个时代是非常激动的。这里面有大量需要优化的环节,也有很多值得探索和尝试的方向。

罗福莉:我个人把这类agent框架看作是一个非常革命性、颠覆性的事件。
我身边很多深度coding的人,可能第一选择还是Claude Code。但只有用过OpenClaw的人会独特地感受到,它其实有很多agent框架上的设计是领先于Claude Code的。包括最近Claude Code很多更新,其实都是在靠近OpenClaw。
我自己使用的话,我感觉这个框架更多是想象力随时随地的扩展。用Claude Code我只能在桌面上去延展创意,但是在OpenClaw可以随时随地延展创意。
我发现OpenClaw的核心价值在于两点:第一是开源,开源非常有利于整个社区深入参与、重视、改进,投入agent框架,这是一个非常重要的前置条件。
第二是它重新定义了模型能力的上下限。像OpenClaw、Claude Code这样的agent框架,它很大一个价值是把国内可能没有非常接近闭源模型,但是水平还是在次闭源模型赛道上的模型,上限给拉到非常高。
在绝大部分的场景,我们发现它的任务完成度已经非常接近Claude最新的模型。同时它又把下限保证得非常好,因为可以靠harness系统、skills体系等设计,保证任务完成准确率。从基座大模型的角度来说,它是保证了基座大模型的下限,拉升了上限。
此外,OpenClaw给整个社区带来的价值是,它让大家发现原来在大模型外的这一层,更重要的agent这一层,有非常多的想象力。
我看到最近社区有更多除了研究员以外的人,参与到AGI的变革当中,也有更多人去接触agent框架、harness等等。一定程度说是替代自己的工作,也在释放自己的时间,去做更有想象力的事情。
黄超:首先从交互模式上来讲,为什么OpenClaw会爆火呢?第一是给了大家“活人感”。
我们做agent也有一两年了,但之前包括Cursor、Claude Code这些agent的,其实给人感觉更强的是工具感。
OpenClaw的交互模式,以IM软件嵌入的方式,可以让大家更有自己想象中的“贾维斯”的感觉。
另外一个启发是它的架构本身,像agent loop这样一种非常简单、但又非常高效的框架,再一次被证明是成立的。
它让我们重新思考,我们是否需要一个all in one、非常强大的智能体,能够帮我们做很多事情;还是需要一个轻量级操作系统或者脚手架一样的小管家。
它带来的是可以通过一个小的Openclaw或者是龙虾的生态,让整个社区有玩起来的心态,撬动了整个生态里面所有的工具。
包括skills、harness,越来越多的人可以去设计面向OpenClaw这样的系统里的应用,赋能各行各业。这天然和整个的开源生态结合得非常好。
“智谱新模型怎么涨价了?”
杨植麟:顺着这个话题,想问一下张总,最近智谱也发布了新的GLM-5 Turbo模型,对agent能力有很大增强。能不能给大家介绍一下这个新模型和其他模型的不同之处,以及背后的提价策略,反映了什么样的市场趋势?
张鹏:好,这是个很好的问题,前两天确实我们也紧急更新了一波。这其实是我们整个发展目标当中的一个阶段,我们提前放出来。
最主要的目的,还是主打从原来的简单对话到干活。也是刚才各位讲的非常赞同的一点,OpenClaw能从简单地聊天,到真的能够干活。
干活背后的能力要求是非常高的,它需要自己做规划、不断的尝试,不断地压缩上下文、debug等等,还涉及到多模态信息的处理。这对模型本身能力的要求,其实跟传统的对话模型是不一样的,所以GLM-5 Turbo在这方面做了专门的加强。

你刚才提到的长程、7×24小时,如何能够不停地自己去loop这个事,这里面是做了一些工作。另外刚才也提到token消耗量的问题,你让聪明的模型干复杂的任务,我认为其实token的消耗量是非常巨大的。可能一般人体会不出来,他只会看到自己的账单上那个钱在不断掉。
所以这方面我们也做一些优化,在面临复杂任务的时候,它可能有更高的效率完成这些事情,主要在这些方面做了一些优化。但本质上模型架构还是一个多任务协同的通用模型的架构,只是在能力上有一些偏向性的加强。
那么提价其实也很顺畅,现在不再是简单地问一个问题它去回答,背后有思考的任务,很多任务它通过写代码的方式跟底层的基础设施打交道,还要去debug,随时改正自己的错误。
其实这个消耗量非常大,完成一个任务的工作量是原来简单回答一个问题的token量的十倍甚至百倍,所以成本上是有一定提高的。
模型也变得更大了,它的推理成本也相应的提高了,所以回归到正常的商业价值上面。长期靠低价竞争也不利于整个行业的发展,这是我们的一个考量,也让我们能够在商业化的落地上有良性循环,不断优化模型的能力,更持续地给大家提供更好的模型和相应的功能。
token量暴增对Infra来说意味着什么
杨植麟:非常好的分享。现在随着开源模型的发展,以及推理算力的提升,我感觉也开始形成一个生态。各种各样的开源模型可以在各种各样的推理算力下,给用户提供更多的价值。
随着token量的爆炸,现在逐渐从训练时代变成了推理时代。所以想请教一下立雪,从Infra的层面,推理时代对于无问来说意味着什么?
夏立雪:我们是诞生在AI时代的一个基础设施厂商,这段时间也在积极推进合作,让大家能够把我们的token工厂更高效地用起来。
我们一直都在思考一件事情:AGI时代需要的基础设施会是什么样子,我们怎么一步步在这个过程中实现它和推演它。我现在也是做好了充分的准备,也看到了短期、中期和长期不同阶段,我们需要解决的问题。
当前的问题,其实就是刚刚大家聊到的,现在OpenClaw带来的token量暴增,对系统效率带来了更大的优化需求。价格增长也是大家在需求上的一种解决方式,我们一直以来都是从软硬件协同的方式去布局和解决的,包括接入了能够看到的几乎所有种类的计算芯片,国内十几种芯片和几十个不同的算力集群都连接起来。

这样我们能够解决AI系统中算力资源的紧缺问题,因为当资源不足的时候,最好的办法就是第一把能够用的资源都用起来,第二让每一个token都用在刀刃上,让每一个资源都能发挥出最大价值。所以在这个时代,我们目前要解决的就是如何进一步打造更高效的系统产品。
我们做了很多的优化,包括让模型和硬件上的显存,各种各样的技术进行最优质的适配。包括我们也在探索,能否在最新的理论结构和硬件结构下,能够进行一些更深入的管理。
解决脚下的效率问题,我们还只是打造了功能的标准化,打造了一个token工厂。但是面向agent时代,我认为这是不够的。
就像刚刚说的,agent更像是一个人,你能够交给他一个任务。我很坚定地认为,当前很多云计算时代的基础设施,其实是为服务一个程序,服务一个人类工程师所设计的,而不是为AI设计。
这有点像我们做了一个基础设施,它上面有一个接口,这个接口是为人类工程师做的,在上面要再包一层去接入agent,这种方式其实是用人的操作能力限制了agent的发挥空间。
我举个例子,比如说agent能够做到秒到毫秒级别去思考和发起任务,这件事情在基层的k8s这些能力上,其实是没有做好准备的。因为人类发起的任务是分钟级别,我们其实需要进一步的能力,我们将它称作agentic的、更智慧化的工厂。这个是我们现在正在做的事情。
从更长远的未来,真正AGI的时代到来,连基础设施都应该是一个智能体。我们自己所打造的这套工厂本身,也应该能够自我进化、自我迭代,它能够形成一个自主的组织。相当于它有一个CEO,可能是一个claw在管理整个基础设施,然后根据它的AI客户的需求,自己去提需求,迭代自己的技术。
所以我们也在思考,如何让agent和agent通信。基础设施和AI的发展不应该是一个隔离的状态,接受一个需求就去制作,而是应该是产生一种化学反应。这才是我认为真正做到软硬协同,做到这种算法和新设施协同。这也是无问芯穹一直想实现的使命。
中国团队做大模型有何独特优势
杨植麟:接下来想问问福莉,小米最近也发布了新的模型,开源了一些背后的技术,我觉得对这个社区做出了很大的贡献。所以想问一下,小米在做大模型方面,你觉得会有什么独特的优势?
罗福莉:我们先抛开”小米在做大模型有什么独特优势“这个话题,我更想谈一下中国团队在做大模型上的优势,我觉得这个话题具备更广泛的价值。
大概两年前,我看到中国的基座大模型团队已经开始一个非常好的突破——我们怎么在有限的算力,尤其是在NVLink互联带宽受限的情况下,怎么突破限制,去做一些看起来像是在为效率妥协、但本质上却是模型结构创新的工作。比如DeepSeek V2、V3系列中的细粒度MoE和MLA等。

由这样的创新引发的是其实一个变革。这个变革就是我们怎么在算力有限的情况下,去发挥最高的智能水平。我觉得这个是由DeepSeek带给所有国内的基座大模型团队的一个勇气、一个信心。
今天国产芯片,尤其是推理芯片和训练芯片,不再受这个限制,但是我们能看到在这样的限制下,催生了我们对于更高的训练效率、更低的推理效率的模型结构的全新探索。
比如最近出现的hybrid sparse、linear attention等结构方向。包括DeepSeek的相关探索,Kimi的相关方案,以及小米面向下一代模型结构所做的一些研究。它们都指向同一个问题:当我们进入agent时代之后,模型结构到底应该如何进一步演化。
我为什么认为结构创新如此重要?因为刚才我们一直在讨论OpenClaw。只要你真正用过OpenClaw,就会发现它往往是“越用越好用,越用越聪明”。而它成立的一个前提,就是推理阶段必须拥有足够长的context。
Long context其实已经是一个被讨论了很久的话题,但直到今天,大家才真正开始意识到:不是模型做不到百万级甚至千万级上下文,而是如果推理成本太高、速度太慢,这件事就没有现实价值。
所以,真正关键的问题是:你能不能在100万甚至1000万级context的情况下,把推理成本打下来,把速度提上去。只有在这种前提下,用户才会愿意把真正具有高生产力价值的任务交给模型,模型也才有机会在长上下文环境中完成更高复杂度的任务。
甚至可以说,只有到了1000万级、上亿级上下文的阶段,我们才可能真正看到模型的自我迭代能力被释放出来。
所谓模型的自我迭代,就是它能够在一个复杂环境里,依靠超强的上下文能力,完成对自身的持续进化。这个进化既可能发生在框架层,也可能发生在模型参数层。因为在我看来,长上下文本身其实就是对参数能力的一种外延和增强。
所以,未来真正的竞争会是一个全方位的竞争:一方面,你能不能做出原生适配长上下文的模型架构;另一方面,你能不能在推理侧真正把long-context efficiency做出来。除此之外,还包括你能否在预训练阶段就把这类架构打牢,以及在后训练阶段,能不能把模型在真实长程任务上的稳定性和能力上限继续往上推。
我们现在也在思考,怎样构造更有效的学习算法;怎样采集在100 万、1000万、甚至更长上下文里,真正具有长期依赖关系的文本;以及怎样结合复杂环境,生成高质量的轨迹数据。这些,都是我们正在持续推进的事情。
但我能看到的更长期趋势是:随着大模型本身在飞速进步,再叠加agent框架的加持,推理需求一定会继续迅速增长。就像刚才立雪提到的,过去一段时间里,token需求已经增长了接近十倍。
那么今年,整个token需求会不会增长到一百倍?这其实已经把竞争带到了另一个维度:不仅是模型之间的竞争,也是算力、推理芯片,甚至能源层面的竞争。
所以,如果大家继续深入思考这个问题,我相信我也会从各位身上学到更多。
agent值得重点关注的方向
杨植麟:非常有价值的分享。下面想问一下黄超,你也开发了一些非常有影响力的agent项目,包括像nanobrowser这样的项目,在社区里也积累了很多用户和粉丝。想请你谈谈,从技术或者应用层面来看,接下来有哪些值得重点关注的方向?
黄超:感谢植麟。我觉得,如果把agent技术抽象出来,核心大致有几个模块:planning、memory和 tool use。
先说planning。我觉得现在最大的问题,仍然出现在长程任务和复杂上下文上。比如一个任务可能需要500步,甚至更多步骤,很多模型未必能够做好规划。
我认为,本质上还是因为模型不具备足够的隐性知识。尤其是在很多复杂的垂直领域,这个问题会更加突出。未来一个很重要的方向,是把已有的复杂任务知识更系统地固化到模型中。

当然,从skills的角度来看,包括harness在内的很多机制,本质上也是在缓解planning过程中带来的错误。因为高质量的skills,其实就是在帮助模型完成一些本来较难的任务。这是planning这一部分。
再说memory。我的感受是,memory始终会面临一些根本性问题,比如信息压缩不准确、表达失真等。随着长程任务和复杂场景越来越多,memory的需求也会迅速膨胀,这本身就会给整个系统带来很大压力。
但现在,包括各种龙虾在内,很多系统采用的memory方案其实都还比较简单,例如基于文件系统、Markdown文件,或者通过共享文件的方式来管理memory。我觉得未来的memory很可能会走向分层设计,同时也要想办法让它更加通用。
因为说实话,当前的memory机制其实很难做到真正的通用。比如coding场景、deep research场景、多模态场景,它们的数据模态差异都非常大。如何针对这些不同类型的memory做更好的检索和索引,并进一步提高效率,我觉得这会一直是一个关键方向。
另外一点是,OpenClaw这类系统把创建agent的门槛大幅降低之后,未来可能不会只有一个agent。比如我们已经看到,Kimi也在尝试agent swarm这样的机制。也就是说,未来每个人可能拥有的不是一个“龙虾”,而是一群“龙虾”。
而一群agent所带来的上下文规模,相比单个agent会大得多。这也会进一步加大memory的压力。现在其实还没有一套特别成熟的机制,去管理这种多agent带来的海量上下文。尤其是在复杂coding、科研发现这类任务中,不管是对模型本身,还是对整个agent架构,压力都会很大。
最后是tool use。我觉得在这一块,现在整个skill生态仍然存在不少问题。MCP当年暴露出来的一些问题,其实在今天依然存在,比如质量缺乏保障,以及潜在的安全风险。
现在虽然skill很多,但高质量的skill其实仍然偏少。低质量的skill会显著影响agent完成任务的效果;与此同时,skills本身也可能存在恶意注入等问题。
所以在这一块,我觉得很大程度上还是需要依靠整个社区,一起把skills 生态建设得更好。甚至进一步思考,怎样让系统在执行过程中演化出新的skills。
总的来说,我觉得无论是planning、memory,还是skills,都是当前一线最现实的痛点,也都是未来非常重要的演进方向。
一个词描述接下来12个月大模型的发展趋势
杨植麟:可以看到,刚才两位嘉宾其实是从不同视角讨论了同一个问题。
随着任务复杂度不断提升,上下文规模也会迅速膨胀。一方面,模型层面可以继续提升原生上下文长度;另一方面,在agent和harness层面,像刚才提到的planning、memory以及各类辅助机制,也能够帮助模型在既有能力边界内支撑更复杂的任务。我觉得这两个方向接下来会进一步产生化学反应,从而提升系统完成复杂任务的能力。
最后,我们做一个开放式展望。想请各位用一个词,来描述接下来12个月大模型发展的趋势,以及你们的期待。
黄超:说实话,在 AI领域,12个月听起来都已经很遥远了,甚至很难判断12个月之后会发展成什么样。但如果一定要用一个词来概括,我会选“生态”。
我觉得现在OpenClaw让整个社区非常活跃,这是一个很好的开始。但未来agent真正重要的,不只是成为个人助手,而是要进一步转化为真正能一起工作的“打工人”,或者说coworker。
现在很多人使用它,可能更多还是出于新鲜感,或者觉得好玩。但未来,只有当这些“龙虾”真正沉淀下来,成为大家稳定的生产工具、协作伙伴,这件事才算真正跑通。
而这件事离不开生态的共同建设。开源在这里面非常重要。因为只有把相关的技术探索、模型能力、工具能力持续开放出来,整个生态才可能共同推进。无论是模型本身的迭代,还是skills平台的演进,或者各种工具链的完善,我觉得都需要围绕agent去建立一个更好的生态。
从我自己的观察来看,未来一个很明显的问题是:软件到底还是不是主要给人用的?我觉得未必。未来很多软件可能不再以人类为中心,因为人类需要GUI,但很多系统可能会越来越偏向agent-native,也就是原生面向agent使用。
这样一来,人类可能只会保留那些真正让自己感到愉悦的交互,而大量真正执行性的工作,会逐渐转移给agent。所以我觉得,现在整个生态其实已经在发生变化:从GUI、MCP,逐渐转向CLI这种模式。
接下来,不管是软件系统、数据结构,还是各种技术栈,本质上都需要朝着agent-native的方向重构。只有这样,整个agent生态的发展才会更加丰富。

罗福莉:我觉得,把这个问题收缩到一年的尺度非常有意义。因为如果把时间拉到五年,我觉得AGI已经实现了。如果要用一个词来概括接下来一年里AGI进程中最关键的一件事,我会选“自进化”。
虽然这个词听起来有一点抽象,但我最近对它有了更具体、也更务实的理解。过去一年,大家已经多次提到这件事,但直到最近,我才真正开始感受到,“自进化”这件事其实已经开始具备比较可行的实现路径。
其中一个很重要的原因在于,随着模型能力增强,我们逐渐意识到,在过去那种单纯对话式的范式下,预训练模型的上限其实并没有被真正发挥出来。而今天,这个上限正在被agent框架逐步激活。
我们现在已经摸到这个边界了。尤其是当模型开始执行更长时间的任务时,我们会发现,它其实能够自己学习、自己进化。一个很简单的实验是:在现有框架上,叠加一个可验证的目标约束,再给它设置一个 loop,让它持续围绕这个目标进行迭代优化。你就会发现,模型会不断拿出更优的方案。
如果这种自进化机制可以持续运转,那么它的潜力会非常大。现在其实很多国内模型已经能够稳定跑上一到两天了。当然,这和任务难度有关。比如在一些科研任务中,模型去探索更优的结构设计,因为这类任务存在明确的评估标准,例如更低的PPL,这就意味着它具备可验证性。在这种确定性较强的任务上,我们已经看到,模型能够自主优化并持续执行两三天。
所以从我的角度来看,自进化是一个真正可能创造新东西的方向。它不是简单地替代人类已有的生产力,而是像顶尖科学家一样,去探索世界上原本还不存在的东西。一年前,我还会觉得这个过程大概要三到五年;但到了最近,我反而觉得这个时间窗口应该缩短到一到两年。
也就是说,我们可能很快就能看到:在一个很强的自进化agent框架加持下,大模型对科学研究带来至少指数级的加速。
因为我最近已经很明显地观察到,我们组内做大模型研究的同学,他们的workflow本身就是高度不确定、又高度依赖创造力的。而在这种情况下,借助Claude Code,再结合非常顶尖的模型,研究效率基本上已经可以提升接近十倍。
所以我非常期待这种范式未来能够辐射到更广泛的学科和领域。我觉得,这会是一件非常重要的事情。
夏立雪:我的关键词是“可持续”。因为我看到,整个行业的发展仍处在一个长期演进的过程中,我们也希望它具备长久的生命力。从基础设施角度看,一个非常现实的问题是,资源终究是有限的,就像我们过去谈“可持续发展”时反复强调的那样。
我们现在作为一家token工厂,能否持续、稳定、大规模地向外提供可用的token,让顶尖模型真正持续服务更多下游场景,这是我最关注的问题。
因此,我们也需要把视角进一步放宽到整个生态:从最早的能源转化,到算力,再到token,最终转化为GDP,形成一条可以持续进行经济化迭代的完整链路。
而且,我们不只是要把国内各种算力资源真正用起来,也在尝试把这些能力输出到海外,让全球资源能够更好地打通和整合。
所以我所说的“可持续”,其实也包括把具有中国特色的token经济学真正做起来。过去我们讲的是Made in China。大家会发现,我们能够把中国具备成本优势的制造能力,转化为优质商品并输出到全球。
今天我们想做的,有点像AI Made in China。也就是说,把中国在能源等方面的优势,通过token工厂持续转化为高质量的token,并输出到全球,最终成为全球的token工厂。这是我希望在今年看到的,中国为世界人工智能发展带来的价值。
张鹏:我尽量简短一点。前面大家可能都在仰望星空,那我就稍微落地一些。我认为,未来12个月最关键的问题,可能还是算力。
因为刚才大家已经提到,不管是模型能力,还是智能体框架,确实都在显著提升创造力和生产效率,很多场景下甚至可以带来十倍级的效率提升。但前提是,大家得用得起,也用得上。不能因为算力不够,用户提了一个问题,结果模型想了半天还给不出答案,这显然是不行的。
也正因为如此,我们很多研究进展,包括很多原本想做的事情,事实上都会受到制约。前两年业界有一句话,叫“讲卡伤感情,没卡没感情”。我觉得,今天某种程度上又回到了这个阶段,只不过这一次的背景已经不一样了。
因为我们现在正在真正转向推理阶段,而之所以会转向推理阶段,是因为需求正在爆发,而且是十倍、百倍地爆发。刚才也提到,过去一段时间需求可能已经增长了十倍,但真实需求也许是一百倍,那还有大量需求没有被满足。这个问题怎么办?我想,这可能需要我们一起想办法。谢谢。
杨植麟:好,感谢各位的精彩分享,谢谢大家。
版权所有,未经授权不得以任何形式转载及使用,违者必究。
Related Articles
Mark Zuckerberg is reportedly building an AI clone to replace him in meetings
Skip to main contentThe AI version of Zuckerberg is trained on his mannerisms, tone, and public statements, according to a report from the Financial Times.The AI version of Zuckerberg is trained on his...
今年最火的AI产品,不止龙虾|榜单申报中
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400"> 2026-04-13 ...
Sam Altman reportedly targeted in second attack
Jess Weatherbed is a news writer focused on creative industries, computing, and internet culture. Jess started her career at TechRadar, covering news and hardware reviews.Sam Altman was seemingly targeted by...
入职Meta的吴翼,清华叉院官网已撤其教职信息
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400"> 2026-04-13 ...