我嘞个豆!中国企业牵头,ICLR这场Workshop被挤爆了
总共收到118篇,在顶会Workshop里算高产了,并且邀请了127位专家学者参与审稿。

别的不说,咱先看下Long Papers和Short Papers两个赛道各自诞生的最佳论文。
Long Papers最佳论文:
研究的是:当多家AI厂商同时争用户、用户偏好又五花八门时,怎么让模型真正对齐到每个人的真实利益?
结论很反直觉:不用靠强行监管或统一标准,市场竞争本身就会逼着AI越做越贴合每个用户——个性化本身就是一种对齐机制。

Short Papers最佳论文:
研究的是:让多个大模型一起参与“竞争”(比如定价、出价),它们真的会老老实实各玩各的吗?
结论也挺让人后背发凉:仅靠优化提示词,LLM智能体就会自发“达成默契”,在不显式通信的情况下默契抬高价格、不打价格战——AI市场的“算法合谋”风险,第一次被实打实地证实了。

而除了拿下Long Papers最佳论文的那篇,其余5篇Oral论文也都各有亮点。
第一篇:《Prices, Bids, Values: One ML-Powered Combinatorial Auction to Rule Them All》
一句话总结:通过提出机器学习混合组合拍卖机制MLHCA,让组合拍卖效率损失最多降到1/10,查询次数最多减少58%。
第二篇:《Decision Making under Imperfect Recall: Algorithms and Benchmarks》
一句话总结:智能体“记不住自己做过啥”的决策难题,第一次有了算法解法和评测基准。
第三篇:《AI Realtor: Towards Grounded Persuasive Language Generation for Automated Copywriting》
一句话总结:通过设计一套三模块系统(先挖卖点,再对齐买家偏好,最后做事实核查),成功让大模型给房子写销售文案既能吸引人,又不乱编。
第四篇:《On the Edge of Core (Non-)Emptiness: An Automated Reasoning Approach to Approval-Based Multi-Winner Voting》
一句话总结:投票理论里的一个老坑,被自动化推理工具撬开了。
第五篇:《Post-Training LLMs as Better Decision-Making Agents:
A Regret-Minimization Approach》
一句话总结:通过提出用“后悔最小化”做后训练,补齐了大模型在需要反复决策的场景中容易短视的短板。
而看完整场Workshop,想必你和我一样好奇——
能像桥梁一样连接工业界和学术界,并把专场开进ICLR,阿里妈妈凭什么?
答案,其实并不意外。
只需翻一遍它在机制设计、出价决策智能等方向的“奋斗史”,你就知道,这背后离不开它多年的技术深耕。
阿里妈妈技术深耕
如何准确形容阿里妈妈这几年技术升级的主线呢?
我想关键词一定少不了:AI化、智能化。

机制设计方面,从Neural Auction到CGA,阿里妈妈把广告拍卖这件事:
从“学会怎么排个序”,进化到了“直接生成整张最优广告页”。
传统的广告拍卖机制,比如GSP,本质上是给广告排序——出价高、质量好的排在前面。
但“排序”在数学上不可微(1就是1、2就是2,没有1.1这种中间态),所以AI无法通过梯度学习直接优化它。
因此很长一段时间里,这块主要靠经验规则撑着,学术界走得谨慎,工业界更是不敢让模型端到端地去学。
但阿里妈妈接住了这一棒。
通过提出Neural Auction,阿里妈妈率先给出了“可微的排序计算形式”,这项被学界评为“开创性尝试”的工作,正式打开了端到端学习拍卖机制的大门。
△图源:阿里妈妈公开技术博客
但问题并没有结束。
Neural Auction默认每个广告是独立的,但现实并非如此——
一条广告放在哪个位置、周围是什么广告、同页结构如何,都会影响点击与转化。
这种“排列之间的相互影响”,传统排序模型无法刻画。
于是阿里妈妈进一步换了一个更彻底的思路,做了生成式拍卖(CGA):
不再一条一条地排广告,而是让模型一次性生成整一页广告的最优排布方案,把“怎么排+怎么定价”一起学掉,用一个生成模型去直接拟合整个页面的最优解。
在大规模A/B实验中,CGA不仅显著提升平台收入,也在效果上逼近理论最优拍卖。
后来这项工作还直接被KDD 2025 Research Track接收了。
而这种“用生成式模型一次性搞定全局最优”的思路,也延伸到了智能决策领域。
△图源:阿里妈妈公开技术博客
智能决策核心解决的是广告主怎么出价、怎么赚钱。
过去十年,这件事大致走了三步:从简单规则控制(PID),到用强化学习试着自动调,再到引入更复杂的模型,但结果始终不理想。
这背后核心卡点只有一个——反馈太慢。
广告投放不是下棋,走一步马上知道输赢。广告主投一笔钱,要等几个小时甚至几天才知道ROI是多少。标准RL在这种环境下,学得慢、波动大,所以上线就翻车成了常态。
因此在2023年,阿里妈妈做了一件学术界没人做、工业界更没人敢做的事:
通过提出AIGB(AI-Generated Bidding),把“出价”这件事,重新理解成“生成最优策略”。
以前模型靠反复试,而AIGB是根据广告主的预算和ROI目标,一步一步“生成”一整条出价曲线。
后来在AIGB的框架下,阿里妈妈研发了基于扩散模型的DiffBid,让出价过程变得更平滑稳定。
在自家广告平台实测中,DiffBid能把GMV提升3.6%–5.0%,而且出价曲线更平滑,不会出现“上半场把钱花光、下半场干瞪眼”的情况。
而沿着AIGB这条线,阿里最新的工作AIGB-Pearl,又在“生成”之外加了一只眼睛:
让模型不仅能生成出价策略,还能反过来评估自己生成的策略好不好,再迭代优化。
(这篇论文也被ICLR 2026接收了)

不过还是那句话,如果只是闷头做技术,是开不出ICLR专场的。
技术之外,阿里妈妈这两年在做一件更费劲但更关键的事:把自己做出来的东西逐步开放出去。
我们目前看到的,阿里妈妈举办的各种比赛以及开源,本质上都是它为了开放而做出的努力。
比如在2024年,他们成了唯一一个拥有NeurIPS比赛主办权的国内工业团队,还专门设了AIGB相关赛道,让全球研究者在同一个问题上做对比和竞争。
同时也开源了AuctionNet这类大规模模拟竞价数据和系统,解决了一个长期问题:以前做拍卖机制研究,大家手里基本没有真实工业数据,只能靠模拟和假设。现在至少有了一套相对标准的“练习场”。
再加上这次在ICLR开Workshop。
到这里,阿里妈妈的角色,已经从“闷声做技术”的应用方,变成了这个领域的基础设施提供者。
学术圈拿到的是数据集、比赛、Workshop;工业界拿到的是真实的业务收益、可复用的范式、能上线的方案。
而把两边连起来的,是阿里妈妈自己。
版权所有,未经授权不得以任何形式转载及使用,违者必究。