Transportation Science投稿论文:强化学习+超启发式算法如何将美团外卖配送成本降低12% 外卖配送看似简单——接单、取餐、送餐——但在美团每天超3000万单的规模下,它是地球上最复杂的实时组合优化问题之一。每分钟最高260个新订单涌入,数万名骑手在城市中移动,每个派单决策都会改变整个系统的未来状态。传统的贪心派单策略(总选当前最近的骑手)看似合理,却忽略了一个关键事实:现在的"最优"可能导致30分钟后的"灾难"。 来自Amazon、智利天主教大学、阿道夫·伊巴涅斯大学和悉尼大学的研究团队——Ramón Auad、Felipe Lagos和Tomás Lagos——在提交给Transportation Science(运输科学领域最顶级期刊之一)的论文中,提出了一种融合强化学习与超启发式优化的混合框架,使用美团真实运营数据进行验证。结果:通过"战略性延迟派单",配送成本降低12%,在骑手紧缺的高峰时段效果最为显著。 核心问题:为什么"最近的骑手接最近的单"是个糟糕的策略 外卖平台的核心决策有两个:派单(Dispatching)——哪个骑手接哪个订单;路由(Routing)——骑手按什么顺序取餐送餐。这两个问题高度耦合、动态变化、充满不确定性,在数学上属于NP-hard问题。 传统方法将每个时间窗口独立处理,追求当前时刻的成本最小化。问题在于这种"短视"策略忽略了序贯决策的长期影响:把一个骑手派去远处送单,他就无法覆盖接下来5分钟内在原区域新到的紧急订单;而如果等一等,可能有更近的骑手进入范围,或者可以将多个方向相近的订单合并配送。 论文将这个问题形式化为序贯决策过程(Sequential Decision Process),明确建模了系统状态的动态演化。每个派单决策不仅有即时成本,还会改变未来的骑手分布和订单等待时间。这种建模方式使得"现在不派单、等待更好的匹配机会"成为一个可以被评估和优化的合法策略选择。 技术方案:n-step SARSA + 多臂老虎机超启发式 论文提出的框架由两层组成,精妙地解决了强化学习在组合优化中面临的"动作空间爆炸"问题: 上层:n-step SARSA强化学习。SARSA是一种在线强化学习算法,与更广为人知的Q-learning不同,它学习的是"当前策略下的价值函数"而非"最优策略的价值函数"——在外卖配送这种需要保守、稳定策略的场景中更为合适。n-step扩展让算法能够看到多步未来的回报,而不仅仅是下一步。研究者使用线性价值函数近似来保证可扩展性——虽然神经网络近似可能更精确,但在每分钟260单的实时决策场景中,线性模型的推理速度是必须优先考虑的。 下层:多臂老虎机(MAB)超启发式。这是论文最具独创性的设计。在每个决策点,系统面临的不是"选A还是选B"的简单选择,而是需要在数万种可能的骑手-订单匹配组合中找到好的方案。作者设计了7种专门化的低级启发式规则(如就近匹配、负载均衡、延迟容忍等),然后用多臂老虎机算法动态选择在当前系统状态下最合适的启发式来执行。这种"选择哪个启发式来解决问题"的策略被称为超启发式(Hyper-heuristic),它避免了直接在巨大的动作空间中搜索的计算灾难。 仿真环境:用美团真实数据重建配送世界 论文的另一个重要贡献是基于美团真实运营数据构建的高保真仿真环境。这不是一个简化的玩具模型,而是捕捉了外卖配送的多个关键现实特征: 订单动态:订单到达遵循真实的时间模式——午高峰和晚高峰的到达率差异显著,周末与工作日的分布不同 骑手行为:骑手不是机器人。他们会拒绝某些订单(尤其是远距离、恶劣天气时),有自己的工作区域偏好,上下线时间不一致。论文用机器学习模型预测骑手的接单概率 服务时间随机性:取餐等待时间(餐厅出餐快慢)和配送时间(交通状况、楼层高低)都是随机变量,用梯度提升树(Gradient Boosting)建模预测 时间窗口约束:每个订单都有承诺的送达时间,超时意味着赔付和评分下降 值得注意的是,研究者诚实地指出了一个局限:由于计算资源限制,实验在缩小规模的实例上运行,而非美团的全规模运营。将框架扩展到每分钟260单的全规模场景,仍是未来的研究方向。这种学术诚实在工业界联合论文中尤为可贵。 关键发现:不仅是算法的胜利 论文的实验结果揭示了几个对外卖平台运营具有战略价值的发现: 1. "战略性延迟派单"带来12%成本降低。最反直觉的发现是:不总是立刻派单,反而比立刻派单更高效。算法学会了在某些情况下故意等待——等新骑手进入区域、等方向相近的新订单到来以合并配送、等当前过载区域的压力自然缓解。这12%的成本降低主要来自更智能的"等待vs立刻行动"决策。 2. 高峰+骑手短缺时改善最大。在骑手充足的时段,任何算法都能表现良好——因为供给过剩,选择空间大。真正拉开差距的是极端场景:午高峰11:30-13:00、晚高峰17:30-20:00、恶劣天气导致部分骑手下线。在这些场景中,短视策略导致的"连锁失误"(把骑手派远了→周边缺人→更多订单超时→被迫加急→成本飙升)被强化学习有效避免。 3. 增加10%的骑手比改进算法效果更大。这可能是论文中最具实践价值的发现。研究显示,将骑手数量增加10%带来的成本降低,超过了从基线算法升级到RL框架的提升。这意味着对于外卖平台,运力供给管理(招募、激励、留存骑手)可能比派单算法优化的ROI更高。算法和运力不是替代关系,而是互补关系——最优策略是两者同时投资。 对物流行业的战略启示 1. "延迟决策"是一种被低估的优化手段。在即时物流的压力下,运营团队倾向于"越快派单越好"。但本论文证明,在适当的条件下(有合并机会、有新资源即将到达),有纪律的等待比仓促行动更高效。这个原则不限于外卖——快递分拨、网约车派单、仓库任务分配都可能从"战略性延迟"中获益。 2. 极端场景的表现才是真正的竞争力。所有竞争对手在正常时段都能提供合格的服务。决定用户留存和品牌声誉的,是高峰、恶劣天气、突发事件时的服务质量。将算法优化资源集中在极端场景上,可能比追求平均指标的全面改善更有商业价值。 3. 运力是第一生产力。算法无法凭空创造骑手。无论算法多么精妙,当骑手严重不足时,优化空间有限。对于即时配送平台,骑手招募和留存策略应与技术投资享有同等优先级。最聪明的做法是:用算法优化来提升骑手体验(更合理的路线、更少的无效空跑),从而反过来改善骑手留存。 4. 仿真是通往生产的桥梁。论文构建的高保真仿真环境本身就是一个重要资产。在实际部署RL算法之前,先在仿真中验证——避免了直接在真实订单上"试错"的风险。对于任何考虑将AI引入物流运营的企业,第一步投资应该是构建一个尽可能贴近真实的仿真环境,而非直接部署模型。 信息来源:Auad, R., Lagos, F., & Lagos, T. "Data-Driven Optimization for Meal Delivery: A Reinforcement Learning Approach for Order-Courier Assignment and Routing at Meituan." Submitted to Transportation Science. | Amazon / Universidad Católica del Norte / Universidad Adolfo Ibáñez / University of Sydney | First INFORMS TSL Data-Driven Research Challenge