雙維一致性:平衡自適應推理時擴展中的計算預算與推理質量
大型語言模型在複雜推理任務中展現出卓越能力,但推理時擴展策略常陷入採樣預算與推理質量難以兼顧的困境。現有方法將採樣寬度(廣度)與深度視為正交目標,導致寬度共識機制易強化幻覺,深度剪枝則可能過早截斷有效的複雜推理鏈。本文提出雙維一致性(DDC)框架,通過耦合置信度加權貝葉斯聚合與趨勢感知分層剪枝策略,實現路徑質量與自適應終止的統一。DDC能動態識別並集中計算資源於高質量推理路徑,有效過濾幻覺同時加速共識達成。在五個基準數據集上的實驗表明,DDC在保持甚至超越強基線模型準確性的同時,將Token消耗降低超過十倍,為大規模語言模型的高效部署提供了新範式。