生成效率也有提升
北大李戈课题组 投稿
量子位 | 公众号 QbitAI
代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。
北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。
在部分模型上,相比于单独使用SFT,CodeDPO能够将模型的HumanEval得分再多提升10个百分点,最高增幅接近1/3。
监督微调(SFT)等现有训练方法,尽管提升了代码质量,但在代码生成过程中存在关键局限——没有完全训练模型在正确与错误解决方案之间做出偏好选择。
当采用SFT方法训练模型时,随着偏好输出的可能性增加,生成不理想输出的概率也随之上升,导致性能出现瓶颈。
为解决这一问题,北京大学李戈教授团队与字节跳动合作,CodeDPO因此而生。
该框架将偏好学习融入代码模型训练中,利用代码自验证机制,显著提升代码生成的准确性和执行效率。
SFT对代码生成效果的提升存在局限
代码生成任务,即根据自然语言描述自动生成代码,正日益受到广泛关注。
大模型在大规模数据集上进行了充分的训练,在这一领域展现出强大的能力。
这些代码大模型通常会进一步通过指令监督微调(SFT)等方法进行微调,以最大限度提升其代码生成能力。
然而,尽管SFT方法提升了模型的代码生成效果,但其并未完全训练模型在正确与错误解决方案之间做出偏好选择。
以Phi-2-2.7B模型为例,在其后训练过程中,不同正确性和效率的代码生成概率的变化情况如下图所示。
传统的SFT策略难以教会模型更倾向于生成正确解决方案,而非错误或执行缓慢的方案。
因此,在代码模型的后训练中更新训练策略,对于改进这些代码模型以应对各种代码生成任务至关重要。
本文提出新型代码生成优化框架CodeDPO,将偏好学习融入代码模型训练中,基于两个关键因素——正确性和效率——定义了代码偏好。
其中,正确性指代码是否准确解决问题,而效率是指衡量代码运行的速度。
研究团队期望在代码模型的训练过程中,提升模型对正确、高效代码的偏好性。
训练代码模型代码偏好
如图所示,CodeDPO方法包含四个关键步骤:
其中,自验证评分根据生成代码是否通过测试进行迭代更新。
(如上图所示,经过两次迭代后,代码-1的评分从1变为1.75再至2.7,因其通过更可靠的测试并在每次更新中获得更高评分,表明其正确的概率更大)
代码自验证机制
CodeDPO 通过自验证机制从真实代码库构建数据集,其中代码和测试用例被同时生成并用于评估。
团队假设,能被更多代码片段执行的测试更为可靠,而通过更多测试的代码则更有可能是正确的。
为此,CodeDPO采用了一套自验证过程:
每个代码片段和测试用例首先获得一个自验证分数,随后使用一套类PageRank的算法进行迭代更新。
该算法通过考虑交叉验证中的关系,来调整每个代码片段和测试的可信分数,优先基于正确性和效率选择解决方案。
在初始阶段,所有代码片段和测试用例的自验证得分均设为1。
随着验证过程的进行,代码和测试用例的得分会根据通过率逐步更新。具体而言,测试用例被更多的代码片段通过,它的自验证得分就会越高;
通过越多高可信度测试用例的代码片段,其自验证得分也越高。自验证得分的更新公式如下:
其中,d为阻尼因子,Link(c,t)表示代码片段c是否通过测试用例t。
经过多次迭代后,评分逐步收敛,最终反映了代码片段和测试用例的正确性质量。
除了代码正确性,代码的执行效率也是代码生成模型优化的重要指标。
在 CodeDPO 中,团队通过记录每个代码片段在测试用例中的执行时间,来优化其执行效率。
然而,并非所有测试用例都能准确反映代码的执行效率。
为了确保效率评估的可靠性,该团队选择在正确性优化阶段评分最高的代码片段所通过的测试用例,作为“可信测试集”,以此作为效率评估的标准。
对于通过可信测试集的代码片段,执行时间越短,其效率评分越高。
最终,这些效率较高的代码片段将被用于训练数据集中,以进一步优化模型生成代码的执行效率。
CodeDPO的最终数据集,包含了从正确性优化与执行效率优化阶段收集到的数据。
通过整合两方面的数据集,确保了模型不仅能生成正确的代码,还能生成高效的代码解决方案。
完整的数据构造流程如下图所示:
准确性与效率均有提升
测试结果显示,经过CodeDPO优化后,代码模型的生成准确率和效率,都获得了一定提升。
代码准确性实验
研究团队在HumanEval(+),MBPP(+)和DS-1000三个数据集上进行了广泛实验,涵盖8种主流代码生成模型,包含Base模型和SFT模型。
团队观察到CodeDPO在所有模型上均带来了显著提升,无论其初始性能如何。
特别值得一提的是,在DeepSeekCoder-6.7B的基础上,配合已有的SFT策略(MagiCoder-S-DS-6.7B),以及本文CodeDPO的增强,最终模型在HumanEval上达到了83.5%的通过率。
此外,CodeDPO在更具挑战性的HumanEval+上也展现出显著进步,证明了其在更严格评估下的鲁棒性。
得益于CodeDPO的数据构建策略,构建一个可靠的偏好数据集,帮助模型倾向于高质量输出,从而实现更可靠的代码生成。
CodeDPO在代码模型的后期训练阶段发挥着关键作用,显著提升了整体性能。
在DS-1000数据集上,该团队进一步评估了CodeDPO在不同Python库中的表现。
需要注意的是,在数据构建过程中,并未融入特定Python库的先验知识。
尽管在Torch和TensorFlow下团队观察到了轻微的性能下降,可能是由于这些库在数据集构建中的占比较低。
然而,CodeDPO总体上显示出对其各自基线模型的性能提升。
DS-1000在数据格式和评估的编程技能方面与HumanEval和MBPP等基准有所不同,其数据构造过程确保其几乎不被任何模型的训练集所包含,从而使得团队在DS-1000上观察到的改进具有可靠性。
这些结果表明,CodeDPO不仅仅适应于HumanEval等标准编程基准,也证明了CodeDPO能够在更复杂和多样化的场景中提升模型的编程能力。
代码执行效率实验
对于代码执行效率这一问题,该团队通过测量生成代码的执行时间并计算加速比来评估。
同时团队还评估了应用CodeDPO前后代码优化百分比,其中程序若比基线快至少10%则视为已优化。
这些指标基于在应用CodeDPO前后都能被解决的编程问题所构成的交集上来进行实验。
团队选择HumanEval+和MBPP+进行评估,因其test case的构造显著扩展了测试用例的多样性,使得这两个增强数据集涵盖了各种边缘情况。
下图展示了多次实验结果的分布情况。
CodeDPO持续提升代码性能,使生成的代码平均加速1.25至1.45倍,约20%-45%的生成代码解决方案得到了改进,证实了其在提升代码效率方面的有效性。
消融实验
进一步地,作者探讨了CodeDPO提出的自验证机制得到的排序分数,对于最终代码生成效果的影响。
实验中选择了一些其他的常见排序策略,如:
实验结果表明,本文提出的自验证机制以及计算得到的排序分数,在确保偏好数据集构建的正确性和可靠性方面起着至关重要的作用,显著提升了CodeDPO框架的性能。
文章还探讨了不同偏好优化策略(DPO、KTO和SFT)对代码生成模型性能的影响。
SFT训练策略采用构建的数据集中最佳的代码解决方案。
在KTO训练策略中,研究团队在框架中用KTO替代了DPO。
下图结果显示,在这些策略中,DPO表现最佳。
得益于新型的数据构建方法,团队能够获得分布均衡的正负偏好对,从而增强了DPO中的对比机制。
CodeDPO的框架不仅验证了自生成、验证机制和偏好学习在代码生成领域的有效性,还为未来更大规模的代码偏好优化奠定了坚实基础。
CodeDPO的特色在于,不需要有大量优质的测试用例,减少了对外部资源的依赖,使得该框架能够在高质量测试数据可能稀少的现实场景中优化代码模型。
作者认为,随着技术的不断发展,CodeDPO有望在实际应用中帮助开发团队生成更优质、更符合需求的代码,显著提升软件的可靠性与交付质量。
作者简介
本文的通讯作者是北京大学计算机学院长聘教授李戈。
第一作者为李戈教授课题组博士生张克驰,本科毕业于北京大学信息科学技术学院,研究方向为智能化软件工程、代码表示与代码生成。
他曾以第一作者在自然语言处理、软件工程等领域的国际会议上发表多篇论文,曾获得2023年ACM杰出论文奖(ACM SIGSOFT Distinguished Paper Award in International Conference on Program Comprehension)。
论文地址: