Press "Enter" to skip to content

波士顿大学的研究人员发布了鸭嘴兽家族的精调LLMs:实现基础LLMs的廉价、快速和强大的改进

波士顿大学的研究人员发布了鸭嘴兽家族的精调LLMs:实现基础LLMs的廉价、快速和强大的改进 四海 第1张波士顿大学的研究人员发布了鸭嘴兽家族的精调LLMs:实现基础LLMs的廉价、快速和强大的改进 四海 第2张

大型语言模型(LLM)席卷世界。这些超高效和高效的模型是人工智能的现代奇迹。它们具备理解上下文、生成文本和连贯对话的能力,已经能够重新定义人与机器之间的沟通。研究人员一直致力于通过一种被称为参数高效调整(PEFT)的过程改善基础大型语言模型的性能,该过程涉及在小而强大的Open-Platypus数据集上优化LLM。

最近,来自波士顿大学的研究人员团队推出了Platypus,这是一组独特的改进和结合的大型语言模型,其性能无与伦比,并且目前在HuggingFace的Open LLM排行榜上保持领先地位。精心策划的数据集Open-Platypus是其中的基石之一,该数据集经过精心挑选,从各种其他免费数据集中选择出来,并且已经向公众开放。它是更大数据集的较小子集,专注于改善LLM性能的关键要素。

在利用特定领域信息的同时,团队的目标是保持预训练LLM的强大先验知识,并对LoRA模块进行微调和合并。通过微调,可以将模型定制为特定任务,同时保留初始训练中积累的更全面的知识。当合并LoRA模块时,将多个组件结合在一起,产生更强大的LLM。由于协同作用,模型的潜在潜力和专业领域知识可以被揭示出来。

工作的一个关键方面是对测试数据的严格验证工作以及识别训练数据中的潜在污染。一些全面的检查支持Platypus系列模型的可靠性和准确性,并且披露此验证过程的方法可能作为进一步的现场研究指南。

Platypus系列模型覆盖了各种模型大小,在量化LLM指标方面表现出色。它在全球Open LLM排行榜上名列前茅,这一壮举证明了该策略的有效性。团队分享了他们的模型在使用较小部分的微调数据和计算资源时与其他最先进的微调LLM一样出色的性能。例如,一个13B的Platypus模型只需使用一张A100 GPU和仅25k个问题就可以在令人瞩目的5小时内成功训练。这种令人难以置信的效率凸显了Open-Platypus数据集的优秀水平,并为该领域的进一步发展铺平了道路。

贡献可以总结如下:

  1. 引入了Open-Platypus,这是一个包含11个公共文本数据集的紧凑数据集,旨在增强LLM的STEM和逻辑知识。
  1. 这个主要由人设计的问题组成的数据集,在最小的微调时间和成本下提供了强大的性能。
  1. 团队分享了排除类似数据以减小数据集大小和冗余的过程的描述。
  1. 探索了LLM训练集中数据污染的挑战以及数据过滤过程。
  1. 分享了针对专业微调LoRA模块的选择和合并方法的解释,为提高LLM的整体性能做出了贡献。
Leave a Reply

Your email address will not be published. Required fields are marked *