Press "Enter" to skip to content

NVIDIA AI揭示SteerLM:一种新的人工智能方法,允许用户在推理过程中自定义大型语言模型(LLM)的回复

在不断变化的人工智能领域中,开发人员和用户一直面临着一个挑战:大型语言模型需要更多定制且细致的响应。尽管这些模型(如Llama 2)可以生成类似人类的文本,但它们经常需要提供真正符合个别用户独特需求的答案。现有的方法(如监督微调和基于人类反馈的强化学习)存在一定局限性,导致响应可能更加机械和复杂。

NVIDIA研究部门发布了一项突破性技术,名为SteerLM,该技术承诺解决这些挑战。SteerLM提供了一种创新且用户为中心的方法,用于定制大型语言模型的响应,通过允许用户定义指导模型行为的关键属性,从而对输出具有更多控制。

SteerLM通过四步监督微调过程来运作,简化了对大型语言模型的定制。首先,它使用人工标注的数据集训练属性预测模型,评估诸如有益性、幽默和创造力等特征。然后,它利用该模型对多样化的数据集进行注释,增强了语言模型可访问的数据的多样性。接下来,SteerLM使用属性条件的监督微调,训练模型根据指定的属性生成响应,如感知质量。最后,它通过引导式训练对模型进行优化,产生多样化的响应并进行微调以实现最佳对齐。

SteerLM的一个突出特点是其实时可调性,在推理过程中允许用户对属性进行微调,以满足他们的特定需求。这种灵活性为各种潜在应用开辟了道路,从游戏和教育到可访问性。通过SteerLM,公司可以通过单一模型为多个团队提供个性化能力,而无需为每个不同的应用重新构建模型。

SteerLM的简便性和用户友好性在其指标和性能中体现出来。在实验中,SteerLM 43B在Vicuna基准测试中胜过了现有的基于人类反馈的强化学习模型,如ChatGPT-3.5和Llama 30B RLHF。通过提供一个简单的微调过程,几乎不需要对基础设施和代码进行任何改变,SteerLM以更少的麻烦获得了出色的结果,成为人工智能定制领域的一项重大进展。

NVIDIA通过在其NVIDIA NeMo框架中发布SteerLM的开源软件,迈出了推动先进定制民主化的重要一步。开发人员现在有机会访问代码并尝试使用可在Hugging Face等平台上获得的定制13B Llama 2模型进行此技术。对于那些对训练自己的SteerLM模型感兴趣的人,也提供了详细的说明。

随着大型语言模型的不断演进,像SteerLM这样的解决方案的需求变得越来越重要,以便提供不仅智能而且真正有帮助且符合用户价值观的人工智能。借助SteerLM,人工智能社区在追求更加个性化和适应性的人工智能系统的探索中迈出了重要的一步,开启了定制人工智能的新时代。

Leave a Reply

Your email address will not be published. Required fields are marked *