

Hugging Face Transformer是Python中非常受欢迎的库,为各种自然语言处理任务提供了非常有用的预训练模型。它以前只支持PyTorch,但现在也支持Tensorflow。Nous-Hermes-Llama2-70b是NLP语言模型,使用了数十万条指令。该模型使用与旧的Hermes模型相同的数据集,以确保在训练模型时没有严重的广泛变化,并且过程变得更加顺利。该模型仍然存在一些缺陷,如较低的幻觉率和缺乏OpenAI审查。
模型训练是在大型数据集上完成的,这些数据集在处理的数据量和样式方面非常高。数据来自不同的来源,并合并为一个数据集,从而在处理的数据集中获得了多样的知识。数据集收集了来自Teknium、Karan4D、Emozilla、Huemin Art和Pygmalion AI等不同来源的数据。模型使用了Alpaca模型进行训练。研究团队对来自自我指导评估数据集的输入进行了人工评估,以评估Alpaca。研究人员收集了这个评估集,并包含了几乎涵盖了所有内容的多样化用户指令的列表。
研究人员还表示,Prompt工程师也将受益于这个已执行的模型。研究人员相信,发布上述资产将使学术界能够对指令跟踪语言模型进行控制科学研究,并最终导致解决该模型中存在的现有缺陷的新技术的出现。部署Alpaca的交互式演示还存在潜在风险,例如更广泛地传播有害内容并降低垃圾邮件的机会。NLP中的垃圾邮件检测技术在这个模型中也起着重要的作用。研究人员了解到,一旦发布模型权重或用户训练其指令跟踪模型,这些缓解措施就可以得到实现。
该项目的未来计划还包括迭代高质量数据并应用技术来去除低质量数据。研究人员还需要对Alpaca进行更严格的评估。他们还将从HELM模型开始,希望能够捕捉更多生成信息。研究人员还希望研究Alpaca的风险,并努力进一步提高其安全性。