Press "Enter" to skip to content

147 search results for "参考资料"

揭秘语言模型中的逆向缩放

一个重要的方面是要考虑到反比例缩放问题,这可能会影响更大的LLM的表现虽然这可能会带来挑战,但也为改进和优化提供了机会通过解决这个问题,我们可以增强这些模型的整体能力,使它们更有效地处理各种任务这些潜在的改进突显了更大的LLM在人工智能领域的价值和潜力

Leave a Comment

如何使用Github?逐步指南

在GitHub上注册的六个步骤 步骤 1:注册GitHub账号 访问他们的网站并点击注册按钮。 填写相关信息,包括您的用户名、电子邮件和密码。 完成后,验证您的电子邮件,您将拥有一个免费的GitHub账号,可用于代码存储库和协作。 https://docs.github.com/en/get-started/quickstart/hello-world 步骤 2:在GitHub上创建一个代码库 在GitHub上创建一个代码库 要为您的项目创建GitHub代码库,请按照以下简单的步骤进行: 1. 在任何GitHub页面的右上角点击“+”符号,然后选择“新建代码库”。 2. 在“代码库名称”框中为您的代码库命名。 3. 在“描述”框中添加简短的描述。 4. 选择您的代码库是公开还是私人。 5. 选中“添加README文件”的选项。 6. 点击“创建代码库”按钮。 此代码库可以用于组织和存储文件、与他人进行协作,并在GitHub上展示您的项目。 https://docs.github.com/en/get-started/quickstart/hello-world…

Leave a Comment

支持向量机(SVM)是什么?

支持向量机(SVM)是一种在机器学习领域中使用的监督学习算法。它主要用于执行分类和回归等任务。该算法可以处理各种任务,例如判断电子邮件是否为垃圾邮件、识别手写字体,甚至在图片中检测人脸。它非常适应性强,能处理大量信息和数据中的复杂关系。 SVM的主要任务是根据特征绘制最佳的分隔线(或平面),以区分不同组的事物。就像在数据集中找到不同类别之间的最佳边界一样。因此,无论是对文本、图像还是其他任何东西进行分类,SVM都是机器学习中的首选工具。 SVM的类型 线性支持向量机 当数据可以通过一条直线轻松分为两组时,线性SVM效果最好。想象一下你的数据就像是纸上的点,你可以画一条直线将它们整齐地分成两个不同的类。也就是说,数据应该是完全线性可分的。 非线性支持向量机 当数据无法通过一条直线分类成两组时,我们就会引入非线性SVM。这种情况下,数据不是线性可分的。在这种情况下,非线性SVM可以派上用场。在现实世界中,数据通常杂乱无章,不遵循简单的规律,这时我们就可以使用非线性SVM及其核技巧。 它是如何工作的? 想象一下,你手上有两组事物,比如绿色和蓝色的点,散落在地板上。SVM的任务是找到一条最佳的直线(或者如果你在三维世界中则是一个平面),将这些点分隔成各自的组。 现在,可能有很多条分隔这些点的直线,对吧?但是SVM会寻找一个特殊的直线——与最接近的绿色点到直线的距离和最接近的蓝色点到直线的距离之间有最大距离的直线。这个距离被称为“间隔”,SVM希望使其尽可能大。 那些在定义直线时起着关键作用的最近的点被称为“支持向量”。SVM专注于这些点,以绘制最佳的直线,使两组之间的空间最大化。 但是,如果你的点没有被一条直线整齐地分开呢?如果它们到处都是?这就是SVM可以使用所谓的“核技巧”将问题提升到一个更高维度空间的地方,这样可以绘制出更复杂的分割曲线或曲面。 用例与应用 1. 垃圾邮件过滤:想象一下,你的电子邮箱里有一堆邮件,其中一些是垃圾邮件,一些则不是。支持向量机(SVM)可以用来创建一个智能过滤器,学会区分垃圾邮件和普通邮件。它会查看邮件的各种特征,比如使用的词语,并绘制一条线来将垃圾邮件与非垃圾邮件分开,保持您的邮箱清洁。 2. 手写识别:如果你希望你的计算机识别不同人的手写。SVM可以做到这一点。通过分析手写字母的特征,比如形状和大小,SVM可以绘制线条或曲线来将一个人的手写与另一个人的手写分开,使其在邮政服务等应用中有用于识别数字。 3. 医学诊断:在医学领域,SVM可以帮助诊断疾病。假设你有关于患者的数据,其中一些患有某种疾病,另一些没有。SVM可以分析各种健康指标,并创建一个边界来区分健康患者和患有该疾病的患者。这可以帮助医生进行更准确的诊断。 4. 图像分类:考虑这样一个场景,你有很多图片,其中一些是猫,一些是狗。SVM可以成为一个英雄,创建一个系统,学会根据颜色、形状或图案等特征区分猫和狗。它绘制一条线(或更复杂的边界)来正确分类新的图片。 5. 股票市场预测:如果你对股票市场感兴趣,SVM可以派上用场。通过分析历史股票数据,考虑交易量和价格变动等各种因素,SVM可以创建一个模型来预测股票的涨跌。 参考资料: https://towardsdatascience.com/support-vector-machine-introduction-to-machine-learning-algorithms-934a444fca47…

Leave a Comment

在检索增强生成(RAG)和微调之间,你应该选择什么?

近几个月来,大型语言模型(LLMs)的受欢迎度显著上升。基于自然语言处理、自然语言理解和自然语言生成的优势,这些模型在几乎每个行业中展示了它们的能力。随着生成式人工智能的引入,这些模型已经被训练成可以像人类一样产生文字回应。 通过着名的GPT模型,OpenAI展示了LLMs的强大能力,并为转型发展铺平了道路。通过微调和检索增强生成(RAG)等方法,提高了AI模型的能力,为更精确和上下文丰富的回应提供了答案。 检索增强生成(RAG) RAG将基于检索和生成的模型结合在一起。与传统生成式模型不同,RAG在不改变基础模型的情况下融入有针对性和当前性的数据,使其能够超越现有知识的边界。 RAG的基本思想是基于特定组织或领域数据构建知识库。随着知识库的定期更新,生成式人工智能可以访问当前和上下文相关的数据。这使得模型能够以更精确、复杂和适合组织需求的方式回应用户输入。 大量动态数据被转换为标准格式,并存储在知识库中。然后,使用嵌入式语言模型对数据进行处理,创建数值表示,并保存在向量数据库中。RAG确保AI系统不仅能产生文字,还能使用最新的和相关的数据。 微调 微调是一种通过对经过预训练的模型进行定制以执行指定动作或显示特定行为的方法。它包括采用已经训练过大量数据点的现有模型,并对其进行修改以实现更具体的目标。可以将擅长生成自然语言内容的预训练模型优化为关注制作笑话、诗歌或摘要。通过微调,开发人员可以将庞大模型的整体知识和技能应用于特定的主题或任务。 微调对于提高特定任务的性能尤其有益。通过通过精心选择的数据集提供专业信息,模型在特定任务中变得熟练,能够产生精确和上下文相关的输出。与从头开始的训练相比,微调大大减少了所需的时间和计算资源,因为开发人员可以利用预先存在的信息。该方法使得模型能够通过适应特定领域来更有效地给出集中的答案。 评估微调和RAG时考虑的因素 RAG通过定期从外部源请求最新数据而无需频繁模型重新训练,在动态数据情况下表现异常出色。而微调则缺乏召回的保证,因此不太可靠。 RAG通过从其他来源获取相关数据增强了LLMs的能力,非常适合需要访问外部知识的应用,如文档摘要、开放域问答和能够从知识库检索数据的聊天机器人。而微调外部信息对于经常更改的数据源可能不可行。 RAG阻止了对较小模型的使用。而微调则提高了小型模型的效能,能够实现更快、更便宜的推理。 RAG可能不会根据所获得的信息自动调整语言风格或领域专业化,因为它主要专注于信息检索。通过微调允许调整行为、写作风格或特定领域知识,能够提供与特定风格或专业领域深度匹配的答案。 RAG通常不容易出现错误的信息,它的每个答案都是基于检索到的信息。微调可能会减少错误信息,但当面对新的刺激时,可能仍会造成虚构的反应。 RAG通过将响应生成分为离散阶段,提供了透明度,并提供了检索数据的信息。微调增加了回答背后逻辑的不透明性。 RAG和微调的用例有何不同? LLMs可以用于多种NLP任务的微调,如文本分类、情感分析、文本生成等,其中主要目标是根据输入理解和产生文本。RAG模型在需要访问外部知识的任务情况下表现出色,如文档摘要、开放域问答和能够从知识库检索数据的聊天机器人。 基于训练数据的RAG和Fine-tuning的区别 在对LLM进行Fine-tuning时,虽然它们不专门使用检索方法,但它们依赖于任务特定的训练材料,这些材料通常是与目标任务匹配的标记示例。另一方面,RAG模型被训练用于检索和生成任务。这需要将显示成功检索和使用外部信息的数据与生成的监督数据进行结合。 架构差异 为了对LLM进行Fine-tuning,通常需要使用诸如GPT等预训练模型,并在任务特定数据上对其进行训练。架构不变,只对模型参数进行微小修改,以最大化特定任务的性能。RAG模型具有混合架构,通过将外部存储模块与基于GPT的transformer式LLM相结合,实现了从知识源(如数据库或文档集合)的有效检索。 结论 总之,在人工智能这个不断变化发展的领域中,选择RAG和Fine-tuning之间的方法取决于应用需求。这些方法的组合可能会导致更复杂、更适应性强的AI系统,随着语言模型的不断发展。 参考资料…

Leave a Comment

来自微软研究院和乔治亚理工学院的研究人员揭示语言模型中幻觉的统计边界

最近,语言模型中出现了一个关键问题,即语言模型(LMs)提供错误信息的高比率,包括对不存在的文章标题的引用。《韦氏词典》将幻觉定义为“由人工智能算法生成的合理但错误或误导性响应”。有一次,提交了他们认为准确无误的法律研究文件的律师面临5000美元的罚款。在医学领域,患者的幻觉可能是致命的,医生担心被控以疏忽罪。此外,媒体广泛报道了幻觉问题,美国总统最近发布了《行政命令》,要求包括针对生成式人工智能系统产生的欺骗性结果的保护在内的措施。 在这项工作中,来自微软研究院和乔治亚理工学院的研究人员提出了校准事实预测器的学习机器(LMs)的幻觉率的统计下界。这揭示了幻觉的特性。这并不意味着幻觉是不可避免的。正如研究小组将讨论的那样,这与实践者越来越多地使用“预训练”程序和“后训练”程序相补充的趋势更加一致,这可以降低幻觉率和校准。LM只是一种对标记序列(即单词或其他字符序列)的概率分布D。任何一个预测每个字符串的LM(这是LM的典型特征)都将必然以正概率产生幻觉。然而,如果此概率较低,则幻觉将不常见。因此,测量幻觉的频率是必要的。 完整序列上的对数概率或给定前面的标记的条件对数概率可以用于等同地表示任何分布D:log D(t1… tm) = Pm i=1 log D(ti | t1 … ti−1)。这看似微不足道的数学等价性有重要的含义。虽然预测和生成有不同的要求,但任何LM都可以用来产生文本或预测自然出现的文本中下一个标记,条件是考虑到前面的标记。例如,考虑以下句子:Alexa Wilkins 上周二去Salumeria吃午饭,因为评论说金枪鱼三明治很棒。一种预测性语言模型可能会建议这样的句子以减少打字。预测性语言模型可能会将三明治作为一个单词进行预测,作为紧接在金枪鱼一词之后的输入,同时还可能出现其他可能的单词,比如沙拉。 然而,如果生成式LM随机制造许多这类句子,那就会是错误的。根据本文的说法,即使在理想条件下,具有强大预测文本能力的语言模型也会产生幻觉。值得注意的是,在现今的 typic 的预训练初始步骤中,生成式LM是为了预测性文本表现而量身定制的。此外,它为幻觉率提供了一个下限,这可能揭示了不同类型事实应该产生幻觉的各种速率。上述例子和可能的参考资料(被研究小组称为5W=谁-吃了什么-何时-哪里-为什么事实)共同拥有的特点是它们都是任意的,即这些事实大部分无法依据规则进行系统认证;也就是说,大部分这些事实无法验证,因为它们不包含在训练数据中。 与可以经过系统认证的事实相对。即使在具有多个理想条件的简化情况下,研究小组也能估算出LM应该产生的幻觉数量。研究小组更喜欢简单而非普遍性,因为他们的下界是统计的,他们的目标是确定LM产生幻觉的潜在源头。他们提出了一种校准到生成模型的自然扩展。他们的想法与LM中先前的校准应用不同,之前的校准是基于标记级别的。由于每个事实可以用各种方式使用自然语言来描述,当评估原始标记概率时,校准标记概率只有在评估原始标记概率时才有用。相反,他们的语义级校准是考虑到文本中信息(事实或幻觉)的位分布。如果LM在概率a ≈ z的情况下,对应于该概率z ∈ [0, 1]中的任何给定概率z的信息在自然出现的语言的一部分中平均出现,则该LM被认为是校准的(最好是从训练数据收集的分布)。…

Leave a Comment

Can't find what you're looking for? Try refining your search: