Press "Enter" to skip to content

四海吧 Posts

AWS vs Azure 云服务终极对决

亚马逊网络服务(Amazon Web Services,AWS)和微软 Azure 是云计算领域的两大巨头。这两家行业领导者之间的竞争引发了“云战”。本文深入比较了 AWS 和 Azure,从功能、优势、劣势、就业机会等方面进行了全面的比较。 什么是 AWS? 亚马逊网络服务(Amazon Web Services,AWS)是亚马逊提供的功能丰富的云计算平台。它提供许多按需服务,包括计算能力、存储选项、数据库、机器学习、分析等等。这些服务使企业和个人能够在没有物理硬件的情况下创建、分发和管理软件应用和服务,提高了云环境的灵活性、可扩展性和可负担性。 什么是 Azure? Azure 是微软提供的云计算平台,提供处理能力、存储、数据库、网络、分析等各种服务。它使企业能够构建、实施和管理基于云的应用和服务,并与微软的软件生态系统实现可扩展性、灵活性和集成。 AWS vs. Azure:概述 让我们看一下 AWS 和 Azure 之间的基本区别:…

Leave a Comment

Adobe Express通过Firefly生成式AI提升用户体验

“Adobe,一个与开创性设计软件同义的名字,再次成为新闻的焦点经过几个月的测试,该公司将其Firefly生成式AI模型整合到Adobe Express中,进一步将该平台转变为一个先进的、由AI驱动的设计工具对于那些不熟悉的人来说,之前被称为Adobe Spark的Adobe Express…”

Leave a Comment

剑桥研究人员正在将不确定性引入机器学习系统中进行开发

在一个不确定的人类洞察力世界中,接受不确定性可能有助于机器和人类更有效、可靠地共同工作。尽管当前的系统被编程为假设人类干预始终准确自信,但这项研究考虑了这种互动中的不确定性。剑桥大学的研究人员团队创建了“UElic”平台,用于收集现实世界中的人类不确定性数据,并展示其在改善模型处理不确定性能力方面的价值。它强调了允许人类表达不确定性在提高机器学习模型可靠性方面的重要性。 研究人员介绍了旨在提高可解释性并实现人类干预以纠正错误的基于概念的模型。它涉及到使用输入(x)、概念(c)和输出(y)进行监督学习,其中概念可以是二进制或分类的,可能包括不确定性。他们使用了一个图像分类数据集,以便人类可以在标记特定图像时提供反馈并指出不确定性。这些模型使用神经网络预测概念,重点关注概念嵌入模型(CEMs)和概念瓶颈模型(CBMs)的扩展。 研究问题探讨了基于概念的模型如何在测试时处理人类不确定性以及它们如何更好地支持人类不确定性和不确定性水平。研究人员使用了一些具有不同不确定性的基准机器学习数据集:Chexpert用于分类胸部X射线,UMNIST由MNIST数字组成,用于数字分类。为此,研究人员在使用鸟类数据集时模拟了不确定性,参与的人类通过将鸟类分类为红色或橙色来表示确定性。 该研究涵盖了受控模拟和真实人类不确定性,调查了粗粒度和细粒度的不确定性表达。成功处理离散不确定性得分的设计选择影响性能,考虑到映射、广泛与狭窄的不确定性以及实例与总体层面的不确定性。研究学者强调了将人类不确定性纳入基于概念的模型的重要性,以及需要像CUB-S这样的综合数据集来研究这些挑战。作者从这项研究中发现一些开放性挑战:(1)人类和机器不确定性的互补性,(2)对待人类(误)校准,以及(3)扩展不确定性引导。研究人员解释了常见基于概念的模型的缺点,并介绍了UElic界面和CUB-S数据集,以促进在人类不确定性干预方面的进一步研究。

Leave a Comment

“Zoom面临客户数据用于AI训练的法律困境”

在一系列新变故中,流行的视频会议平台Zoom卷入了一场涉及使用客户数据训练人工智能(AI)模型的法律困境。争议的焦点在于其最近的条款和条件,引发了用户的愤怒,并引发了与数据隐私和同意相关的重要问题。让我们一起剖析Zoom的数据实践的发展故事以及对其用户和更广泛的数字领域可能产生的影响。 还阅读:Zoom融合人工智能,实现无缝视频会议 欺骗性历史再访:Zoom在安全声明方面的斗争 Zoom与法律纠纷的遭遇并非新现象。三年前,该公司与联邦贸易委员会(FTC)就涉嫌欺骗性营销与安全声明达成了和解。指控源于其加密强度夸大的指责。快进到现在,Zoom正面临另一个涉及隐私政策和使用客户数据进行AI模型训练的法律纠纷。 还阅读:ChatGPT被联邦贸易委员会调查可能存在的危害 隐私争议:一系列事件 最近的争议围绕Zoom的条款和条件中的一项条款展开,该条款于2023年3月添加。一篇Hacker News的帖子揭示了这一条款,似乎允许Zoom在不提供选择退出选项的情况下使用客户数据进行AI模型训练。这一揭示引发了社交媒体平台上的一场愤怒风暴,引发了人们对隐私和数据使用的担忧。 还阅读:在使用生成AI工具时保护您的隐私的6个步骤 解析法律术语:该条款意味着什么? 经过仔细检查,一些专家认为,有争议的“无选择退出”条款仅适用于Zoom所称的“服务生成的数据”。这包括遥测数据、产品使用数据和诊断数据。然而,该条款似乎并不涵盖平台上的所有用户活动和对话。尽管如此,这一争议引发了关于使用客户输入来训练AI模型可能带来的潜在影响的激烈讨论。 还阅读:您在线发布的所有内容现在都属于AI,谷歌宣称 隐私担忧和潜在的岗位冗余 Zoom可能重新利用客户输入来训练AI模型的影响引发了重大担忧。在快速发展的人工智能时代,人们担心这些数据最终可能会导致某些工作变得多余。个人贡献被用于可能影响生计的方式,给情况增加了复杂性。 还阅读:OpenAI首席执行官Sam Altman:AI展示了其威力,工作岌岌可危 欧洲法律环境和GDPR的影响 Zoom的法律困境超出了用户的愤怒。欧盟的数据保护法律,如《通用数据保护条例》(GDPR)和电子隐私指令,开始发挥作用。这些法规为保护用户数据和赋予用户对其信息使用的权利建立了一个框架。这场争议引发了有关Zoom的做法是否符合这些严格的欧盟法律的问题。 还阅读:欧盟的人工智能法案将确定全球AI监管标准,亚洲国家保持谨慎 Zoom的回应:澄清和矛盾 Zoom试图通过发布更新和声明来应对日益增长的争议,澄清其立场。它强调不会在未经同意的情况下使用音频、视频和聊天客户内容来训练AI模型。然而,批评人士认为,Zoom使用的语言仍然不清楚,并且存在解释的余地。在某些情况下,该公司为减轻担忧所做的努力引发了更多的困惑。 法律框架的冲突:GDPR vs. ePrivacy 专家指出,Zoom的行动将美国的数据保护实践与欧盟法律相结合。这导致潜在的矛盾,特别是涉及GDPR中的同意和目的限制原则。这些框架之间的冲突对于Zoom的数据实践是否符合欧洲标准具有影响。 还阅读:美国国会采取行动:两项新法案建议对人工智能进行监管…

Leave a Comment

“视觉语言交叉领域的突破:呈现全视能项目”

推动AI聊天机器人的腾飞,LLMs成为了热门话题。它们在用户定制的自然语言处理功能方面表现出令人惊叹的能力,但似乎缺乏理解视觉世界的能力。为了弥合视觉和语言领域之间的差距,研究人员提出了全知(AS)项目。 全知项目旨在开放式全景视觉识别和理解,旨在创建一个模拟人类认知的视觉系统。”全景”一词指的是在一个视图中包括所有可见的内容。 全知项目包括: 全知1B(AS-1B)数据集覆盖了现实世界中350万个常见和罕见的概念,并且有1322亿个描述这些概念及其属性的标记。 全知模型(ASM)是一个统一的基于位置的图像文本基础模型。该模型由两个关键组成部分组成:一个基于位置的图像标记器和一个基于LLM的解码器。 该数据集包含了超过10亿个区域注释,以各种格式呈现,例如语义标签、位置、问答对和字幕。与以前的视觉识别数据集(如ImageNet和COCO)以及视觉理解数据集(如Visual Genome和Laion-5B)相比,AS-1B数据集因其丰富而多样化的实例级位置注释以及相应的详细对象概念和描述而脱颖而出。 AS模型的体系结构包括多个层次的统一框架,支持图像级别和区域级别的对比和生成图像文本任务。通过利用预训练的LLMs和强大的视觉基础模型(VFMs),该模型在图像文本检索和零分类等判别任务以及视觉问答(VQA)、视觉推理、图像字幕、区域字幕/VQA等生成任务中展现出有希望的性能。此外,研究人员声称,在类别不可知检测器的帮助下,还可以在短语定位和参考表达理解等基础任务中看到潜力。 全知模型(ASM)包括三个关键设计: 基于输入图像和边界框,位置感知图像标记器从图像和区域级别提取特征。 可训练的任务提示被合并到视觉和文本标记的开头,以指导模型区分判别性和生成性任务。 采用基于LLM的解码器,提取判别性任务的视觉和文本特征,并自回归生成响应标记以执行生成任务。 通过分析和比较提出的ASM与基于CLIP的基准模型(展示了GPT-2和3的零射能力)以及领先的多模态大型语言模型(VLLMs)在代表性视觉任务上的表现,进行了广泛的数据分析,包括质量、扩展性、多样性和实验。研究结果突出了我们模型在区域级别的文本生成能力,同时展示了它理解整个图像的能力。人类评估结果表明,我们ASM生成的字幕优于MiniGPT4和LLaVA生成的字幕。 该模型通过使用开放式语言提示和位置进行训练,使其能够在各种视觉和语言任务中具有显著的零射能力,包括区域-文本检索、区域识别、字幕和问答。据研究人员称,这使LLMs拥有了“全知之眼”,并彻底改变了视觉和语言的交叉领域。

Leave a Comment

“具备内置负责任人工智能实践的大型语言模型(LLM)中的提示工程的演变趋势”

编辑注:Jayachandran Ramachandran和Rohit Sroch将于8月22日至23日在ODSC APAC担任演讲嘉宾请务必参加他们的主题演讲:“具备内置负责任人工智能实践的大型语言模型(LLMs)中即将发展的提示工程趋势”变压器架构的出现确实在自然语言处理领域引起了革命…

Leave a Comment

AdaTape 具有自适应计算和动态读写的基础模型

作者:Google研究实习生Fuzhao Xue和研究科学家Mostafa Dehghani 自适应计算是指机器学习系统根据环境变化调整其行为的能力。传统神经网络具有固定的功能和计算能力,即它们对不同输入的处理都花费相同数量的FLOPs,而具有自适应和动态计算的模型会根据输入的复杂性调节其分配给处理每个输入的计算预算。 神经网络中的自适应计算具有两个关键原因的吸引力。首先,引入自适应性的机制提供了归纳偏差,在解决一些具有挑战性的任务中起到关键作用。例如,为不同输入启用不同数量的计算步骤对于解决需要建模不同深度层次的算术问题至关重要。其次,通过动态计算提供的更大灵活性,它使从业者能够调整推理的成本,因为这些模型可以根据需要调整花费更多的FLOPs来处理新的输入。 可以通过使用不同的函数或计算预算来使神经网络具有自适应性。深度神经网络可以被看作是一个根据输入和其参数输出结果的函数。为了实现自适应函数类型,根据输入有选择地激活参数的子集,这个过程被称为条件计算。基于函数类型的自适应性已经在混合专家研究中得到了探索,其中每个输入样本的稀疏激活参数是通过路由确定的。 自适应计算的另一个研究领域涉及动态计算预算。与标准神经网络(如T5、GPT-3、PaLM和ViT)不同,它们的计算预算对于不同样本是固定的,最近的研究表明,自适应计算预算可以提高在转换器无法胜任的任务上的性能。其中许多作品通过使用动态深度来分配计算预算来实现自适应性。例如,提出了自适应计算时间(ACT)算法,为递归神经网络提供自适应的计算预算。通用变压器将ACT算法扩展到变压器中,通过使计算预算依赖于用于每个输入示例或令牌的变压器层数的数量。最近的研究,如PonderNet,在改进动态停止机制的同时采用了类似的方法。 在论文“自适应计算与弹性输入序列”中,我们介绍了一种利用自适应计算的新模型,称为AdaTape。这个模型是基于变压器的架构,它使用一组动态的令牌来创建弹性输入序列,与之前的作品相比,提供了一种独特的适应性视角。AdaTape使用自适应的读带机制来确定根据输入复杂性添加到每个输入的令牌的数量。AdaTape的实现非常简单,提供了一个有效的旋钮,可以在需要时增加准确性,但与其他自适应基线相比,它也更加高效,因为它直接将适应性注入输入序列而不是模型深度。最后,AdaTape在标准任务(如图像分类)和算法任务上提供了更好的性能,同时保持了有利的质量和成本平衡。 可变输入序列的自适应计算变压器 AdaTape同时使用自适应函数类型和动态计算预算。具体而言,在分词后的一批输入序列(例如,从视觉变压器中的图像的非重叠块的线性投影)中,AdaTape使用表示每个输入的向量来动态选择一个可变大小的读带令牌序列。 AdaTape使用一个令牌库,称为“读带库”,用于存储通过自适应的读带机制与模型交互的所有候选读带令牌。我们探索了两种不同的方法来创建读带库:基于输入驱动的令牌库和可学习的令牌库。 基于输入驱动的令牌库的一般思想是从输入中提取一组令牌,并使用与原始模型分词器不同的方法将原始输入映射到一系列输入令牌。这使得可以动态、按需地访问从输入中获取的信息,该信息是使用不同的视角获得的,例如不同的图像分辨率或不同的抽象级别。 在某些情况下,以不同抽象级别进行分词是不可能的,因此无法使用基于输入驱动的读带库,例如在图形变压器中难以进一步分割每个节点的情况。为了解决这个问题,AdaTape通过使用一组可训练向量作为读带令牌提供了一种更通用的生成读带库的方法。这种方法被称为可学习的令牌库,可以看作是一个嵌入层,模型可以根据输入示例的复杂性动态检索令牌。可学习的令牌库使AdaTape能够生成更灵活的读带库,使其能够根据每个输入示例的复杂性动态调整计算预算,例如,更复杂的示例从库中检索更多的令牌,这不仅让模型使用存储在库中的知识,还可以花费更多的FLOPs来处理输入,因为输入现在更大了。 最后,选择的磁带标记被附加到原始输入上,并传递给后续的Transformer层。对于每个Transformer层,相同的多头注意力应用于所有输入和磁带标记。然而,使用了两个不同的前馈网络(FFN):一个用于所有来自原始输入的标记,另一个用于所有磁带标记。我们观察到,对于输入和磁带标记使用独立的前馈网络可以稍微提高质量。 AdaTape概述。对于不同的样本,我们从磁带库中选择一个可变数量的不同标记。磁带库可以由输入驱动,例如通过提取一些额外的细粒度信息,或者可以是一组可训练的向量。自适应磁带读取用于递归地选择不同长度的磁带标记序列,以适应不同的输入。然后,这些标记简单地附加到输入中,并传递给Transformer编码器。 AdaTape提供了有益的归纳偏差 我们在奇偶性任务上评估AdaTape,这对于标准Transformer来说是一个非常具有挑战性的任务,以研究AdaTape中的归纳偏差的影响。在奇偶性任务中,给定一个由1、0和-1组成的序列,模型必须预测序列中1的数量是偶数还是奇数。奇偶性是最简单的非计数自由或周期正则语言,但令人惊讶的是,标准Transformer无法解决这个任务。 奇偶性任务的评估。标准Transformer和通用Transformer都无法执行此任务,两者的性能都与随机猜测基线相同。 尽管在短而简单的序列上评估,但标准Transformer和通用Transformer都无法执行奇偶性任务,因为它们无法在模型内部保持计数器。然而,AdaTape优于所有基线,因为它在其输入选择机制中结合了轻量级的循环,提供了一个归纳偏差,使得隐式地维护计数器成为可能,而这在标准Transformer中是不可能的。 图像分类评估 我们还对图像分类任务评估了AdaTape。为此,我们从头开始在ImageNet-1K上训练了AdaTape。下图显示了AdaTape和基线方法(包括A-ViT以及通用Transformer ViT(UViT和U2T))的准确性与速度(每秒处理的图像数量)之间的关系。在质量和成本的权衡方面,AdaTape比其他自适应Transformer基线表现得更好。在效率方面,参数数量较大的AdaTape模型比较小的基线更快。这样的结果与之前的研究结果一致,显示自适应模型深度架构不适用于许多加速器,如TPU。 我们通过在ImageNet上从头开始训练来评估AdaTape。对于A-ViT,我们不仅报告了论文中的结果,还重新实现了A-ViT的从头开始训练,即A-ViT(我们自己的版本)。 对AdaTape行为的研究 除了在奇偶任务和ImageNet-1K上的性能之外,我们还使用基于输入的bank在JFT-300M验证集上评估了AdaTape的令牌选择行为。为了更好地理解模型的行为,我们将基于输入的bank上的令牌选择结果可视化为热图,其中较浅的颜色表示该位置被更频繁选择。热图显示AdaTape更频繁地选择中心补丁。这与我们的先前知识一致,因为中心补丁通常更具信息量,尤其是在具有自然图像的数据集上,其中主要对象位于图像中央。这个结果突出了AdaTape的智能,它可以有效地识别和优先选择更具信息量的补丁,以提高性能。…

Leave a Comment

2023年最佳代理服务器

代理服务器是在网络上运行的应用程序或网络服务,允许计算机代表它们发出请求。它充当您和服务之间的中间人,即您在计算机上要查看的网站。 代理服务器通常用于用户在浏览网页时隐藏其真实IP地址。 除了允许用户访问被封锁的网站外,代理服务器还可以限制或监控用户,例如未成年人或工作人员。它可以设置为防止用户访问某些网站。您可以使用它来保护您的数据免受窥探,保持在线匿名,并评估内容过滤器的有效性,同时享受改善的网络速度。 以下是顶级代理服务器: Bright Data Bright Data是全球领先的网络数据平台。它为从财富500强企业到学术机构和小企业的各种实体提供可靠的资源。这些组织利用Bright Data提供的高效、可靠和适应性强的解决方案来收集关键的公共网络数据。然后利用这些数据进行研究、监视、数据分析以及增强决策过程。Bright Data拥有遍布195个国家的庞大代理服务器,成功率达到99.99%,拥有超过7200万个真实住宅IP地址的庞大资源。 Ake Ake是一种出色的住宅代理网络,以其可靠性和稳定性而脱颖而出。它通过可靠和可信赖的来源以及大量的住宅IP地址池,为客户提供访问众多地理位置内容的机会。您可以连接到并选择来自150多个不同国家的代理服务器。美国、法国、德国、英国和荷兰都提供了大量的代理服务器选择。在650个位置和150个国家,您可以找到全球应用测试的代理服务器。 Live Proxies Live Proxies为私人住宅和移动代理解决方案设定了行业标准。他们提供高质量、稳定且不受阻的代理,适用于各种用例,并保证最佳的透明度和可靠性。通过轮换和静态住宅IP以及轮换移动IP的多样化,Live Proxies满足了从电子商务、市场研究、品牌保护到SEO/SERP和AdTech的各种需求。他们的代理专属分配,确保在所有网站上保持不受阻的状态,而强大的客户支持和定制解决方案进一步增加了他们的声誉。此外,用户友好的管理仪表板可以轻松查看代理分析。用户可以根据竞争力的价格选择各种灵活的计划,使Live Proxies成为当今数字驱动世界中的宝贵资产。 NodeMaven 与其他供应商不同,NodeMaven使用先进的过滤算法实时筛选其代理IP,然后再将其分配给您。当您连接到NodeMaven提供的代理时,只有在通过先进的质量保证算法后,才会分配给您一个IP地址,这确保了我们95%的IP地址具有良好的记录。 此外,NodeMaven使用混合代理技术,可以保持IP会话长达24小时,比行业平均水平多很多倍。这使它们非常适合在Facebook、Google、eBay、Amazon、LinkedIn等平台上管理帐户。 他们提供来自全球1400多个城市、150多个国家的500多万个住宅IP地址。定价也非常有竞争力,流量可以滚动使用,永不过期。 IPRoyal IPRoyal在195个国家拥有数千个IP地址,其道德获取的住宅代理网络无与伦比。在代理池中使用了8056839个住宅IP地址。使用IPRoyal,您可以获得来自世界上任何国家的真实家庭用户的真实IP地址。无论是专业还是个人,它都非常适合在重要性事项中。 Nimble…

Leave a Comment

波士顿大学的研究人员发布了鸭嘴兽家族的精调LLMs:实现基础LLMs的廉价、快速和强大的改进

大型语言模型(LLM)席卷世界。这些超高效和高效的模型是人工智能的现代奇迹。它们具备理解上下文、生成文本和连贯对话的能力,已经能够重新定义人与机器之间的沟通。研究人员一直致力于通过一种被称为参数高效调整(PEFT)的过程改善基础大型语言模型的性能,该过程涉及在小而强大的Open-Platypus数据集上优化LLM。 最近,来自波士顿大学的研究人员团队推出了Platypus,这是一组独特的改进和结合的大型语言模型,其性能无与伦比,并且目前在HuggingFace的Open LLM排行榜上保持领先地位。精心策划的数据集Open-Platypus是其中的基石之一,该数据集经过精心挑选,从各种其他免费数据集中选择出来,并且已经向公众开放。它是更大数据集的较小子集,专注于改善LLM性能的关键要素。 在利用特定领域信息的同时,团队的目标是保持预训练LLM的强大先验知识,并对LoRA模块进行微调和合并。通过微调,可以将模型定制为特定任务,同时保留初始训练中积累的更全面的知识。当合并LoRA模块时,将多个组件结合在一起,产生更强大的LLM。由于协同作用,模型的潜在潜力和专业领域知识可以被揭示出来。 工作的一个关键方面是对测试数据的严格验证工作以及识别训练数据中的潜在污染。一些全面的检查支持Platypus系列模型的可靠性和准确性,并且披露此验证过程的方法可能作为进一步的现场研究指南。 Platypus系列模型覆盖了各种模型大小,在量化LLM指标方面表现出色。它在全球Open LLM排行榜上名列前茅,这一壮举证明了该策略的有效性。团队分享了他们的模型在使用较小部分的微调数据和计算资源时与其他最先进的微调LLM一样出色的性能。例如,一个13B的Platypus模型只需使用一张A100 GPU和仅25k个问题就可以在令人瞩目的5小时内成功训练。这种令人难以置信的效率凸显了Open-Platypus数据集的优秀水平,并为该领域的进一步发展铺平了道路。 贡献可以总结如下: 引入了Open-Platypus,这是一个包含11个公共文本数据集的紧凑数据集,旨在增强LLM的STEM和逻辑知识。 这个主要由人设计的问题组成的数据集,在最小的微调时间和成本下提供了强大的性能。 团队分享了排除类似数据以减小数据集大小和冗余的过程的描述。 探索了LLM训练集中数据污染的挑战以及数据过滤过程。 分享了针对专业微调LoRA模块的选择和合并方法的解释,为提高LLM的整体性能做出了贡献。

Leave a Comment

这篇人工智能论文提出通过在多种非英语语言中建立语义对齐来增强预训练的LLMs的能力

I had trouble accessing your link so I’m going to try to continue without it. 你有没有尝试在ChatGPT中用英语以外的语言提问?你可能会得到一个奇怪、无关的答案,因为这些模型通常对英语有偏见。如果LLMs可以在任何语言中工作,那不是更容易吗? 中国国家重点实验室的新型软件技术研究人员提出了一种针对非英语语言的预训练LLM。由于预训练语料库和指令调整数据都是英文的,LLMs在非英语语言中的通常性能较差。可以通过持续使用大规模单语数据进行预训练来改善它。 研究人员通过翻译任务对LLMs进行指令调整,以改善两种语言之间的对应关系,并使用跨语言通用任务来提高指令的能力。他们使用LLaMA-7B作为他们的预训练LLM,并考虑了六种与英文字母类似的语言。LLaMA代表大型语言模型元AI。 对于每种语言,使用特定语言的数据获得一个x-LLaMA,然后与LLMs进行进一步比较。这种语言建模需要根据前缀序列预测下一个标记。它需要在大规模语料库和翻译数据上训练LLM。翻译数据是学习语义对齐最有用的资源之一,通过使用人工专家注释的翻译数据来进行指令调整,可以提高LLM的翻译性能。 研究人员使用公开可用的句级翻译数据集构建翻译任务指令数据。这使得他们的方法可扩展、可重复和可扩展到更多语言。他们发现将非英语文本排列在翻译数据的目标侧可以提高LLM在非英语任务上的性能,而不是将其放在源侧。 研究人员使用双语翻译性能作为了解语义对齐的参数。他们发现翻译任务指令数据的规模也极大地影响对齐。他们得出了一个关于翻译性能和数据规模的表达式,其呈指数形式的对数依赖关系。他们发现,与英语相同的语言相比,较不相似的语言需要更多的翻译数据来建立语义对齐。 为了比较x-LLaMA,研究人员设计了Alpaca-7B(一个LLaMA),它使用英语指令进行调整;Parrot-7B,它使用人工注释的翻译数据进行调整;以及Bayling-7B,它使用人工交互翻译进行调整。他们发现,在六种非英语语言中,x-LLaMA的性能优于Alpaca-7B的42.50%。x-LLaMA在非英语任务上的准确性与Alpaca-7B在英语任务上的准确性相同。 最后,这证明了跨语言指令调整是一种有效的方法。他们的方法和发现揭示了为非英语语言开发更强大的LLMs的潜力。

Leave a Comment

AI构建难以想象的抗体:LabGenius对医学工程的新颖方法

在伦敦南部的一个曾经的饼干工厂,如今已经转变成了一个创新的前沿中心。在这里,机器人技术、人工智能和DNA测序相互碰撞,创造出一种具有变革性的医学抗体工程解决方案。在詹姆斯·菲尔德的领导下,LabGenius正在利用人工智能的力量重新定义抗体设计的规则,展示了人工智能推动医学突破的未来。 还可阅读:人工智能与基因:罕见DNA序列的发现 释放抗体的力量 抗体是人体对抗疾病的防线,是自然界在抵御感染方面的哨兵。这些蛋白质链起着守护者的作用,锁定外来入侵者并协调机体消除它们。虽然自20世纪80年代以来制药公司一直在设计合成抗体以治疗癌症和减少器官移植后的排斥反应,但设计抗体的手动过程仍然非常缓慢。 还可阅读:人工智能发现抗击致命细菌的抗生素 人类的挑战:在无尽的可能性中航行 人类蛋白质设计师面临着一个巨大的任务,即从数百万个潜在的氨基酸组合中筛选出每个抗体的完美序列。这个复杂的过程需要精心的实验,通过微调来增强某些属性,同时希望它们不会损害其他属性。LabGenius的创始人兼首席执行官詹姆斯·菲尔德优雅地描述了这个任务:“在这个无限的潜在分子空间中,有一个你想要找到的分子。” 还可阅读:解码生命蓝图:人工智能的基因变革者 愿景成形:LabGenius的诞生 菲尔德的旅程始于2012年,当时他在伦敦帝国理工学院攻读合成生物学的博士学位。随着DNA测序、计算和机器人技术成本的大幅下降,他意识到抗体工程可能发生根本性的变革。LabGenius就是源于这一愿景,将人工智能、机器人技术和DNA测序的融合为自动化抗体发现铺平道路。 革命性的设计过程:人工智能的指导之手 LabGenius利用机器学习算法来引领抗体设计过程。该模型首先识别用于对抗特定疾病的潜在抗体。利用健康和患病细胞的示例,算法深入抗体设计空间,从100,000种可能性中呈现出700多个初始选项。 还可阅读:人工智能承诺开发出反应速度提高128倍的mRNA疫苗 LabGenius的自动化流程:从设计到测试 神奇的过程发生在LabGenius的伯蒙德西实验室,自动化机器人系统和人工智能成为中心。在实验室中,抗体的设计、构建和培养几乎没有人为干预。一系列高端设备引导样本进行测试,使抗体能够生长并接受严格的生物学检测。人工监督确保顺利过渡到下一个阶段。 还可阅读:AI医学诊断是如何工作的? 人工智能的反馈循环:每次迭代都在优化 至关重要的是,人工智能模型会在每轮实验中学习和适应。实验结果会为算法提供信息,增强其对抗体设计复杂细节的理解。随着迭代的进行,模型在充分利用有希望的设计和探索新颖可能性之间取得了微妙的平衡,加速了通向突破性解决方案的旅程。 还可阅读:从试错到精确:AI对高血压治疗的答案 LabGenius的方法:打破传统的束缚 LabGenius的方法与传统的蛋白质工程方法不同。模型不再细化单一设计的微小变化,而是大胆地跨越未知领域。它揭示了人类直觉可能忽视的解决方案,快速而准确地产生结果。 患者的更好结果:最终目标 菲尔德的使命非常明确:为患者提供更强效且副作用更少的抗体治疗。LabGenius的人工智能驱动方法揭示了传统方法可能从未揭示的分子。通过拥抱违反直觉的设计并充分利用人工智能的能力,LabGenius设想了一个让患者受益于人工智能引导下创新医学解决方案的世界。 阅读更多:亚马逊 vs…

Leave a Comment

IBM研究人员推出了一款用于深度学习推理的模拟AI芯片:展示了可扩展混合信号架构的关键构建模块

I had trouble accessing your link so I’m going to try to continue without it. 正在进行的人工智能革命将重塑生活方式和工作场所,深度神经网络(DNN)在其中发挥了关键作用,尤其是基础模型和生成式人工智能的出现。然而,承载这些模型的传统数字计算框架限制了它们的潜在性能和能源效率。虽然出现了专门的人工智能硬件,但许多设计将内存和处理单元分开,导致数据洗牌和效率降低。 IBM研究一直致力于寻找创新的方法来重新构想人工智能计算,从而提出了模拟内存计算或模拟人工智能的概念。这种方法从生物大脑中的神经网络中汲取灵感,其中突触强度控制神经元之间的通信。模拟人工智能使用纳米级电阻器件(如相变存储器)将突触权重存储为电导值。相变存储器设备在非晶态和晶态之间转换,编码一系列值,并实现具有非易失性的权重的本地存储。 IBM研究在最近的《自然电子学》出版物中取得了使模拟人工智能成为现实的重要进展。他们推出了一款先进的混合信号模拟人工智能芯片,专为各种DNN推理任务量身定制。该芯片在IBM的奥尔巴尼纳米技术中心制造,具有64个模拟内存计算核心,每个核心都有一个256×256的交叉栅阵突触单元。集成的紧凑型基于时间的模拟-数字转换器实现了模拟和数字域之间的无缝切换。此外,每个核心内的数字处理单元处理基本的神经元激活函数和缩放操作。 该芯片的架构使每个核心能够处理与DNN层相关的计算。突触权重以模拟电导值的形式编码在相变存储器设备中。一个全局的数字处理单元位于芯片的中心,管理着特定神经网络执行所必需的复杂操作。芯片的数字通信路径连接了所有的瓷砖和中央的数字处理单元。 在性能方面,该芯片在CIFAR-10图像数据集上展示了令人印象深刻的92.81%的准确率,标志着模拟内存计算的重要成就。该研究将模拟内存计算与数字处理单元和数字通信结构无缝集成,从而实现了更高效的计算引擎。该芯片的每单位面积的吉博操作每秒(GOPS)吞吐量超过了以往基于电阻性存储器的内存计算芯片的15倍以上,同时保持能源效率。 借助模拟到数字转换器、乘积累加计算能力和数字计算块的突破,IBM研究实现了快速和低功耗的模拟人工智能推理加速器芯片所需的许多关键组件。以前提出的加速器架构将众多模拟内存计算瓷砖与通过并行2D网格连接的专用数字计算核心相结合。这种愿景和硬件感知的训练技术预计将在可预见的未来在各种模型上提供与软件等效的神经网络准确性。

Leave a Comment

IBM和NASA联手创建地球科学GPT:解码我们星球的奥秘

在一个数据主导的时代,管理由NASA的地球科学任务产生的庞大信息量是一个巨大的挑战。IBM、HuggingFace和NASA的合作,造就了一个开源的地理空间基础模型。这个创新旨在赋予研究人员和爱好者们轻松地浏览海量数据的能力。它还为新一波气候和地球科学人工智能应用提供了蓝图。 还阅读: 数据驱动的挑战:驯服数据洪流 NASA的地球科学任务的规模令人惊叹。预计到2024年,可能会创造出25万太字节的数据。这个庞大的数据仓库的规模提高了对管理和利用这些丰富信息的巧妙解决方案的需求。为此,科技巨头IBM、AI平台HuggingFace和庄严的NASA之间形成了一种合作努力。 IBM的开源地理空间基础模型 这个联盟的核心是通过AI驱动的探索引入一个新的理解时代。通过利用IBM的Watsonx.ai的能力和一年的NASA的Harmonized Landsat Sentinel-2卫星数据(HLS),诞生了一个卓越的开源地理空间基础模型。这个能够探索广阔数据档案的模型是开创性的气候和地球科学人工智能应用的基础。 还阅读: GPT启发的原型:NASA开拓气候探索 合作围绕着创建一个AI原型,从强大的GPT模型的能力中汲取灵感。这个原型旨在解码我们星球复杂奥秘,承诺带来可能革命性改变我们对环境挑战的认识和应对方式的洞察。该项目将IBM的基础模型努力与NASA的地球卫星数据库相结合。通过这样做,它旨在扩大人工智能在加速气候变化研究等关键领域的影响。 还阅读: 精细调整以提高性能 通过合作实现模型的精细调整是一项令人瞩目的成就。通过使用标记数据对洪水和烧伤疤痕制图等任务进行模型能力的提升,团队成功地将其性能提高了令人印象深刻的15%,与现有的最先进模型相比。此外,这种提升只使用了一半的数据量。 开源技术在塑造我们星球未来中的作用 IBM研究AI副总裁Sriram Raghavan强调了开源技术在推动重大发现中的关键作用,特别是在应对气候变化领域。他赞扬了IBM的适应性基础模型努力、NASA宝贵的卫星数据仓库和HuggingFace领先的开源人工智能平台之间的协同效应。这种合作体现了协作精神,旨在加速解决方案的发展,促进一个更可持续的星球。 还阅读: 我们的观点 这个开源地理空间基础模型的出现标志着解开地球科学的神秘之网的重要步骤。它预示着一个理解我们星球复杂动态和应对紧迫挑战的新时代即将到来。当我们拥抱这个新资源时,我们也拥抱了一个更加明智未来的承诺,其中技术、协作和好奇心交汇在一起,塑造出与自然和谐共处的世界。

Leave a Comment

苹果和英属哥伦比亚大学的AI研究人员提出了FaceLit:一种用于神经网络3D可重塑人脸的新型AI框架

近年来,对于从2D图像中获取3D生成模型的任务引起了越来越多的兴趣。随着神经辐射场(NeRF)的出现,从3D模型产生的图像质量得到了显著提升,与2D模型实现的逼真程度相媲美。虽然一些特定的方法专注于3D表示,以确保第三维度的一致性,但这往往以降低图像逼真度为代价。然而,最近的研究表明,混合方法可以克服这个限制,从而增强图像逼真度。然而,这些模型的一个显著缺点在于场景元素的交织,包括几何、外观和光照,这妨碍了用户定义的控制。 已经提出了各种方法来解开这种复杂性。然而,它们要求有效实施时需要多视图图像的集合。不幸的是,当处理在真实世界条件下拍摄的图像时,这个要求带来了困难。虽然一些努力放宽了这个条件,包括来自不同场景的图片,但仍然需要多个视角的同一对象。此外,这些方法缺乏生成能力,并且需要对每个不同的对象进行单独训练,使它们无法创建新对象。在考虑生成方法时,几何和照明的交织特性仍然具有挑战性。 所提出的名为FaceLit的框架介绍了一种仅从图像中获取面部的解缠3D表示的方法。 下图展示了该架构的概述。 该方法的核心是构建一个渲染流水线,强制遵守已建立的物理光照模型,类似于以前的工作,以适应3D生成建模原则。此外,该框架利用现有的照明和姿势估计工具。 基于物理的照明模型被集成到最近开发的神经体积渲染流水线EG3D中,该流水线使用三平面组件从2D图像生成用于体积渲染的深度特征。这里使用了球谐函数。随后的训练侧重于逼真性,并利用该框架固有的物理遵循性来生成逼真图像。这种与物理原理的一致性自然地促进了对解缠3D生成模型的获取。 关键的要素是将基于物理的渲染原则与神经体积渲染结合起来。正如之前所述,该策略旨在与现有的可用照明估计器无缝集成,利用球谐函数。在这个框架中,场景的漫反射和高光方面由球谐系数来描述,这些系数与表面法线和反射矢量相关联。这些系数通过神经网络生成,包括漫反射反射、材料高光反射和法线向量。然而,这种看似简单的设置有效地解开了照明与渲染过程之间的关系。 所提出的方法在三个数据集FFHQ、CelebA-HQ和MetFaces上进行了实施和测试。根据作者的说法,这产生了最先进的FID分数,将该方法置于3D感知生成模型的前沿。下面报告了所讨论方法产生的一些结果。 这是FaceLit的摘要,它是一个新的人工智能框架,可以仅通过图像获取人脸的分离的3D表示。如果您感兴趣并希望了解更多信息,请随时参考下面引用的链接。

Leave a Comment

稳定AI发布日语StableLM Alpha:日语语言模型的跃进

在增强日本生成式人工智能领域迈出重要一步的同时,Stability AI,即稳定AI,是稳定扩散背后的开创性生成式AI公司,推出了其首个日语语言模型(LM),名为日语StableLM Alpha。这一重要发布引起了广泛关注,因为该公司声称其LM是面向日本说话者的最精通的公开可用模型。这一主张通过与其他四个日语LM进行全面基准评估得到了证实。 这个新推出的日语StableLM Alpha,拥有70亿参数的令人印象深刻的架构,是Stability AI在技术进步方面的承诺的明证。该模型是一种多功能高性能工具,适用于各种语言任务。它在多个分类中胜过了同行,成为行业领导者。 日语StableLM Base Alpha 7B商业版本计划在广泛认可的Apache License 2.0下发布。这个专门的模型是通过对包括7500亿个日语和英语文本令牌在内的庞大数据集进行广泛训练而精心打造的,这些数据集是从在线资源库中精心挑选的。 这一成就的基础还得归功于协作努力。Stability AI利用了EleutherAI Polyglot项目的日本团队的专业知识,最终形成了由Stability AI的日本社区创造的数据集。这一集体努力还得益于使用了EleutherAI的GPT-NeoX软件的扩展版本,这是Stability AI开发过程的基石。 作为一项并行创新,日语StableLM Instruct Alpha 7B又是一个显著的里程碑。这个模型主要用于研究目的,专门用于研究应用。它通过一种称为有监督微调(SFT)的方法,利用多个开放数据集,展示了遵循用户指令的独特能力。 这些模型通过EleutherAI的语言模型评估工具进行了严格的评估。这些模型在句子分类、句对分类、问答和句子摘要等各个领域经受了审查,并取得了令人印象深刻的平均得分54.71%。Stability AI认为,这一性能指标无疑将日语StableLM Instruct Alpha…

Leave a Comment