Press "Enter" to skip to content

四海吧 Posts

寡聚体发出警报:TorchServe中存在严重安全漏洞,黑客可能劫持服务器并注入恶意AI模型

大型语言模型和AI模型每天都在日益受到欢迎。即使是防止事故、检测癌症和维护公共安全,我们也必须依赖这些AI应用程序提供最优质的信息。军队和武器也在国际冲突中利用AI。 机器学习(ML)研究在很大程度上受到PyTorch的推动,它作为一种领先的AI平台脱颖而出。尽管PyTorch在研究中被广泛使用,超过90%的ML研究论文使用它,但其知名度使其成为潜在攻击者渗透基于AI的系统的诱人目标。值得注意的是,PyTorch拥有广泛的客户群,包括世界上一些最大的企业,如沃尔玛、亚马逊、OpenAI、特斯拉、Azure、谷歌云、英特尔等。 然而,Oligo Security意外地发现TorchServe的默认配置可能会受到威胁。Oligo发现了一个全新的关键SSRF漏洞,该漏洞在管理界面中允许来自任何域的配置上传,并允许远程代码执行(RCE)。攻击者可以利用ShellTorch运行代码并控制目标服务器。 他们注意到TorchServe存在对恶意模型的不安全反序列化的漏洞,这可能导致远程代码执行。这些漏洞的组合可能导致远程代码执行(RCE)和完全接管,尤其是考虑到大量TorchServe应用程序正面临这些风险,成千上万的实例正暴露于这些风险之中。他们观察到许多公开可用且未受保护的实例容易受到黑客攻击,可能引入恶意AI模型,甚至完全接管服务器。他们强调这可能影响数百万人。由于这些漏洞,世界上的服务器可能受到威胁。因此,世界上一些最大的企业可能立即处于危险之中。 因此,研究人员开发了一个用于在运行环境中检测威胁的安全产品。与可能会忽视某些不希望或不安全的应用程序行为原因的其他工具不同,Oligo调查在使用库的动态环境中可能被忽视的问题。与静态分析解决方案相比,它还可以在运行时检测到任何代码中的异常。这包括使用开源库、专有第三方软件或自定义代码开发的代码。Oligo还识别潜在的风险源,如不安全的配置设置。因此,通过这些漏洞提供的高权限,可以看到、更改、窃取和删除进入和离开目标TorchServe服务器的AI模型和敏感数据。 研究人员强调Oligo的附加优势是其提供低干扰解决方案的能力。在解决漏洞和安全问题时,它并不一定需要全面修补或版本更改,为增强系统安全提供了更简化的方法。

Leave a Comment

该AI论⽂介绍了FELM:对⼤型语⾔模型的事实性评估进⾏基准测试

大型语言模型(LLMs)取得了令人瞩目的成功,在生成式人工智能中引发了范式转变。然而,与LLMs相关的挑战是它们生成不准确的信息或产生幻觉内容的倾向,这对它们的广泛适用性构成了重大障碍。即使是像ChatGPT这样的尖端LLMs也存在这个问题的脆弱性。 对大型语言模型(LLMs)生成的文本真实性的评估正在成为一个重要的研究领域,旨在提高LLM输出的可靠性并向用户提醒潜在错误。然而,负责评估真实性的评估人员也需要适当的评估工具来衡量进展并促进其领域的发展。不幸的是,这方面的研究仍相对未被探索,导致真实性评估员面临重大挑战。 为了弥补这一差距,本研究的作者引入了大型语言模型真实性评估的基准,称为FELM。上面的图片展示了事实性评估系统的示例 – 它可以突出LLMs生成的文本段落中的事实性错误,解释错误,并提供参考来证明决策的合理性。评估基准涉及收集LLMs生成的响应,并以细粒度的方式注释事实性标签。 与以往主要关注世界知识的真实性评估研究(例如来自维基百科的信息)不同,FELM将其重点放在跨多个领域的真实性评估上,涵盖了从广义知识到数学和推理相关内容的领域范围。为了理解和确定文本中可能出现错误的地方,他们逐个检查文本的不同部分。这有助于找到确切的错误位置。他们还给这些错误添加标签,说明是什么类型的错误,并提供链接到其他信息,证明或反驳文本中所说的内容。 然后,在他们的测试中,他们检查使用大型语言模型的不同计算机程序在文本中找到这些错误的能力。他们测试常规程序和一些通过额外工具改进以帮助其思考和更好地找出错误的程序。这些实验的结果显示,尽管检索机制可以帮助真实性评估,但当前的LLMs在准确检测事实性错误方面仍存在不足。 总的来说,这种方法不仅推进了我们对事实性评估的理解,还为不同计算方法在识别文本中的事实性错误方面的有效性提供了宝贵的见解,为增强语言模型及其应用的可靠性的持续努力做出了贡献。

Leave a Comment

与爱尔兰人工智能研究者开发的“空中守护者”见面:该系统使用眼动追踪技术来追踪飞行员的注视点

在自主系统越来越普遍的世界中,确保其安全和性能至关重要。尤其是自主飞行器有潜力在各个行业中引领革命,从交通到监控等等。但是,它们的安全运行仍然是一个重要问题。麻省理工学院的研究人员一直在不断努力提高这些自主系统的能力和安全性。最近,一组研究人员提出了一种新颖的方法,利用视觉注意力来提高自主飞行器的性能和安全性。 自主飞行器是为了在没有人类干预的情况下运行而设计的,依靠先进的算法和传感器进行导航和决策。虽然这些系统提供了许多好处,包括提高效率和降低运营成本,但也带来了独特的挑战。其中一个关键挑战是确保自主飞行器在复杂和动态的环境中可以安全运行。 为了应对这个挑战,研究人员提出了一种新的方法,将视觉注意力作为自主飞行控制的关键因素。研究团队提出了一种协作与人类飞行员合作的守护系统,增强他们的控制力和整体飞行安全性。与传统的自主系统不同,该守护系统积极监测飞行员和自身的注意力模式。 该守护系统基于一个神经网络架构,包括卷积层、密集层和专门用于序贯决策的CfC(从相关性导致因果性)网络。该CfC网络旨在捕捉给定任务的基本因果结构,使其能够理解不同变量之间的关系并做出明智的决策。 这种方法的一个关键创新是使用视觉注意力图。神经网络的VisualBackProp算法生成这些图,并且作为了解飞行过程中飞行员和守护系统注意力聚焦位置的方式。对于守护系统来说,它的注意力图代表它对环境和其中的关键元素的理解。同时,对于飞行员来说,眼动追踪技术测量他们的实际视觉注意力。 当飞行员和守护系统的注意力配置存在显著差异超过预定义的阈值时,守护系统会被触发介入。这意味着如果飞行员的注意力明显偏离了守护系统的期望,守护系统会接管控制以确保飞行操作的安全性。在飞行员可能分心、疲劳或信息过载的情况下,这种干预过程至关重要。 研究团队在模拟和真实环境中进行了实验,评估了他们方法的有效性。守护系统在模拟场景中与人类飞行员进行了对比,结果惊人。没有守护系统的人类飞行员碰撞率为46%。然而,有了守护系统的干预后,碰撞率降至仅为23%,显著提高了飞行安全性。 在涉及四旋翼无人机的真实环境实验中,守护系统再次展示了其效能。人类飞行员指导无人机飞向一个目标,一个红色的露营椅子。当守护系统处于活动状态时,它始终确保飞行的安全性,导致较低的飞行速度和较短的到达最佳飞行轨迹的距离。这减小了与障碍物碰撞的风险,提高了整体飞行安全性。 守护系统的成功突显了视觉注意力在自主系统中的重要性。通过积极监测和了解飞行员和守护系统的注意力聚焦情况,系统可以做出明智决策,提高安全性和性能。这种协作的方法代表了在各种情景中开发可靠、安全运行的自主飞行器系统的重要一步。 总之,研究团队对于利用视觉注意力控制自主飞行器的创新方法在航空工业及其他领域具有巨大的潜力。引入一个基于注意力模式与人类飞行员积极合作的守护系统显著提高了飞行安全性和性能。这种方法可以改变自主飞行器的操作方式,减少事故风险,并为其在各种应用中开辟新的可能性。随着自主系统的不断发展,这类创新对于确保一个更安全、更高效的未来至关重要。

Leave a Comment

推出面向AI的免费“培训和微调以应用于实际生产”的课程 (Tuīchū miànxiàng AI de miǎnfèi péixùn hé wēitiáo yǐ yìngyòng yú shíjì shēngchǎn de kèchéng)

Towards AI非常高兴地宣布免费、综合的课程《训练和微调用于生产的大型语言模型(LLMs)》,这是Gen AI 360的第二个部分的推出

Leave a Comment

Docker发布了“Docker AI”:以上下文感知自动化改变开发者的生产力

在 DockerCon 2023 主题演讲中发布了一项开创性的公告,Docker 推出了 Docker AI,这是他们的首款 AI 动力产品,旨在提升开发者的生产力。这个创新工具汇集了全球 Docker 开发者的集体知识,提供针对特定上下文的自动化指导,以简化开发流程。 Docker 进军 AI 领域代表了一次战略性举措,旨在通过为开发者提供定制的辅助工具,帮助他们应对应用程序开发的复杂性。这一发展与 Docker 为开发者提供尖端的 AI/ML 功能、内容和合作伙伴关系的广泛举措相一致,这些举措旨在将 AI/ML 无缝集成到他们的应用程序中。通过增强现有的工具、内容和服务套件,Docker 旨在提高开发者已有工作流程的效率。 团队对 AI 在代码生成中的影响表示了积极的态度,指出它在源代码编写方面具有变革性的影响。然而,Docker…

Leave a Comment

软件开发的范式转变:GPTConsole的人工智能AI代理开辟新的视野

在一个变化是唯一恒定的行业中,GPTConsole推出了一组具有创新能力的三种AI代理。最前沿的是Pixie,一个能够从零开始构建完整应用程序的AI代理。除了Pixie之外,还有其他两个代理:Chip,旨在像在Stack Overflow主题中咨询知识渊博的同事一样帮助开发人员解决与代码相关的问题,以及Bird,一个精明的社交媒体经理。这些代理不仅增强了全栈开发人员的角色,还暗示了一个未来,其中部分功能的执行可能完全自动化。 Pixie不仅仅是一个代码生成器;它是一个由AI驱动的全栈开发者,可以理解您的需求,为您的项目构建结构,并高效地产出ReactJS代码。借助先进的算法和抽象语法树(AST),它可以无缝地将新代码集成到现有架构中,同时显著减少时间和成本。对于中小企业、个体创业者以及那些被开发压力所负担的人来说,这是一个改变游戏规则的工具。 使用Pixie在5个简单步骤中生成或更新ReactJS应用程序 在深入了解Pixie的广泛功能之前,这里有一个快速入门指南: 第1步:创建您的GPTConsole账户 在GPTConsole的网站上注册一个账户,您将获得访问Pixie的权限。 第2步:安装GPTConsole 在您的终端中运行`yarn global add gpt-console`或`npm i gpt-console -g`。确保您的node版本> 19.2.0。 第3步:登录和初始化 打开一个终端,运行`gpt-console`并登录。您将在可用代理中看到Pixie。 第4步:生成您的React应用 使用您的应用需求向Pixie发送命令,例如`pixie start “我需要一个将文本转换为声音的AI产品的着陆页”`。等待它构建您的应用程序。 访问详情教程,开始使用生成应用程序 步骤 5:更新您的应用程序…

Leave a Comment

来自谷歌和康奈尔大学的研究人员推出DynIBaR:用人工智能彻底改变了动态场景重建

来自谷歌和康奈尔的研究人员的一项新论文介绍了DynlBaR,这是一种生成逼真自由视点渲染的新方法而且据团队表示,这一切都源于一段复杂而动态场景的单个视频近年来,计算机视觉领域见证了令人难以置信的进展…

Leave a Comment

LLM精细调校与PEFT技术

介绍 语言模型,简称LLM,已经席卷了自然语言处理领域。它们是强大的人工智能系统,旨在生成类似于人类的文本、理解和响应自然语言输入。本质上,它们旨在模仿人类的语言理解和生成。让我们开始一段旅程,了解微调LLM的复杂性,并探索改变领域的创新PEFT(Prompt Engineering and Fine Tuning)技术。 学习目标: 理解语言模型中微调的概念。 理解PEFT技术及其重要性。 探索有效系数选择的技术。 理解PEFT技术 首先,让我们解读这个缩略词——PEFT代表参数效率微调。但在这个背景下,参数效率意味着什么,为什么它很重要呢? 在机器学习中,模型实质上是由数以万计的系数或权重构成的复杂数学方程。这些系数决定模型的行为,并使其能够从数据中学习。当我们训练一个机器学习模型时,我们调整这些系数以最小化误差并进行准确的预测。对于可以拥有数十亿参数的LLM来说,在训练期间改变所有参数可能会消耗大量的计算资源和内存。 这就是微调的作用。微调是将已训练好的模型进行微调,以适应特定任务的过程。它假设模型已经具备了对语言的基本理解,并专注于使其在特定领域表现出色。 作为微调的子集,PEFT严肃地考虑了参数效率。与其改变模型的所有系数,PEFT选择其中的一个子集,从而大大减少了计算和内存需求。当训练大型模型(如Falcon 7B)时,这种方法特别有用。 训练、微调和提示工程:主要区别 在深入研究PEFT之前,让我们澄清训练、微调和提示工程之间的区别。这些术语经常被互换使用,但在LLM的背景下具有特定的含义。 训练:当一个模型从头开始创建时,它经历了训练。这涉及调整模型的所有系数或权重,以学习数据中的模式和关系。这就像是将模型教授语言的基础知识。 微调:微调假设模型已经具备了对语言的基本理解(通过训练实现)。它涉及有针对性地进行调整,以使模型适应特定的任务或领域。将其视为对受过良好教育的模型进行细化,以实现特定工作,如回答问题或生成文本。 提示工程:提示工程涉及制作输入提示或问题,引导LLM提供所需的输出。它是根据您的需求定制与模型的交互方式。 PEFT在微调阶段起着重要作用,我们有选择地修改模型的系数,以提高其在特定任务上的性能。 探索LoRA和QLoRA用于系数选择 现在,让我们深入了解PEFT的核心,并了解如何高效选择系数的子集。两种技术,LoRA(低秩采用)和QLoRA(量化+低秩采用),用于实现这一目的。 LoRA(低秩采用):LoRA是一种技术,它认识到模型中的并非所有系数都同等重要。它利用了一些权重对模型产生的影响比其他权重更大的事实。在LoRA中,通过因式分解将大型权重矩阵分为两个较小的矩阵。因子“R”决定选择了多少个系数。通过选择较小的“R”,我们减少了需要进行调整的系数数量,使微调过程更高效。…

Leave a Comment

“前十个创造性 AI 三维物体生成器”

通过强大的AI 3D对象生成器,创建和可视化3D模型变得更加准确、易于访问和高效。无论您是图形设计师还是游戏开发者,根据您的需求来选择最适合您的AI 3D对象生成器。您可以使用只有图片、文字或视频的3D模型进行革命性创作。让我们带您了解前10个AI 3D对象生成器。 什么是AI 3D对象生成? AI 3D对象生成是一种利用AI 3D对象生成器更准确地创建3D模型的过程。这些工具可以帮助您设计3D模型,并以三维方式将您的想法变为现实。您可以从文本到3D生成器、图片到3D对象以及视频到3D模型创建3D对象。每一种需求都有相应的工具。因此,通过这些工具,打开创意的新大门。 前十个AI 3D对象生成器 AI 3D对象生成器为您的所有3D模型设计需求提供了全方位的支持。利用这些工具的最佳功能,您可以创建3D模型,并为您的创意赋予生命。以下是我们为您推荐的前十个AI 3D对象生成器。 1. Spline Spline是AI 3D对象生成器之一,可让用户在其浏览器中塑造交互式网络体验。这是一个非常棒的团队项目工具,具有实时协作功能。 主要特点: 此工具提供广泛的动画和3D建模功能,例如材质层、3D雕刻、物理和游戏控制、3D建模和动画、互动体验以及视频纹理和组件。 您可以探索相机控制、3D矢量编辑、拖放功能和Web浏览器事件的工具。用户可以通过API或网站上传数字媒体,该媒体将自动分析成3D模型。 定价: 基础版:免费 超级版:每月7美元 超级团队版:每个团队编辑者每月9美元…

Leave a Comment

使用Amazon SageMaker Data Wrangler来为Amazon Personalize准备数据

“一个推荐引擎的好坏取决于用于准备它的数据将原始数据转换成适用于模型的格式是为了给最终用户提供更好个性化推荐的关键在本文中,我们将介绍如何准备和导入 MovieLens 数据集,这是由 GroupLens 研究团队准备的数据集…”

Leave a Comment

通过类比提示来增强语言模型以提升推理能力

近年来,语言模型展示了非凡的文字理解和生成能力。然而,尽管这些模型在语言方面有着令人印象深刻的能力,但在复杂的推理任务方面仍然有所欠缺。无论是解决数学问题、生成代码还是推断逻辑结论,传统的语言模型都面临着巨大的挑战。为了应对这个限制,来自Google Deepmind和斯坦福大学的一组研究人员引入了一种名为“类比提示”的突破性技术,以增强语言模型的推理能力。本文探讨了问题,提出的解决方案,类比提示背后的技术以及其对基于人工智能的推理的未来的影响。 语言模型,例如GPT-3.5-turbo,在自然语言理解和生成方面取得了重大进展。它们在语言翻译、文本生成甚至回答事实性问题方面表现出色。然而,这些模型在需要推理的任务上通常需要帮助。考虑以下场景: 一个学生需要在一个涉及在数组的子数组中找到元素的乘积的数学问题上寻求帮助。虽然语言模型可以理解问题陈述,但要提供正确的解决方案需要更深入的推理,具体涉及“前缀乘积算法”。传统的提示可能无法引导模型有效地解决问题。 在深入讨论类比提示之前,了解当前方法及其在解决推理任务时的局限性是非常重要的。研究人员已经探索了零-shot提示(0-shot)和少-shot提示(少-shot CoT)等技术。这些方法提供了预定义的示例或提示,以指导语言模型在推理任务中的工作。 然而,这些现有方法存在一些缺点。它们通常需要大量标记数据,而对于不同领域和语言来说,这可能是很困难的。此外,预定义的示例可能仅在某些情况下与问题完全匹配,从而导致结果不尽如人意。为了应对这些限制,研究团队推出了类比提示。 类比提示在语言模型处理推理任务的方式上代表了一种重大转变。这种方法不依赖于固定的提示或预定义的示例,而是利用语言模型的生成能力来自动生成与每个问题相关的上下文相关的示例。 可以将类比提示想象成语言模型的个性化导师。面对推理任务时,该模型会生成与问题的上下文和要求直接相关的特定示例。例如,当面临涉及前缀乘积算法的数学问题时,模型会生成展示算法应用的示例。 类比提示背后的技术基于GPT-3.5-turbo等现代语言模型的先进能力。这些模型在广泛的数据集上进行训练,并对各种领域和语言有深入的理解。类比提示利用这些知识来生成特定问题的示例。 该过程涉及模型分析问题陈述,并根据其丰富的知识生成相关的示例。这些示例引导模型理解问题的复杂性,并以必要的推理方式处理问题。类比提示缩小了问题陈述和模型理解之间的差距。 类比提示在推理任务中的表现令人印象深刻。实验结果展示了它在多个领域中优于零-shot和少-shot CoT等传统方法的优越性。值得注意的是,该技术在问题解决、代码生成和逻辑推理方面表现出色。 从类比提示中得出的重要结论之一是它与规模更大的语言模型兼容。当与GPT-3.5-turbo等先进模型结合使用时,该方法取得了显著的结果。生成的示例提供了重要优势,使模型能够有效地解决复杂问题。 总之,类比提示代表了增强语言模型推理能力的一种突破性方法。通过为每个问题自动生成上下文相关的示例,该方法弥合了问题陈述和模型理解之间的差距。类比提示在各种领域取得了令人期待的结果,展示了基于人工智能的推理的未来。

Leave a Comment