大型语言模型(LLM)展示了令人印象深刻的自然语言创作和解释能力。这些模型的例子包括GPT、Claude、Palm和Llama。许多应用程序,如聊天机器人、虚拟助手和内容生成系统,广泛使用了这些模型。LLM可以通过提供更直观、更自然的体验,完全改变人与技术的互动方式。代理被定义为能够计划任务、监视环境并采取适当行动响应的自主实体。使用大型语言模型(LLM)或其他AI技术的代理属于此类。 许多框架已经尝试使用LLM进行任务导向型对话,包括Langchain、Semantic Kernel、Transformers Agent、Agents、AutoGen和JARVIS。使用这些框架,用户可以通过用简单的语言提问并获取答案的方式与LLM驱动的机器人进行交流。然而,许多框架存在诸多缺点,限制了它们在数据分析活动和特定领域的情况下的性能。大多数当前框架在处理复杂数据结构(如嵌套列表、字典或数据框)方面,没有原生支持是它们的主要缺点之一。 然而,许多当前框架在处理这些结构时需要帮助,尤其是在不同插件或聊天轮之间共享数据时。在这些情况下,这些框架会将复杂的结构编码为字符串或JSON对象,并将数据存储到磁盘上。这些方法是有效的;然而,特别是在处理大型数据集时,它们可能变得复杂并增加错误率。当前方法无法配置以包括领域知识的能力是另一个缺点。虽然这些框架提供了快速的工程工具和示例,但它们必须提供一种将领域特定信息整合到规划和代码生成过程中的系统化方法。 由于约束的存在,很难根据特定领域需求来控制规划和代码生成过程。许多当前框架面临的另一个问题是它们可能缺乏灵活性,很难适应广泛的用户需求。插件可以处理常见需求,但可能需要帮助来处理临时需求。为每个临时查询编写不同的插件是不可行的。在这些情况下,代理根据用户查询开发独特的代码执行能力变得至关重要。为解决这个问题,需要一种能够平稳地将定制代码执行与插件执行相结合的解决方案。 为了克服这些缺点,微软的研究团队提出了TaskWeaver,这是一个用于创建LLM驱动的自主代理的面向代码的框架。TaskWeaver的独特特性是它能够将用户定义的插件视为可调用的函数,将每个用户请求转换为可执行的代码。TaskWeaver支持复杂的数据结构、灵活的插件使用和动态插件选择,帮助克服其他框架的缺点。它通过利用LLM的编码能力实现复杂逻辑,并通过示例集成领域特定知识。 此外,TaskWeaver为开发人员提供直观的界面,并显著提高了所创建代码的安全执行。研究团队在本文中描述了TaskWeaver的体系结构和实现,并展示了它在不同任务处理方面的出色表现。TaskWeaver为创建具有智能能力的对话代理提供了一个强大而灵活的框架,能够处理具有挑战性的任务并根据特定领域条件进行调整。
Leave a CommentTag: Machine learning
当目标变量受多个信息源的影响时,理解每个信息源对所提供的整体信息的贡献是至关重要(但并不是琐碎的)在这个…
Leave a Comment在2023年,如Alpaca、Falcon、Llama 2和GPT-4这样的大型语言模型(LLMs)的崛起显示出一种向人工智能民主化的趋势
Leave a Comment理解大型语言模型(LLMs)并促进它们的诚实行为对于这些模型展示出的增长能力以及被社会广泛采用而言变得越来越重要。研究人员认为,从模型能够欺骗(将其定义为“在追求真相以外的某种结果时,系统性地诱导错误信念”)的潜力中,出现了新的风险,例如可伸缩的虚假信息、操纵、欺诈、选举干扰,或者是对控制失去的猜测风险。研究表明,即使模型的激活具有必要的信息,它们可能需要更多的不对齐才能产生正确结果。 以往的研究区分了真实和诚实,称前者不做虚假声明,而后者不做自己“不相信”的声明。这个区别有助于理解。因此,模型可能会产生误导性的言论,归因于不对齐以不诚实的方式而不是技能不足。自那时以来,一些研究试图通过深入模型的内部状态来找到真实的表示来解决LLM诚实问题。最近的黑盒技术提议也提出了识别和引发大规模语言模型撒谎的方法。值得注意的是,以前的研究表明,通过强迫模型积极考虑某个概念可以改善对内部模型表示的提取。 此外,在遵循上下文的环境中,模型包括一个“关键”中间层,超过这个层次的真实或错误响应在遵循上下文中往往会发散,这种现象称为“过度思考”。受前期研究的启发,研究人员将关注点从错误标记的上下文学习扩大到故意的不诚实上,在这种情况下,他们给予模型明确的撒谎指令。通过使用探索和机械可解释性的方法,康奈尔大学、宾夕法尼亚大学和马里兰大学的研究团队希望确定和理解模型中哪些层和注意头对这种不诚实负责。 以下是他们的贡献: 1. 研究团队证明,根据真/假问题的显著低于机会准确率确定,LLaMA-2-70b-chat可以被训练撒谎。根据研究小组的说法,这可能非常微妙,必须经过仔细和迅速的工程处理。 2. 通过激活修复和探测,研究团队找到了对不诚实行为至关重要的五个模型层的独立证据。 3. 研究团队只对网络中的46个注意头,即所有注意头的0.9%,进行了有效的因果干预,迫使具有欺骗性的模型真实回答。这些干预方法在多个数据集分割和提示上都是稳健的。 总之,研究团队研究了一个简单的撒谎案例,其中他们给出了关于是否说出真相的LLM指令。他们的研究结果表明,大型模型可以展示不诚实的行为,当要求诚实时产生正确答案,如果被迫撒谎则产生错误的答案。这些发现建立在早期研究的基础上,该研究表明激活探测可以在提示时推广到分布之外。然而,研究小组确实发现,这可能需要通过长时间的提示构建来解决问题,例如模型倾向于在序列中更早地输出“False”标记而不是“True”标记。 通过使用前缀注入,研究团队能够始终诱导撒谎。随后,团队比较了不诚实模型和诚实模型的激活,在其中定位了涉及撒谎的层和注意头。通过使用线性探测来调查这种撒谎行为,研究团队发现诚实和撒谎提示的前期至中期层次在模型表示上是相似的,然后急剧分歧,变得反向并行。这可能表明前期层次应该具有与上下文无关的真实表示,符合一系列文献的要求。激活修复是研究团队用来进一步了解特定层次和注意头工作原理的另一工具。研究人员发现,局部干预可以完全解决在撒谎模型和诚实提示模型之间的不匹配问题。 重要的是,仅通过对46个注意头进行干预,就展示了相当程度的跨数据集和跨提示的韧性。研究团队通过使用一个易于获得的数据集并明确要求模型撒谎,着重研究了撒谎行为,与之前主要考察默认情况下诚实的模型的准确性和完整性的工作形成对比。在这个背景下,研究人员对推动不诚实行为的微妙之处和大规模模型参与不诚实行为的方法有了更多了解。为了确保LLMs在现实世界中的道德和安全应用,研究团队希望在这个领域的更多工作能够提出阻止LLM撒谎的新方法。
Leave a Comment<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-1024×739.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-150×150.png”/><p>来自法国的Datategy SAS和土耳其的Math & AI Institute的研究人员提出了一种最近兴起的多模态架构的潜在方向。他们研究的核心思想是,经过深入研究的命名实体识别(NER)形式可以在多模态大型语言模型(LLM)设置中加以利用。</p><p>LLaVA、Kosmos或AnyMAL等多模态架构最近一直受到关注,并已在实践中展示了其能力。这些模型可以对文本以外的模态数据进行标记化处理,例如图片,并使用外部的模态特定编码器将其嵌入到联合语言空间中。这样,架构可以以交错的方式提供一种指导调整多模态数据混合文本的手段。</p><p>这篇<a href=”https://www.xiaozhuai.com/this-ai-paper-introduces-rmt-which-combines-retnet-and-transformer-revolutionizing-computer-vision.html”>论文</a>提出,这种通用的架构偏好未来可以拓展成一个更雄心勃勃的设置,他们称之为“全模态时代”。与NER的概念相关的“实体”可以想象成这些类型架构的模态。</p><p>例如,目前的LLMs在推断完整的代数推理方面存在困难。虽然正在进行研究以开发“友好于数学”的特定模型或使用外部工具,但这个问题的一个特定的前景可能是将定量值定义为这个框架中的一种模态。另一个例子是可以由特定的时态认知模态编码器处理的隐式和显式的日期和时间实体。</p><p>LLMs在地理空间理解方面也面临很大困难,远远不被认为是“具备地理空间意识”的。此外,还需要处理数值全局坐标,其中在语言嵌入空间中应准确反映邻近和相邻的概念。因此,将位置作为特殊的地理空间模态纳入,同时配备特殊设计的编码器和联合训练,也可以为此问题提供解决方案。除了这些例子,可以作为模态纳入的第一个潜在实体包括人、机构等。</p><p>作者们认为,这种方法有望解决参数化/非参数化知识扩展和上下文长度限制的问题,因为复杂性和信息可以分布到多个模态编码器中。这也可能解决通过模态注入更新信息的问题。研究人员仅提供了这种潜在框架的边界,并讨论了开发基于实体驱动的语言模型的前景和挑战。</p>
Leave a Comment在17世纪,勒内·笛卡尔提出了一个相对新的概念——格言“我思故我在”(“cogito ergo sum”)这个简单的表述成为了西方哲学的基础和…
Leave a Comment“在云平台上汇聚生成式人工智能(Gen AI)服务为银行、金融、保险等领域的行业创新提供了前所未有的机遇”
Leave a Comment尽管ChatGPT打破了一些记录,也引发了关于OpenAI的ChatGPT中使用的个人信息安全性的问题。最近,来自Google DeepMind、华盛顿大学、康奈尔大学、卡内基梅隆大学、加州大学伯克利分校和苏黎世联邦理工学院的研究人员发现了一个可能的问题:通过使用某些指令,可能会诱使ChatGPT泄露敏感用户信息。 在推出两个月内,OpenAI的ChatGPT已经积累了一亿多用户,显示出其日益增长的受欢迎程度。该程序从各种互联网来源中使用了超过3000亿条数据,包括书籍、期刊、网站、帖子和文章。尽管OpenAI已经尽力保护隐私,但常规的帖子和对话会增加一定数量的个人信息,这些信息不应该公开披露。 谷歌研究人员找到了一种欺骗ChatGPT的方法,让它可以访问和透露未经公开的训练数据。他们通过应用指定的关键词提取了超过一万个独特的记忆训练实例。这意味着敌人可能会通过这种方式获取到更多的数据。 研究团队展示了如何通过强迫ChatGPT反复重复一个单词,如“诗”或“公司”,来使模型暴露个人信息。例如,他们可能通过这种方式提取了地址、电话号码和姓名,这可能导致数据泄露。 一些企业已经限制了像ChatGPT这样的大型语言模型的使用,作为对这些担忧的回应。例如,苹果已经禁止其员工使用ChatGPT和其他AI工具。此外,作为预防措施,OpenAI添加了一个功能,允许用户禁用对话历史记录。然而,保留的数据在永久删除之前将保留30天。 谷歌研究人员强调,在为隐私敏感的应用程序部署大型语言模型时,需要额外谨慎。他们的研究结果强调了在开发未来的AI模型和ChatGPT等模型的广泛使用所带来的潜在风险,并对改进安全措施提出了思考。 总之,对ChatGPT中潜在数据漏洞的揭示对用户和开发人员都是一个警示。这种语言模型的广泛使用,与数百万人定期交互,凸显了优先考虑隐私和实施强大保护措施以防止未经授权的数据披露的重要性。
Leave a Comment完成了一个基于图像分割的小型项目(请参见这里)后,我准备转向计算机视觉领域下的另一个常见任务:目标检测目标检测是指…
Leave a Comment在下面我将描述使用cgo在Go和本机C之间进行接口的过程,以及如何使用它来与苹果的Metal性能着色器框架的Objective-C绑定接口,还有如何…
Leave a Comment机器学习在医疗保健领域已经成为一种非常重要的工具,革新了该行业的各个方面。其中之一的主要应用是诊断,机器学习算法分析包括医学图像、基因信息和患者记录在内的大量数据集,以识别模式并进行准确预测。 以前,机器学习模型被用于检测易感染患者并支持感染预防和控制(IPC)计划。这些模型使用了定期收集的大量医学数据,包括电子健康记录(EHR)。虽然经典的机器学习模型在有限的使用案例中可能会显示出有效的结果,但它们无法推广到大规模和长期的EHR数据。 日内瓦大学的研究人员在医疗技术方面取得了突破性进展。他们在医疗保健领域使用了图神经网络(GNN)来检测抗菌药物耐药性(AMR)和多药耐药性(MDR)的肠道杆菌感染。 肠道杆菌通常存在于健康人的肠道中,但如果它们在其他部位定殖并引起感染,对健康非常危险。许多因素导致了医疗环境中这些病原体的增多。 研究人员通过使用图结构对患者和医务人员之间的相互作用进行建模,其中节点及其相互作用形成了描述患者的边。然后,使用图神经网络(GNN)模型对富含临床和时空特征的患者网络进行训练,以学习定植模式。 来自日内瓦大学的教授道格拉斯·特奥多罗表示,核心目标是对医疗环境中的复杂相互作用进行建模,以预测医疗相关感染(HAIs)的传播。该预测结合了关于患者和医务人员的网络信息。他还表示,该研究最重要的信息是分析医疗网络相互作用以提高对HAIs的预测的潜力。该方法可能显著推动医疗环境中的感染预防和控制技术。 特奥多罗还表示,鉴于该方法的基于数据驱动的方法,他们预计其适用性可扩展到具有类似传播动态的其他病原体和各种医疗环境。 该研究包括一个名为基于图的医院感染预测的图片,展示了团队如何应用图神经网络来模拟传播多药耐药性肠道杆菌的复杂模式。该研究旨在改变医院预测和处理感染风险的方式。 这些模型使用了用于重症监护中心的医学信息市场(MIMIC-III)数据集进行训练和评估,并与传统的机器学习基准进行比较。值得注意的是,与基准模型相比,GNN模型在对抗菌敏感(AMS)、AMR和MDR肠道杆菌的早期检测方面表现更好。 研究人员测试了该模型,并发现在使用时空特征识别出由耐万古霉素的肠球菌定植的患者时,接收器操作特性曲线下方的面积(AUROC)性能超过88%。研究人员发现,GNN模型在接收器操作特性曲线下方的面积(AUROC)方面的表现范围为0.91到0.96。这种性能比逻辑回归基准高8%,基准得分为0.88。
Leave a Comment自从我在Slalom _build开始了新的数据工程师职位以来,我意识到我的机器学习经验已经过时了几年在数据工程/数据…
Leave a Comment该文章讨论了贝叶斯多臂赌博算法如何优化数字媒体标题选择,超越传统的A/B测试方法,并通过Python示例进行了演示,从而提升受众参与度和内容创作的决策能力
Leave a Comment尽管关于检索增强生成(RAG)的讨论很广泛,尤其是在其应用于基于聊天的语言模型方面,但在本文中,我们旨在从不同的角度来观察并分析其…
Leave a Comment在生成模型中,扩散模型(DMs)扮演了关键角色,促进了在生成高品质图片和视频合成方面的最新进展。可扩展性和迭代性是DMs的两个主要优势;它们使其能够完成诸如根据自由文本线索创建图片等复杂任务。不幸的是,目前迭代推理过程所需的许多样本步骤阻碍了DMs的实时使用。另一方面,生成对抗网络(GANs)的单步形式和固有速度使其独具特色。然而,就样本质量而言,尽管已经做出扩展到大数据集的努力,GANs通常仍然需要更多DMs。 在这项研究中,来自Stability AI的研究人员旨在将GANs的固有速度与DMs的较高样本质量相结合。他们的策略在概念上很简单:研究团队提出Adversarial Diffusion Distillation(ADD),这是一种保持对抽样保真度的通用技术,可以通过将预训练的扩散模型的推理步骤减少到1-4个抽样步骤来增强模型的整体性能。研究团队结合了两个训练目标:(i)等同于评分蒸馏抽样(SDS)的蒸馏损失和敌对损失。 在每次前向传播中,敌对损失鼓励模型直接生成位于实际图片流形上的样本,消除了其他蒸馏技术中常见的模糊等伪影。为了保留大型DMs中所见到的高度组合性并有效利用预训练DM的大量知识,蒸馏损失使用另一个预先训练的(且固定的)DM作为教师。他们的方法还通过在推理过程中不使用无分类器的指导来减少内存需求。与早期的单步GAN-based方法相比,研究团队可以继续迭代开发模型并改善结果。 图1:显示了通过单一操作生成的高保真度照片。使用Adversarial Diffusion Distillation(ADD)训练为每个样本创建了一个单一的U-Net评估。 以下是他们的贡献摘要: • 研究团队提出了ADD,一种仅需1-4个抽样步骤将预训练的扩散模型转换为高保真度、实时图片生成器的技术。研究团队针对他们独特的方法进行了几个设计决策,将敌对训练与评分蒸馏相结合。 • ADD-XL在使用四个抽样步骤时,在5122像素的分辨率下胜过其教师模型SDXL-Base。• ADD可以处理复杂的图像合成,同时仅使用一次推理步骤保持高度逼真。• ADD在性能上明显优于LCM、LCM-XL和单步GANs等强基准。 总之,本研究引入了一种将预训练的扩散模型蒸馏为快速、少步骤的图片生成模型的通用技术:Adversarial Diffusion Distillation。通过使用鉴别器获取真实数据并通过扩散教师获取结构知识,研究团队将敌对训练和评分蒸馏目标相结合,以蒸馏公共的Stable Diffusion和SDXL模型。他们的分析显示,他们的技术击败了所有现有方法,并且在一到两个步骤的超快抽样区间中表现得特别好。此外,研究团队还可以通过多个过程改进样本。与IF、SDXL和OpenMUSE等流行的多步生成器相比,他们的模型在使用四个样本步骤时表现更好。他们的方法为使用基础模型进行实时生成开辟了新的可能性,使得能够在单一步骤中开发高品质照片成为可能。
Leave a Comment人工智能(AI)已经在今天几乎每个领域都发挥了作用,有潜力通过自动化、预测和优化决策来改善现有系统。乳房重建是一种非常常见的手术过程,大多数情况下采用基于植入物的重建(IBR)。然而,这个过程往往伴随着周围假体感染,给患者带来重大痛苦并增加医疗保健成本。德克萨斯大学的这项研究探讨了人工智能特别是机器学习(ML)及其能力如何应用于预测IBR的并发症,从而最终改善生活质量。 与乳房重建相关的风险和并发症取决于许多非线性因素,传统方法无法捕捉。因此,本文的作者们开发和评估了九种不同的ML算法,以更好地预测IBR的并发症,并将其性能与传统模型进行了比较。 该数据集收集了约两年的患者数据,数据来自德克萨斯大学MD安德森癌症中心。研究人员使用的一些不同模型包括人工神经网络、支持向量机、随机森林等。此外,研究人员还使用了投票模型来进行最终预测,以获得更好的结果。在性能指标方面,研究人员使用曲线下面积(AUC)在三轮10折交叉验证后选择最佳模型。 在这九种算法中,预测周围假体感染的准确率在67%至83%之间,随机森林算法表现最佳,投票模型具有最佳整体性能(AUC 0.73)。关于预测解释性,准确率在64%至84%之间,极端梯度提升算法表现最佳(AUC 0.78)。 额外的分析还确定了周围假体感染和解释的重要预测因素,从而更加深入地了解导致IBR并发症的因素。例如,高体重指数(BMI)、年龄等因素会增加感染的风险。研究人员观察到BMI与感染风险之间存在线性关系,尽管其他研究报告称年龄不会影响IBR感染,但作者发现两者之间存在线性关系。 作者还指出了模型的一些局限性。由于数据只来自一家机构,因此他们的结果不能泛化到其他机构。此外,额外的验证将使这些模型得以临床应用,并有助于减少可怕并发症的风险。此外,临床相关变量和人口统计学因素可以融入模型中以进一步提高性能和准确性。 总之,本研究论文的作者们训练了九种不同的ML算法,以准确预测IBR并发症的发生。他们还分析了各种因素对IBR感染的影响,其中一些因素被以前的模型所忽视。然而,这些算法也存在一些限制,如数据仅来自一家机构、缺乏额外验证等。使用来自不同机构的更多数据来训练模型并添加其他因素(临床和人口统计学)将改善模型的性能,帮助医务人员更好地解决IBR感染问题。 本文的文章首次出现在MarkTechPost上,信息来源于德克萨斯大学研究人员展示利用机器学习预测基于植入物的重建并发症。
Leave a Comment“`html 纽约大学和Meta的研究团队旨在通过引入高度适应型的DobbE系统,解决家庭环境中机器人操作学习的挑战,能够从用户示范中学习和适应。实验展示了系统的效率,同时强调了现实世界环境中的独特挑战。 研究中承认了积累大量机器人数据集的最新进展,强调了以家庭和第一人称机器人互动为中心的数据集的独特性。利用iPhone的能力,该数据集提供了高质量的动作和稀有的深度信息。与现有的自动化操作重点表示模型相比,强调了用于通用表示的域内预训练。他们建议使用非机器人家庭视频的非域内信息来增强数据集,承认这些增强对于他们的研究有潜在的改进。 引言中提到了在创建全面家庭助手方面面临的挑战,主张从受控环境向真实家庭的转变。强调效率、安全和用户舒适性,并介绍了体现这些原则的DobbE框架。它利用大规模数据和现代机器学习来提高效率,利用人类示范来确保安全,并使用符合人体工程学的工具来提高用户舒适度。DobbE将围绕Hello Robot Stretch集成硬件、模型和算法。还讨论了纽约家庭数据集中来自22个家庭的多样化示范以及用于视觉模型的自监督学习技术。 该研究采用行为克隆框架,一种模仿学习的子集,来训练DobbE模仿人类或专家行为。设计的硬件设置促进了无缝示范收集和转移到机器人实体,利用了包括iPhone视觉里程计在内的多种家庭数据。基本模型在这些数据上进行预训练。经过测试,训练模型在真实家庭中进行测试,消融实验评估了视觉表示、所需示范、深度感知、示范者专业知识以及系统中是否需要参数化策略。 DobbE在陌生的家庭环境中接受仅五分钟示范和15分钟适应家庭预先训练的表示模型后,显示出81%的成功率。在10个不同的家庭中经过30天的学习,DobbE成功学会了109项任务中的102项,证明了使用ResNet模型进行视觉表示和使用两层神经网络进行行动预测等简单方法的有效性。任务的完成时间和难度通过回归分析进行了分析,消融实验评估了不同系统组件,包括图形表示和示范者专业知识。 总之,DobbE是一种经过测试的成本效益高且适用于各种家庭环境的机器人操作系统,具有令人印象深刻的81%的成功率。DobbE团队慷慨地开源了其软件堆栈、模型、数据和硬件设计,以推动家用机器人研究的发展,并促进机器人管家的广泛采用。DobbE的成功归功于其强大而简单的方法,包括行为克隆和用于行动预测的两层神经网络。该研究还提供了有关光照条件和阴影对任务执行的影响的见解。 “`
Leave a Comment无机晶体对于许多当代技术至关重要,包括计算机芯片、电池和太阳能电池板。每一个新的、稳定的晶体都是经过数月的细致实验得到的,稳定的晶体对于推动新技术具有重要意义,因为它们不会溶解。 研究人员进行了昂贵的试错实验,但只取得了有限的结果。他们通过修改现有的晶体或尝试其他不同的元素组合来寻找新的晶体结构。在过去的十年中,多亏了Materials Project和其他组织推动的计算方法,已经找到了28,000种新材料。到目前为止,新材料在实验上可行性可靠预测的能力一直是一个重大限制。 劳伦斯伯克利国家实验室和Google DeepMind的研究人员在《自然》杂志上发表了两篇论文,展示了我们AI预测用于自主材料合成的潜力。该研究展示了2.2百万颗更多的晶体,相当于大约800年的信息。他们的新型深度学习工具,被称为Graph Networks for Materials Exploration(GNoME),可以预测新材料的稳定性,大大提高了发现速度和效率。GNoME展示了AI在大规模发现和开发新材料方面的潜力。全球各地不同实验室的科学家们同时进行了独立的努力,已经找到了736种这些新颖结构。 得益于GNoME,技术可行材料的数量增加了两倍。在它的2.2百万个预测中,有380,000个由于稳定性而最有希望进行实验合成。其中一些有能力创造下一代电池,提高电动车的效率,以及用于强大超级计算机的超导体。 GNoME是一种先进的图神经网络模型示例。由于GNN的输入数据类似于原子之间的连接关系,因此GNN非常适合找到新的晶体材料。 最初用于训练GNoME的晶体结构及其稳定性的数据可通过Materials Project公开获取。使用“主动学习”作为训练方法显著提高了GNoME的效率。研究人员使用GNoME生成新的晶体候选,并预测它们的稳定性。他们使用密度泛函理论(Density Functional Theory,DFT),这是物理学、化学和材料科学中广为接受的计算方法,用于理解原子结构——这对于评估晶体稳定性至关重要——以在不断进行的训练周期中反复检查模型的表现,以评估其预测能力。高质量的训练数据又回到了这个过程中。 研究结果显示,这项研究将材料稳定性预测的发现率从50%左右提高到了80%,参考以前最先进模型设定的外部基准。对该模型效率的改进使发现率从不到10%提升到了80%以上;这些效率的提升可能对每一次发现所需的计算功率有重大影响。 自主实验室使用Materials Project的成分和GNoME的稳定性信息,已经创造出了超过41种新的材料,为人工智能驱动的材料合成的进一步发展铺平了道路。 GNoME的预测结果已经向科学界发布。研究人员将这些化合物的分析结果和稳定性信息添加到Materials Project的在线数据库中,共计380,000种材料。借助这些资源,他们希望科学界能够进一步研究无机晶体,并认识到机器学习技术作为实验指南的潜力。
Leave a Comment你能够将它们拖放到项目管理工作流中,而不是手动更新和独立管理每个Postgres扩展吗?那该多么棒啊!幸运的是,随着PGXMAN的推出,这个愿望成真了。 想象一下,只需点击几下或输入几条命令,就可以安装、更新和卸载Postgres扩展。搜索新版本、管理依赖关系和手动更新都成为了过去的事情。有了Pgxman负责这一切,你可以专注于创建令人难以置信的应用。 增强Postgres数据库最有效的方法之一就是使用扩展。而处理扩展可能是具有挑战性的。感谢PGXMAN,当安装和管理Postgres扩展时,Pgxman就是救星。 什么是PGXMAN? Pgxman是一个Postgres扩展程序包管理器。使用它可以轻松安装和更新扩展,并管理扩展之间的依赖关系。对于希望在应用程序中包含Postgres扩展的开发人员来说,PGXMAN是一个宝贵的工具。 PGXMAN:它是如何工作的? Pgxman使用软件包存储库来存储扩展。每个扩展的详细信息,包括名称、版本和依赖关系,都存储在软件包存储库中。通过这些信息,Pgxman可以安装、更新和删除扩展。 使用Pgxman的优点 使用PGXMAN有许多优点,其中包括: PGXMAN简化了查找、安装和更新扩展的过程,易于使用。 PGXMAN可以自动处理扩展之间的依赖关系。 使用PGXMAN可轻松保持扩展的最新状态。 PGXMAN社区强大而支持性良好,有许多用户和开发人员为该项目做出了贡献。 开始使用Pgxman 下面的命令将安装pgxman并帮助你入门: pip install pgxman 以下命令将在安装pgxman后帮助你使用pgxman添加扩展: pgxman install <extension-name> 通过以下命令,您还可以使用pgxman更新扩展: pgxman update…
Leave a Comment“`html 精细化图像分类是一项计算机视觉任务,旨在将图像分类为更大类别中的子类别。它涉及对特定的、往往是稀有的动物进行复杂的识别。然而,它们在需要更多广泛的训练数据方面存在问题,导致分类器在适应领域中的不同方面时遇到困难,比如天气条件或地理位置的改变。 数据增强是一种常用的方法,用于使训练数据多样化,在精细分类等专门任务中面临挑战。使用生成模型或传统的翻转或裁剪等方法的方法显示出一定的潜力,但通常需要进行大量的微调或生成对于此类任务不适当的图像。 尽管有各种各样的提出的方法试图解决这些挑战,但该领域仍面临着在创建增强数据集方面的困难,这些数据集代表了多样的变化,同时保持与原始训练数据的视觉一致性和相关性。 一种新颖的方法——自动语言引导图像增强(ALIA)应运而生,以克服这些持续存在的挑战。ALIA利用了与大型视觉模型结合使用的数据集领域的自然语言描述,通过语言引导的图像编辑以自动生成训练数据的多样化变化。与先前的方法不同,ALIA不依赖昂贵的微调或用户提供的提示。相反,它智能地过滤掉最小的编辑和可能破坏与分类相关信息的编辑,提供了一种有希望的解决方案,增强了数据集的多样性,并提高了专门任务(如精细化分类)分类器的泛化能力。 该过程包括: 生成领域描述:利用图像字幕生成和大型语言模型(LLM)将图像上下文总结为不超过十个领域描述。 使用语言引导对图像进行编辑:使用文本条件下的图像编辑技术,创建与这些描述相符的多样化图像。 过滤失败的编辑:使用CLIP进行语义过滤,并使用分类器进行基于置信度的过滤,以删除失败的编辑,确保任务相关信息和视觉一致性的保留。 据作者称,这种方法可以扩展数据集20-100%,同时保持视觉一致性并涵盖更广泛的领域范围。 研究团队进行了大量实验证明了ALIA数据增强方法在专门任务(领域泛化、精细化分类和鸟类分类中的上下文偏见)中的有效性。通过对ResNet50模型进行微调,并使用稳定扩散进行图像编辑,ALIA始终优于传统的增强技术,甚至优于实际数据增加在领域泛化任务中,显示出相对原始数据的17%的改进。在精细分类中,ALIA表现出了竞争性的性能,即使没有领域转移也能保持准确性。ALIA在涉及上下文偏见的功能中,在领域内外的准确性方面表现出色,尽管在图像编辑质量和纯文本修改方面面临挑战。这些实验证明了ALIA在增强数据集多样性和模型性能方面的潜力,尽管在一定程度上依赖于模型质量和图像编辑方法的选择。 总之,作者介绍了ALIA,一种基于大型语言模型和语言引导的图像编辑技术的数据增强先进策略,利用广泛的领域知识。对于已提供的训练集中的领域描述和增强数据,该方法展示了在领域适应、偏见减少甚至在缺乏领域转移的情况下的出色能力。 对于未来的研究,作者认为字幕、大型语言模型和图像编辑的进一步改进将极大地增强该方法的效果和适用性。使用从实际训练数据中得出的结构化提示可能在改善数据集多样性和解决当前方法中遇到的各种限制方面发挥关键作用。这为探索ALIA在更广泛的领域中的应用前景和潜在进展提供了有希望的途径。 “`
Leave a Comment表示学习是通过深度神经网络学习给定数据集中最显著特征的任务通常情况下,它是在监督学习范式中隐含地完成的任务,它是…
Leave a Comment“在过去的十年里,人工智能领域取得了巨大的进展,然而实现人类水平智能仍然是许多研究者的终极目标在本文中,我将…”
Leave a Comment在癌症疗法的优化过程中,研究人员提出了一项划时代的解决方案,显著提升了我们对肿瘤动力学的理解。该研究聚焦于精确预测肿瘤内液流压力(IFP)和脂质体积累,揭示了一种开创性的物理信息深度学习模型。这种创新方法有望优化癌症治疗策略,准确揭示治疗药物在肿瘤内的分布情况。 许多纳米治疗的基石在于增强的渗透性和滞留效应(EPR效应),利用肿瘤的特性,如增强的血管渗透性和经血管压力梯度。尽管其关键作用,EPR效应对治疗结果的影响表现不一致。这种不一致性促使对影响实体肿瘤内药物输送的因素进行更深入的探索。在这些因素中,间质流体压力(IFP)已经成为一个关键决定因素,严重限制脂质体药物输送到肿瘤中心区域。此外,升高的IFP是一个独立的预后标记物,显著影响特定实体癌症的放射治疗和化疗的疗效。 针对这些挑战,研究人员提出了一个先进的模型,使用术前和术后的图像数据来预测体素级别的肿瘤内脂质体积累和IFP。他们的方法独特之处在于将物理信息机器学习与偏微分方程相结合的创新技术。通过将这种创新技术应用于来自合成肿瘤的数据集,研究人员展示了该模型在输入数据最小的情况下能够做出高度准确的预测的能力。 现有的方法往往需要在肿瘤内提供一致且准确的脂质体分布和IFP的预测。这项研究通过引入一种前所未有的方法,将机器学习与基于物理的原则相结合,从而在研究中有所突破。这种创新模型不仅能够提供准确的预测,还对癌症治疗的设计具有直接的影响。预测脂质体和IFP在肿瘤内的空间分布能够为更深入地了解肿瘤动力学打开新的途径,为更有效和个性化的治疗干预铺平道路。 该研究由滑铁卢大学和华盛顿大学的研究团队详细介绍了他们提出的方法。他们利用了物理信息深度学习以实现体素级别的预测。该模型依赖于合成肿瘤数据,凸显了其稳健性和高效性,并为应对癌症治疗中提出的IFP升高问题提供了潜在解决方案。通过展示该方法的可扩展性和适用性,研究人员强调了其在预测肿瘤进展和促进治疗计划方面的潜力。 总之,这项开创性的研究为解决基于脂质体的癌症疗法所涉及的复杂问题提供了一种转变性的方法。他们的模型结合了物理信息机器学习,可以提供精确的体素级别的肿瘤内脂质体积累和间质流体压力预测。这种创新推进了我们对肿瘤动力学的理解,并对治疗设计有直接的影响。更有效和个性化的干预潜力凸显了这项工作的重要性,为优化癌症治疗策略提供了关键的进展,以提高可预测性和治疗成功率。
Leave a Comment计算机视觉、自然语言处理和其他领域在深度机器学习(ML)方法方面取得了显著的成功,这些方法基于深度神经网络(NNs)。然而,解释性与效率之间长期存在的问题带来了一些难以克服的障碍。对深度ML方法的质疑、理解和信任能力取决于它们的可解释性,通常被描述为一个人能够理解结论来源的程度。 贝叶斯网络、Boltzmann机器和其他概率ML模型被认为是“白箱”,因为它们本质上是可解释的。这些模型宣称的一种解释方式是通过使用概率推理来揭示隐藏的因果联系;这与人类思维在统计上的方式一致。遗憾的是,最先进的深度NNs在效率上超过了这些概率模型相当大的幅度。目前的ML模型似乎无法同时实现高效性和可解释性。 由于量子计算和传统计算的指数增长,解决效率与可解释性困境的新工具出现了:张量网络(TN)。多个张量的收缩被称为TN。张量的收缩方式由其网络结构定义。 中国首都师范大学和中国科学院大学的一篇新论文调查了TN在高效和可解释的量子启发式ML方面的有益发展。”TN ML butterfly”列举了TN对ML的好处。对于具有量子扭曲的ML的TN的好处可以归结为两个主要领域:量子理论的可解释性和量子过程的高效性。使用TN与如纠缠理论和统计学等量子理论构建超越描述经典信息或统计方法的可解释性的概率框架。 相反,量子启发的TN ML方法将能够通过强大的量子力学TN算法和大幅改进的量子计算技术在经典和量子计算平台上高效运行。特别是,最近产生了具有开发潜力和挑战的生成预训练变换器,导致了前所未有的计算能力和模型复杂性的激增,这对TN ML而言既具有潜力又具有挑战。面对产生预训练变换器的新人工智能(AI),解读结果的能力比以往任何时候都更为重要,从而实现更有效的调查、更安全的控制和更好的利用。 研究人员认为,随着我们进入真正的量子计算和当前的NISQ时代,TN迅速成为从各个角度研究量子人工智能的领先数学工具,包括理论、模型、算法、软件、硬件和应用。 研究人员研究了张量网络用于可解释和高效的量子启发式机器学习文章首次出现于MarkTechPost。
Leave a Comment在人工智能(AI)和机器学习(ML)这两个快速发展的领域中,寻找有效的、自动化的和适应性强的方法变得极其重要。AI和ML方法的不断提升已经改变了机器可以完成的事情以及人类如何与机器交互的可能性。 包括深度学习在内的AI领域完全依赖于数据,重要的数据存储在数据仓库中,通过主外键关系链接在多个表中分散存储。使用这样的数据开发ML模型存在许多困难,需要大量的时间和工作,因为现有的ML方法并不适合直接从跨越多个关系表的数据中学习。目前的方法要求将数据通过一种称为特征工程的过程转换成单个表。 为了克服这一挑战,斯坦福大学、Kumo AI、耶鲁大学、马克斯普朗克学院和伊利诺伊大学厄巴纳-香槟分校的研究团队最近提出了关系深度学习。这种端到端的深度表示学习技术可以处理分散在多个表中的数据。该方法已经被开发成一种将关系表作为异构图的基本方法。该图模型中的每个表行代表一个节点,而主外键关系定义了边。 使用消息传递神经网络(MPNNs),可以自动遍历并学习多个表,从而提取利用所有输入数据的表示,并且不需要任何手动特征工程。研究团队还提出了RELBENCH,这是一个包括基准数据集和关系深度学习实现的综合框架。这些数据集涵盖了各个领域,从亚马逊产品目录中的图书评论到像Stack Exchange这样的网站上的对话。 RELBENCH包含三个核心模块,具体如下: 数据模块:RELBENCH的数据模块提供了有效使用关系数据集的框架。其中包括三个重要特性:时间数据划分、任务规范和数据加载。 模型模块:该模块通过将未处理数据转换为图形表示来构建图神经网络(GNNs)的预测模型。使用强大的深度学习库PyTorch Geometric,RELBENCH对几种广泛使用的GNN架构进行了基准测试。该模块允许模型架构的灵活性,对于桥接预测模型和原始关系数据开发之间的差距至关重要。 评估模块:该模块创建了一个统一的评估模型性能的过程。它以系统化的方式评估预测文件,提供了模型的有效性的量化指标。该模块与各种受欢迎的深度学习工具配合使用,因为它被设计为与深度学习框架无关。这种适应性使研究人员和从业者可以使用他们选择的框架,而不会牺牲评估过程。
Leave a Comment