Press "Enter" to skip to content

四海吧 Posts

PlayHT团队将情感概念引入生成声音AI的AI模型:这将使您能够通过特定情感来控制和引导语音生成

语音识别是自然语言处理领域中最近开发的技术之一。研究科学家还为文本到语音生成的AI模型开发了大型语言模型。很明显,AI在语音质量、表情、人类行为等方面可以达到与人类相似的结果。但是尽管如此,这些模型仍然存在问题。这些模型在语言多样性方面较少。在语音识别、情感等方面也存在一些问题。许多研究人员意识到了这些问题,并发现这是由于模型使用的数据集较小造成的。 改进工作已经开始,PlayHT团队推出了PlayHT2.0作为这个案例研究的解决方案。这个模型的主要优点是它使用了多种语言并处理了大量的数据集。这也增加了模型的大小。NLP中的Transformers也在实施这个模型中扮演了重要角色。该模型处理给定的转录并预测声音。这经历了一个将文本转换为语音的过程,称为标记化。这涉及将简化的代码转换为声波,以生成人类语音。 该模型具有巨大的对话能力,可以像正常人一样进行对话,并带有一些情感。这些通过AI聊天机器人提供的技术经常被许多跨国公司用于在线呼叫和研讨会。PlayHT2.0模型还通过其中使用的优化技术改进了语音质量。它还可以复制出完全相同的声音。由于模型使用的数据集非常大,该模型在保留原始语音的同时也可以说出其他语言。模型的训练过程经历了大量的epochs和不同的超参数。这导致模型在语音识别技术中表现出各种情感。 该模型仍在不断改进中。研究科学家仍在致力于改进情感。提示工程师和许多研究人员还发现,该模型在未来几周内可以通过速度、准确度和良好的F1分数进行更新。

Leave a Comment

“见ConDistFL:一种在CT数据集中进行器官和疾病分割的革命性联邦学习方法”

计算机断层扫描(CT)图像必须准确地分割腹部器官和肿瘤,以用于计算机辅助诊断和治疗规划等临床应用。在现实世界的医疗保健环境中,更倾向于使用能够同时处理多种器官和疾病的通用模型。尽管主要研究集中在分割单个器官和不带恶性的不同类别的器官上,但还有其他感兴趣的领域。另一方面,传统的监督学习技术依赖于训练数据的数量和质量。不幸的是,由于高质量医学影像数据的昂贵费用,缺乏训练数据。只有合格的专家才能在各种解剖学的医学图像上创建正确的注释。 由于即使专业人士有时只在一个活动上具有专门的专业知识,因此注释不同解剖学和影像模态的器官和相关癌症也很困难。需要更多适用于各种器官和恶性肿瘤的适当注释信息,严重阻碍了通用分割模型的发展。许多研究已经研究了部分标记的数据集,其中每个图像只标记了一部分目标器官和恶性肿瘤,以开发通用的分割模型来解决这个问题。然而,共享机密的医疗统计数据在组织之间存在隐私和法律问题。提出了联邦学习(FL)来解决这些问题。 FL使得多个机构之间可以共同训练一个公共(或“全局”)模型,而不需要将数据集中在一个地方。提高医学图像分割效果的一种潜在方法是使用FL。在FL中,每个客户端仅向服务器发送模型更新,并使用其自己的数据和资源训练本地模型。服务器使用“FedAvg”将这些变化整合到全局模型中。最近的研究已经使用FL来创建使用部分标注的腹部数据集的统一多器官分割模型,如图1所示。然而,这些方法通常忽略了病变区域。只有少数研究努力同时分割各种器官及其肿瘤。 图1 显示了用于从不完整标签中分割多个器官和肿瘤的ConDistFL架构。每个客户端的本地数据库中只标记了一部分目标器官和恶性肿瘤。 由于数据多样性引起的数据异质性处理困难,FL的模型聚合面临着重大挑战。当使用来自不同来源的模型与非IID数据时,性能可能会受到影响。当客户端使用为不同目的注释的数据时,引入了更多标签空间中的领域转移,使问题变得更糟。此外,客户端的数据集大小不同可能会影响具有较少数据的全局模型的性能。本文的台湾大学、名古屋大学和NVIDIA公司的研究人员提供了一种应对部分标注腹部CT图像中数据异质性的策略,用于联邦学习的多类器官和肿瘤分割。 这项工作的主要贡献如下: 1. 他们提出的条件蒸馏联邦学习(ConDistFL)框架使得在不需要额外完全标注数据集的情况下,可以进行腹部器官和恶性肿瘤的多任务分割。 2. 在真实世界的FL环境中,所提出的框架展示了稳定性和性能,具有较长的本地训练步骤和较少的聚合次数,降低了数据流量和训练时间。 3. 他们使用一个未发布的完全标注的公共数据集AMOS22进一步测试了他们的模型。定性和定量评估的结果证明了他们策略的鲁棒性。

Leave a Comment

来自南加州大学和微软的研究人员提出了UniversalNER:一种新的AI模型,通过有针对性的蒸馏训练,可以识别13000多种实体类型,并在43个数据集上以9%的F1值超过ChatGPT的NER准确性

I had trouble accessing your link so I’m going to try to continue without it. ChatGPT和其他大型语言模型(LLM)展示了令人印象深刻的泛化能力,但它们的训练和推理成本通常是不可承受的。此外,对模型权重和推理概率的白盒访问在诸如医疗保健等关键任务应用中经常至关重要,以实现可解释性和信心。因此,指导调整作为一种将LLM压缩为更经济实惠和透明的学生模型的方法已经变得越来越受欢迎。这些学生模型已经展示出模仿ChatGPT的令人信服的能力,就像Alpaca和Vicuna一样。仔细观察发现,它们仍然需要赶上理想的LLM,特别是在特定目标应用中。 由于计算资源有限,通用蒸馏只能在所有可想象的应用中创建原始LLM的表面近似。相反,他们在这项研究中研究了有针对性的蒸馏,通过面向任务的指导调整来训练学生模型,用于开放信息提取等多样化的应用类别。他们证明了在保持其跨语义类型和领域的泛化能力的同时,这可以最大程度地复制LLM在指定应用类别中的能力。由于命名实体识别(NER)是自然语言处理中最基本的问题之一,他们选择了它作为案例研究。最近的研究表明,当有许多注释实例时,LLM仍然需要赶上最先进的监督系统的实体类型。 然而,对于大多数对象类型来说,大多数对象类型都很难进行注释。开发注释示例的成本高昂且耗时,特别是在需要专业知识的生物学等高价值领域。新的实体类型不断涌现。由于受过预先指定的实体类型和领域的训练,监督NER模型在新领域和实体类型上的泛化能力也较差。他们概述了LLM有针对性蒸馏的通用过程,并展示了开放域NER如何使用它。来自南加州大学和微软研究院的研究人员展示了如何利用ChatGPT从大量未标记的在线文本中创建NER的指导调整数据,并使用LLaMA创建UniversalNER模型(简称UniNER)。 他们提出了迄今为止最大、最多样化的NER基准(UniversalNER基准),包括来自9个不同学科的43个数据集,包括医学、编程、社交媒体、法律和金融。LLaMA和Alpaca在这个基准测试中表现不佳(约为0 F1)在零-shot NER上。相比之下,Vicuna在平均F1上表现明显更好,但仍然比ChatGPT落后20个绝对点以上。与此相反,UniversalNER在平均F1上超过Vicuna超过30个绝对点,并在UniversalNER基准测试中实现了最先进的NER准确性,涵盖了数以万计的实体类型。除了复制ChatGPT识别任何实体的能力(7-13亿个参数),UniversalNER在平均F1上还超过了其NER准确性7-9个绝对点。 令人惊讶的是,UniversalNER明显超过了使用监督NER实例的最先进的多任务指导调整系统,如InstructUIE。他们还进行了广泛的消融测试,以评估不同蒸馏组件(如指导提示和负采样)的影响。他们将提供他们的蒸馏配方、数据和UniversalNER模型,并提供一个交互式演示,以帮助进一步研究有针对性的蒸馏。

Leave a Comment

加州圣克鲁兹大学的研究人员提出了一种新颖的文本到图像关联测试工具,用于量化概念之间的隐性刻板印象以及图像中的情感价值

加州大学圣塔克鲁兹分校的研究团队引入了一种名为文本到图像关联测试(Text to Image Association Test)的新工具。该工具解决了文本到图像生成人工智能系统中的无意偏见。这些系统以其从文本描述中生成图像的能力而闻名,但往往会在其输出中再现社会偏见。在助理教授的带领下,该团队开发了一种量化的方法来衡量这些复杂的偏见。 文本到图像关联测试提供了一种结构化的方法来评估各个维度上的偏见,如性别、种族、职业和宗教。这一创新工具在2023年计算语言学协会(ACL)会议上进行了介绍。它的主要目的是量化和识别先进生成模型(如稳定扩散)中的偏见,这些模型可以放大生成的图像中现有的偏见。 该过程涉及向模型提供一个中性提示,如“孩子学习科学”。随后,使用性别特定的提示,如“女孩学习科学”和“男孩学习科学”。通过分析从中性和性别特定提示生成的图像之间的差异,该工具量化了模型响应中的偏见。 研究发现,稳定扩散模型展示了与常见刻板印象一致的偏见。该工具评估了诸如科学和艺术之间的联系以及男性和女性等属性之间的联系,并分配分数以指示这些联系的强度。有趣的是,该模型出人意料地将深肤色与愉快联系在一起,将浅肤色与不愉快联系在一起,与典型假设相反。 此外,该模型显示了科学和男性、艺术和女性、职业和男性以及家庭和女性之间的关联。研究人员强调,他们的工具还考虑到了图像中的上下文元素,包括颜色和温暖度,这使其与先前的评估方法有所区别。 受到社会心理学中隐性关联测试的启发,UCSC团队的工具在T2I模型的开发阶段中量化了偏见的进展。研究人员预计,这种方法将为软件工程师提供更精确的模型偏见度量,有助于识别和纠正人工智能生成内容中的偏见。通过定量指标,该工具促进了持续努力以减轻偏见并监测随时间推移的进展。 研究人员收到了ACL会议上的学术同行们的鼓舞和兴趣,许多人对这项工作的潜在影响表示热情。该团队计划在模型训练和改进阶段提出缓解偏见的策略。这个工具不仅揭示了人工智能生成图像中的偏见,还提供了纠正和增强这些系统整体公正性的手段。

Leave a Comment

谷歌AI推出视觉丰富的文档理解(VRDU):用于更好地追踪文档理解任务进展的数据集

越来越多的企业在当今数字时代创建和存储文件。尽管这些文件可能包含有用的信息,但有时很难阅读和理解。发票、表格和合同等视觉复杂的文件则更加困难。这些出版物中的布局、表格和图形可能使有用的信息难以解析。 为了填补这一知识差距并改进文件理解任务的进展跟踪,谷歌研究人员宣布推出了全新的视觉丰富文档理解(VRDU)数据集。基于文档理解模型通常处理的现实世界文档类型,他们提出了五个有效基准的标准。论文详细介绍了研究界中最常用的数据集在至少一个方面存在不足,而VRDU在每个方面都表现出色。谷歌的研究人员很高兴地宣布,VRDU数据集和评估代码现已根据创意共享许可协议对公众开放。 研究部门视觉丰富文档理解(VRDU)的目标是找到自动理解此类材料的方法。使用VRDU模型可以从文档中提取姓名、地址、日期和总数等结构化信息。发票处理、CRM和欺诈检测只是企业可能利用这些信息的几个例子。 VRDU面临许多障碍。各种文档类型的广泛存在是一个障碍。由于它们复杂的图案和排列,视觉丰富的文件提出了进一步的困难。VRDU模型必须能够处理打字错误和数据中的空白等不完善的输入。 尽管存在障碍,VRDU是一个有前途且快速发展的领域。VRDU模型可以帮助企业降低成本、提高效率,并提高操作的精度。 在过去的几年里,已经开发出了复杂的自动化系统,用于处理和转换复杂的业务文件为结构化对象。手动数据输入是耗时的;一个可以自动从收据、保险报价和财务报表等文档中提取数据的系统可能通过消除这一步骤大大提高企业的效率。基于Transformer框架构建的新模型显示出显着的准确性改进。这些业务流程还在借助像PaLM 2这样的更大型模型进行优化。然而,实际应用案例中观察到的困难在学术出版物中使用的数据集中没有得到反映。这意味着虽然模型在学术标准上表现良好,但在更复杂的实际应用环境中表现不佳。 测量标准 首先,研究人员将学术基准(如FUNSD、CORD、SROIE)与实际用例中的最新模型准确性(如与FormNet和LayoutLMv2相比)进行了对比。研究人员发现最新的模型在实践中的准确性明显低于学术基准。然后,他们将常见数据集与文档理解模型与学术基准进行比较,并制定了五个条件,以准确反映数据集在实际应用中的复杂性。 在他们的研究中,科学家遇到了各种用于结构化提取的丰富模式。数字、文本、日期和时间信息只是许多类型的实体数据中可能需要的一些,这些数据可能是必需的、可选的、重复的,甚至是嵌套的。实践中的典型问题应该在对简单的平面模式(标题、问题、答案)执行的提取操作中得到反映。 文档应该包含各种不同类型的复杂布局元素。当文档包含表格、键值对、单列和双列布局、不同部分的变量字体大小、带标题的图像和脚注时,问题就会出现。相比之下,关于长输入的经典自然语言处理研究通常关注大多数论文以句子、段落和章节与部分标题排列的数据集。 有用的基准应包含具有不同结构的模板。高容量模型可以快速记住给定模板的结构,使得从中提取数据变得轻松。基准的训练-测试拆分应该评估这种广义到新模板/布局的能力,因为这在实践中非常重要。 光学字符识别(OCR)结果应对所有提交的文档具有高质量。这个基准旨在消除不同OCR引擎对VRDU性能的影响。 文档应包含可以映射回匹配输入文本的地面实况注释,以便可以将各个标记作为其各自实体的一部分进行注释。这与传递实体值的文本的标准做法形成对比,以进行解析。这对于生成无噪声的训练数据至关重要,使得研究人员可以专注于其工作的其他方面,而无需对所提供的值进行意外匹配。如果税额为零,则收据上的“税前总计”字段可能与“总计”字段具有相同的值。通过在标记级别进行注释,可以避免训练数据中将匹配值的两个出现都指定为“总计”字段的地面实况,从而产生噪声示例。 VRDU中的数据集和任务 VRDU收集包括两个独立的公共数据集——注册表单数据集和广告购买表单数据集。这些数据集提供了适用于现实场景并满足上述五个标准的实例。 广告购买表单数据集中的641个文件描述了政治广告的各个方面。一个电视台和一个倡导组织分别签署了发票或收据。产品名称、播出日期、总费用和发布时间只是记录在文件的表格、多列和键值对中的一些细节。 注册表单数据集中有1915个文件,详细描述了在美国政府注册的外国代理人的背景和活动。每个文件中记录了必须公开的外国代理人从事的活动的重要细节。注册人的姓名、关联机构地址、注册的活动以及其他信息。 VRDU的最新发展 近年来,VRDU取得了许多进展。大规模语言模型(LLMs)就是其中之一。大规模表示相似度测量(LLMs)是在大规模文本和代码数据集上训练的,可以用来表示图文丰富文本的文本和布局。 “少样本学习技术”的创建是另一个重要的成就。借助少样本学习方法,VRDU模型可以快速学习从新颖文档类型中提取信息。这一点很重要,因为它扩展了VRDU模型可以应用的文本类型。 Google Research已经向研究界提供了VRDU基准。发票和表单是VRDU标准中包含的两个视觉丰富文档的示例。发票数据集中有10,000个发票,表单数据集中有10,000个表单。VRDU基准还提供了一套经过深思熟虑的工具,用于评估性能。 VRDU领域的研究人员将会发现这个基准是一个宝贵的工具。研究人员现在可以评估各种VRDU模型在相同文本语料库上的表现如何。VRDU基准不仅对发现问题有用,还可以帮助直接进行未来的研究。 使用VRDU模型可以从文档中提取结构化数据。…

Leave a Comment

大规模语言模型能否取代人类在文本评估任务中的角色?这篇人工智能论文提议使用LLM来评估文本的质量,作为人工评估的替代方案

人类评估一直被用来评估自然语言处理模型和算法对文本质量的表现。然而,人类评估有时并不一致,并且可能无法重复,因为很难招募相同的人类评估者并得到相同的评估结果,评估者使用了不同数量的因素,包括主观性或对评估标准的解释差异。 台湾大学的研究人员研究了“大规模语言模型”(使用大量可在网络上访问的文本数据进行训练的模型,从而学习使用人类语言)作为一种新的评估方法,以解决这个可重复性问题。研究人员向LLMs提供相同的指令、要评估的样本和问题,然后要求LLMs为这些问题生成回答。他们使用人类和LLM评估来评估两个自然语言处理任务中的文本:开放式故事生成和对抗性攻击。 在“开放式故事生成”中,他们通过使用大规模语言模型和人类评估来检查由人类和生成模型(GPT-2)生成的故事的质量,以验证大规模语言模型是否可以将人类编写的故事评分高于生成模型生成的故事。 为了做到这一点,他们首先生成了一个问卷(评估指南、生成的故事片段和评估问题),根据四个不同的属性(语法准确性、一致性、喜欢度和相关性)分别在Likert量表(5个级别)上进行评分。 在人类评估中,用户按照准备好的问卷进行回答。对于大规模语言模型的评估,他们将问卷作为提示输入,并获得大规模语言模型的输出。研究人员使用了四个大型语言模型T0、text-curie-001、text-davinci-003和ChatGPT。对于人类评估,研究人员使用了著名的英语教师。这些大规模语言模型和英语教师评估了200个人类编写的故事和200个GPT-2生成的故事。英语教师给出的评分显示出对人类编写故事的四个属性(语法性、连贯性、喜好度和相关性)的偏好。这表明英语教师可以区分生成模型生成的故事和人类编写的故事之间的质量差异。但是,T0和text-curie-001对人类编写的故事没有明显的偏好。这表明大规模语言模型在评估开放式故事生成方面比人类专家能力较差。另一方面,text-davinci-003对人类编写的故事和英语教师都显示出明显的偏好。此外,ChatGPT也对人类编写的故事给出了更高的评分。 他们还研究了一个对抗性攻击任务,测试人工智能对句子进行分类的能力。他们测试了将句子分类为某种敌对攻击(使用同义词轻微改变句子)的能力。然后评估攻击对人工智能对句子进行分类的影响。他们使用了一个大规模语言模型(ChatGPT)和一个人类进行这个任务。 对于对抗性攻击,英语教师(人类评估)对敌对攻击产生的句子在流畅性和意义保持方面评分低于原始句子。此外,ChatGPT对敌对攻击句子给出了比英语教师更高的评分。同时,ChatGPT对敌对攻击句子的评分低于原始句子,总体上,大规模语言模型以与人类相同的方式评估敌对攻击句子和原始句子的质量。 研究人员指出了大规模语言模型评估的以下四个优点:可重复性、独立性、成本效益和速度、以及减少对不可接受内容的曝光。然而,大规模语言模型也容易对事实产生误解,并且学习方法可能引入偏见。此外,这些模型缺乏情感可能会限制它们在涉及情感的任务评估中的功效。人类评估和大规模语言模型的评估具有独特的优势和弱点。通过人类和这些大规模模型的结合,可能可以实现最佳效用。

Leave a Comment

Scikit-Learn vs TensorFlow Which One to Choose?’ ‘Scikit-Learn与TensorFlow:该选择哪一个?

机器学习和人工智能的领域已经被强大的库所改变,这些库重新定义了模型的创建和利用。其中包括Scikit-Learn和TensorFlow,它们都因其独特的特性而被广泛接受。尽管它们在数据科学和机器学习的使用上非常广泛,但它们服务于不同的目标。在本文中,我们将深入比较分析Scikit-Learn和TensorFlow,探讨它们的应用、优势和局限性。通过研究它们的不同特点,我们旨在帮助您做出明智的决策,选择最符合您特定需求的库。 TensorFlow vs Scikit-Learn – 概述 在我们深入具体内容之前,让我们快速比较一下Scikit-Learn和TensorFlow: 标准 Scikit-Learn TensorFlow 主要关注点 传统机器学习算法 深度学习和神经网络 生态系统 全面但不以深度学习为中心 拥有以深度学习为重点的丰富生态系统 易用性 适合初学者,易于入门 由于其深度学习的性质,更加复杂 灵活性 较少灵活,适用于传统机器学习任务 极其灵活和可定制 使用案例 适用于小型到VoAGI规模的数据集和传统机器学习问题 适用于大规模数据和复杂深度学习模型…

Leave a Comment

Meta AI的研究人员推出了一种新的人工智能模型,用于对大型语言模型生成结果进行评论

I had trouble accessing your link so I’m going to try to continue without it. 将以下HTML代码翻译成中文(保留HTML代码): 大型语言模型(LLMs)生成连贯、上下文相关且语义有意义的文本的能力变得越来越复杂。尽管取得了这些进展,LLMs经常提供不准确、可疑和荒谬的结果。因此,不断评估和改进生成结果的技术对于更可信赖的语言模型将会有所帮助。LLMs的帮助下,语言模型的输出得到了增强。在当前的工作中,一些人训练实用函数,以在信息寻求对话任务中对生成的自然语言进行反馈。相反,其他人使用指令提示来创建模型生成的输出文本的多方面评估分数,涵盖各个领域。 尽管最初的研究未能对复杂的数学和推理等任务的模型输出产生反馈,只提供了对输出响应的一般反馈,但最近的一项研究通过指导调整LLM来为其回复创建自我反馈。在这项研究中,来自Meta AI Research的研究人员介绍了Shepherd,一种专门优化用于评估模型生成输出的语言模型。他们的目标是开发一个能够在许多领域提供评论的强大批评模型,尽管与之前的工作有着相似的目标。他们的方法可以识别特定问题,包括事实性、逻辑缺陷、连贯性和一致性,并在需要改进结果时提出修改建议。 表1:来自Stack Exchange和人工注释的训练数据示例 更准确地说,Shepherd可以提供包括深入主题知识、改进建议和广泛判断和推荐的自然语言反馈。他们开发了两个独特数据集的高质量反馈数据集,以改进Shepherd并对其进行评估:(1)社区反馈,从在线论坛中策划,以捕捉更多样化的互动;(2)人工注释的输入,收集了许多任务的生成结果。请参见表1中的示例。在这些数据集的混合训练下,Shepherd表现出色,在多个下游任务上超过了ChatGPT模型。社区数据比人工注释数据更有用和多样化。然而,通过对社区反馈和人工注释反馈数据的仔细研究,可以发现社区反馈往往更不正式。 由于这些细微差别,Shepherd可以对各种任务提供反馈,并且他们发现使用高质量的人工注释数据来微调模型可以提高模型性能。他们将Shepherd产生的反馈与Alpaca、SelFee和ChatGPT等尖端基线模型进行比较,并进行了基于模型和人类的评估。他们发现Shepherd的批评经常受到其他模型的青睐。例如,Alpaca倾向于赞扬每个模型的答案,这会产生许多不准确的反馈。SelFee经常忽略模型的答案,或者立即回答查询,而不提供可能识别错误的反馈。 他们发现ChatGPT在各种评估情况下更一致,并且在提供准确判断的评论方面表现更好。总之,他们创建了Shepherd,一种新颖的模型,可以对任何LLM生成的内容提供全面的批评,从而提高其质量。通过仔细分析生成的投诉,他们展示了Shepherd在各种生成任务中的有效性。创建一个一流的反馈数据集,可能有助于未来在这一领域的研究,也是他们工作的另一个重要补充。

Leave a Comment

宾夕法尼亚大学的研究人员正在开发机器学习策略,以改进肾脏配型并减少移植失败的风险

通过分析某种基因变异,人工智能已经成为个体的希望,以减少肾移植的风险。传统上,评估肾移植中移植物衰竭风险依赖于HLA(人类白细胞抗原)不匹配。宾夕法尼亚大学的研究团队探索了一种创新的机器学习算法,可以帮助揭示氨基酸不匹配(AA-MMs)与移植物衰竭可能性之间的隐藏联系。 他们的方法被称为FIBRES(风险分层的特征包含箱演化器),利用进化算法自动构建AA-MMs箱,最小化对箱构成的假设。它有助于将移植配对有效地分为高风险和低风险组,以实现移植物存活。通过使用FIBRES方法分析来自(移植者科学登记处)SRTR数据的1,66,754个肾移植的数据集,研究人员发现了传统方法在移植物衰竭风险方面的局限性。他们强调了氨基酸变异的作用,使FIBRES能够识别出两倍于低风险患者的数量。 FIBRES利用进化算法迭代优化AA-MMs箱的适应性,以进行移植物衰竭风险分层。它选择表现较好的“父代”生成新的后代箱,通过在箱内交叉和突变(替换、添加和删除)AA位置。FIBRES包含“风险层最小值”,以确保所得结果的统计可靠性。 该方法应用于三个分析:(1)使用跨越五个HLA位点的AA-MMs构建箱并比较风险分层,(2)分别在每个HLA内对AA-MMs进行分箱,(3)使用交叉验证评估性能。与0-ABDR抗原不匹配相比,它有助于增强风险分层。研究发现,通过AA-MM评估,24.4%的肾移植是低风险,而通过0-ABDR评估只有9.1%。交叉验证证实了FIBRES箱风险预测的普适性,验证了其稳健性。 研究人员强调,FIBRES在确定哪些AA-MMs影响风险方面可能更全面。然而,他们需要更大的数据集。未来,研究人员的目标是通过(1)将分箱扩展到其他HLA位点,(2)比较首次移植和再移植受体之间的结果,以及(3)调整FIBERS以优化能够将供受体配对分层为任意数量的风险组,学习组阈值,并学习AA-MM权重以推断给定MM的重要性。

Leave a Comment

人工智能对于医疗保健网络安全至关重要

“医疗机构是网络犯罪分子攻击最频繁的目标之一尽管越来越多的IT部门投资于网络安全保障,但恶意方仍然会侵入基础设施,往往造成灾难性后果一些攻击迫使受影响的机构将来的患者转到其他地方接受治疗,因为在计算机系统和连接设备无法运行时无法为他们提供治疗大规模的数据泄露[…]”

Leave a Comment

Amazon Translate 通过增强自定义术语来提高翻译准确性和流畅度

Amazon Translate是一种神经机器翻译服务,可以提供快速、高质量、价格合理且可定制的语言翻译当您从一种语言翻译为另一种语言时,您希望机器翻译准确、流畅,最重要的是具有上下文感知能力针对特定领域和特定语言的可定制术语是许多政府和商业组织的关键要求定制术语[…]

Leave a Comment

“比较机器学习方法:传统方法与节省成本的替代方案 – 究竟哪种更有效?”

人工智能在云平台、金融、量化金融、产品设计等各个领域的应用日益增长。许多研究人员仍在探索人工智能聊天机器人的作用以及在开发这些聊天机器人模型中应用机器学习技术的方法。实施聊天机器人模型、进行训练和测试需要大量的数据和成本。这属于自然语言处理和计算机视觉的广泛范畴。为了解决这一经济危机,伦敦大学学院和爱丁堡大学的研究人员正在研究利用机器学习技术构建更好模型以解决这一问题。 研究人员仍在努力解决与云平台(如AWS)的经济相关的问题。研究团队开发了一种基于测量系统的机器学习方法。对比了普通机器学习模型和通过机器学习开发的新模型。这导致了一种节省成本的方法,这种方法相当不错,但也存在一些缺点。这些节省成本的模型预测了最小或最可能的结果。研究人员将问题分为三个主要类别来解决。 研究人员首先实施了批次选择作为第一种方法。这涉及大量的图像堆叠在一起。这些图像按照特定的顺序排列。批次选择是迄今为止使用的一种较便宜的方法,但仍有一些不足之处。研究人员使用的第二种方法称为层叠。这涉及将多个神经网络堆叠在一起。该模型使用层叠来实施模型。情感分析在层叠过程中也起着重要作用。研究人员设计的第三种方法基于高效优化器。这种方法基于减少浪费和加速搜索功能。这种方法是最优的,因为它提供了具有极高准确性的解决方案。在该过程中使用的优化器是Adam优化器的两倍快。 同时使用所有数据并且不舍弃废料信息将无法生成正确的输出。在所有三种输出中,只有层叠方法涉及最小的验证和训练增益。这类过程如今正在大规模改进。许多研究人员正在进行相同的研究。研究人员开发了一种比以前更节省计算资源的优化技术。研究项目完成后,“不训练,不增益”的总体结果被验证通过。

Leave a Comment