Press "Enter" to skip to content

7458 search results for "t"

CMU研究人员揭示了扩散-TTA 通过生成反馈提升有区分性的人工智能模型,实现无与伦比的测试适应性

扩散模型用于从复杂的数据分布中生成高质量的样本。鉴别性扩散模型旨在利用扩散模型的原理来进行分类或回归等任务,其中目标是预测给定输入数据的标签或输出。通过利用扩散模型的原理,鉴别性扩散模型具有处理不确定性、对噪声的稳健性和捕捉数据之间复杂依赖关系的潜力等优势。 生成模型可以通过量化新数据点与学习到的数据分布的偏差来识别异常或异常值。它们可以区分正常和异常数据实例,有助于异常检测任务。在传统上,这些生成和鉴别模型被视为相互竞争的选择。卡内基梅隆大学的研究人员在推理阶段将这两个模型耦合起来,以利用生成反演的迭代推理和鉴别模型的拟合能力的好处。 该团队构建了一种基于扩散的测试时间适应(TTA)模型,通过使用图像分类器、分割器和深度预测器的输出来调节图像扩散模型的条件并最大化图像扩散,从而使其适应各个未标记图像。他们的模型类似于编码器解码器架构。一个预训练的鉴别模型将图像编码为假设,如对象类别标签、分割地图或深度地图。这被用作预训练的生成模型的条件生成图像。 扩散-TTA能够有效地适应图像分类器在ImageNet及其变体等已建立基准上的内部和外部分布示例。他们使用图像重构损失对模型进行微调。通过将扩散似然梯度反向传播到鉴别模型权重,对测试集中的每个实例进行适应性处理。他们表明他们的模型优于以前的最先进TTA方法,并且在多个鉴别性和生成性扩散模型变体中都有效。 研究人员还对各种设计选择进行了剖析分析,并研究了扩散-TTA与扩散时间步长、每个时间步长样本数和批量大小等超参数的变化情况。他们还学习了适应不同模型参数的效果。 研究人员表示,扩散-TTA始终优于扩散分类器。他们猜测鉴别模型不会过度拟合生成损失,因为(预训练的)鉴别模型的权重初始化防止其收敛到这个平凡解决方案。 总之,以前已经使用生成模型对图像分类器和分割进行测试时间适应;通过在联合鉴别任务损失和自监督图像重构损失下共同训练扩散-TTA模型,用户可以获得高效的结果。

Leave a Comment

人类活动识别中的深度学习:这项AI研究利用树莓派和LSTM引入了自适应方法,以提高地点无关的准确性

Translate this HTML (keep the HTML code in the result) to Chinese: 人体行为识别(HAR)是一项研究领域,专注于开发基于来自各种传感器收集的数据自动识别和分类人类活动的方法和技术。HAR旨在使智能手机、可穿戴设备或智能环境等机器能够实时理解和解读人类活动。 传统上,使用可穿戴传感器和基于摄像头的方法。可穿戴传感器对用户来说不舒适且不方便。基于摄像头的方法需要侵入性安装,引发隐私问题。现有的HAR技术面临位置依赖性、对噪声敏感性以及在各种应用中识别多样化活动时需要更多灵活性等挑战,从智能家居到医疗保健和物联网(IoT)等应用。UTeM采用的方法提供了精确、适应性强且与位置无关的解决方案。 马来西亚梅尔卡大学(UTeM)的研究人员制定了一种人体活动识别(HAR)方法,以应对传统限制。他们引入了一种利用信道状态信息(CSI)和先进深度学习技术的系统。 该系统结合了信道状态信息(CSI)和长短时记忆(LSTM)网络。该系统提取无线通信信道状态的重要指标,实现实时分类和绝对位置无关的感知。LSTM网络通过对活动特征进行顺序学习,简化识别过程并适应不同人和环境中的活动变化。 研究人员强调,首先使用树莓派4和专用固件进行数据收集和预处理,以获取原始信道状态信息(CSI)数据,然后使用MATLAB进行优化,以提高质量和应用。 长短时记忆(LSTM)网络被用于从CSI数据中提取关键特征,从而实现对复杂人类活动的准确识别。他们对LSTM模型和分类流程进行了严格的训练,其中包括用于模式识别的在线阶段和用于增强性能的离线阶段。 该系统引入了使用LSTM算法的信号分割方法,以准确确定人类活动的起点和终点。 研究人员测试了该系统,并发现它在人类活动识别方面达到了令人印象深刻的97%的准确率。它展示了在适应新环境方面的能力,标志着HAR技术的重大进步。 研究人员强调了他们系统的卓越适应性。它可以轻松融入不同的环境,而无需进行大量的重新训练或主要更改。这种灵活性使其成为各个领域的实用解决方案,有效应对各种实际需求。这种方法代表了HAR技术的重大进步,具有在智能家居、医疗保健和物联网等多个行业产生重大影响的潜力。

Leave a Comment

How Getir通过使用Amazon SageMaker和AWS Batch将模型训练时间缩短了90%

这是一篇由Nafi Ahmet Turgut, Hasan Burak Yel和Damla Şentürk从Getir共同撰写的嘉宾文章成立于2015年,Getir已经将自己定位为极速杂货配送领域的开拓者这家创新科技公司通过“几分钟即送”的引人入胜的服务,革新了最后一公里配送领域随着一个…

Leave a Comment

加州大学伯克利分校研究人员推出了Starling-7B:一种由强化学习和人工智能反馈训练的开放式大型语言模型(LLM)

将以下HTML代码翻译成中文(保留HTML代码): 大型语言模型(LLM)是用于自然语言处理任务的人工智能模型。这些模型经过大规模的数据集训练,能够理解和生成人类般的文本。它们通过理解和生成人类般的文本,改变了自然语言处理的方式。在生活中各个领域都具有实用性。 加州大学伯克利分校的研究人员推出了一个名为Starling-7B的开放大型语言模型(LLM),该模型通过基于强化学习的人工智能反馈(RLAIF)进行训练。该模型利用我们最近开发的奖励训练和策略调整管道、我们的新GPT-4标记分类数据集(Nectar)以及先进的奖励训练和策略调整管道。 https://starling.cs.berkeley.edu/ Starling-7B的基础是GPT-4标记分类数据集(Nectar)。该数据集包含183,000条聊天提示,每个提示提供了来自不同模型(如GPT-4、GPT-3.5-instruct、GPT-3.5-turbo、Mistral-7B-Instruct和Llama2-7B)的七个回复,共计380万个配对比较。为了确保公正性,在提示GPT-4进行排名时,研究人员付出了相当大的努力来减小位置偏差,这个过程在数据集部分详细说明。 https://huggingface.co/berkeley-nest/Starling-LM-7B-alpha 他们使用了一个学习奖励模型来改进Openchat 3.5语言模型,并取得了令人印象深刻的结果。AlpacaEval得分从88.51%增加到91.99%,而MT-Bench得分从7.81增加到8.09。这些度量标准作为评估聊天机器人有多实用的标准。 研究人员使用直接优化偏好(DPO)将该模型与早期的开源模型(如Zephyra-7B、Neural-Chat-7B和Tulu-2-DPO-70B)进行了测试。虽然这些模型在聊天机器人领域表现良好,但与顶级SFT模型(如OpenHermes 2.5和Openchat 3.5在MT Bench中)相比,它们可能没有充分发挥RLHF的潜力。 研究人员强调该模型存在一定的挑战。它容易受到欺骗或操纵方法的影响。此外,模型在处理数学或推理任务时存在困难,并且其输出的事实准确性只能有时保证。他们还指出,模型偶尔会过于冗长,容易被越狱提示所影响。他们表示,依然致力于改进Starling-7B的这些缺陷。 为了解决这个问题,他们提出通过利用基于规则的奖励模型来进一步改进该模型,其中GPT-4作为指导,使用GPT-4技术报告中概述的技术。 总之,Starling-7B代表了LLM的重大进展,展示了通过人工智能反馈进行强化学习的可能性。自然语言处理领域正在因这些模型与社区共享的知识的合作而得到增强。研究人员正在努力改进模型的性能并解决这些限制。 本文来源:加州大学伯克利分校研究人员介绍Starling-7B:一种基于强化学习的开放大型语言模型(LLM) ,首发于MarkTechPost。

Leave a Comment

这篇来自微软的AI研究案例研究揭示了Medprompt如何在医学及其他领域中增强了GPT-4的专业能力,而无需特定领域的训练

微软研究人员解决了提高GPT-4在回答医疗问题方面的能力的挑战,无需特定领域的培训。他们引入了Medprompt,采用不同的提示策略来提高GPT-4的性能。目标是在MultiMedQA套件的所有九个基准上实现最先进的结果。 这项研究继承了关于GPT-4的医疗能力的先前研究,特别是BioGPT和Med-PaLM,通过系统地探索提示工程来提高性能。 Medprompt的多样性在各个领域得到证明,包括电子工程、机器学习、哲学、会计、法律、护理和临床心理学。 该研究探索了AI创建通用问题解决的计算智能原则的目标。它强调了GPT-3和GPT-4等基础模型的成功,在没有专门的培训的情况下,展示了它们在各种任务中的出色能力。这些模型采用了从大规模网络数据中广泛学习的文本到文本的范例。性能指标,如下一个词的预测准确性,随着训练数据、模型参数和计算资源的规模增加而提高。基础模型展示了可扩展的问题解决能力,表明它们在各个领域具有潜力。 该研究系统地探索了提示工程来提高GPT-4在医学挑战中的性能。仔细的实验设计缓解了过度拟合问题,采用了类似传统机器学习的测试方法学。 Medprompt通过使用有关眼睛和无眼睛的划分对MultiMedQA数据集进行评估,表明它对未见问题的鲁棒泛化性。该研究还检查了在增加计算负载下的性能,并将GPT-4的CoT原理与Med-PaLM 2进行了比较,揭示了生成输出中更长更详细的推理逻辑。 Medprompt改善了GPT-4在医疗问题回答数据集上的性能,实现了MultiMedQA中的现有结果,并超过了像Med-PaLM 2这样的专家模型,同时减少了调用次数。通过Medprompt,GPT-4在MedQA数据集上的错误率减少了27%,首次达到90%分数。 Medprompt的技术,包括动态少样本选择、自动生成的思维链和选择混洗集成,可以应用在医学以外的领域,以提高GPT-4的性能。严格的实验设计确保减少过度拟合的问题。 总之,Medprompt在医学问题回答数据集上表现出色,超过MultiMedQA并在各个领域展示了适应性。该研究强调了对于避免过度拟合的眼睛外评估的重要性,并建议进一步探索提示工程和微调,以利用基础模型在关键领域如医疗保健中的应用。 在未来的工作中,重要的是改进提示和基础模型的能力,将少量样本示例整合到提示中。提示工程和微调在高风险领域,如医疗保健中,存在协同效应的潜力,应该探索快速工程和微调作为关键研究领域。博弈论Shapley值可用于给予消融研究中的信用分配,并需要进一步研究来计算Shapley值并分析其在此类研究中的应用。

Leave a Comment

开放AI为GPT-6和GPT-7的发布做准备:在中国申请商标

OpenAI近期为GPT-6和GPT-7在中国申请了商标,从战略角度表明了其在推进人工智能(AI)方面的承诺。这是继该公司早前为GPT-4和“Whisper”申请商标之后的一系列举措。尽管OpenAI的服务在中国不可访问,但这一积极的举步显示了该公司的全球愿景和在推出下一批LLM方面不断努力推动AI技术边界的努力。 OpenAI在中国的商标申请 OpenAI是AI领域的领先力量,在中国为GPT-6和GPT-7提交了商标申请。这些申请目前正在审查中,属于第9类,涵盖用于科学或研究目的的器具和仪器,以及第42类,涵盖技术服务和设计。这些申请反映了OpenAI在全球AI技术前沿的坚定,以保持领先地位。 大型语言模型的进展 自ChatGPT(OpenAI的生成式AI应用)推出以来,该公司始终在大型语言模型(LLM)方面不断突破界限。ChatGPT最初建立在具有1750亿个参数的GPT-3.5上,展示了卓越的语言理解和生成能力。值得注意的是,OpenAI在3月份推出了GPT-4,其估计的参数数量超过了1万亿,展示了该公司对LLM发展的承诺。 持续创新——GPT-5及未来 OpenAI首席执行官Sam Altman透露正在进行GPT-5的工作,并计划从微软获得额外资金用于支持研究和开发工作。这表明OpenAI尽管最近发生了包括Altman作为CEO的暂时撤职在内的内部争议,仍然致力于创新。有报道称该争议与人工通用智能(AGI)的潜在突破有关,凸显了强大AI发展所涉及的道德考量。 还需要阅读:OpenAI与微软合作发展GPT-5 平衡创新与道德考量 Altman重新担任CEO职务,并加强了对前进的研究计划以及投资安全措施的重视。OpenAI意识到人工智能发展所带来的道德责任,旨在在创新和安全之间取得平衡。该公司对AGI的追求是一项谨慎而重要的目标,体现了对强大AI技术潜在风险和社会影响的深思熟虑的态度。 我们的看法 OpenAI在中国的商标申请意味着其在全球AI领域树立存在的战略举措。GPT模型方面的持续进展显示了该公司塑造AI未来的承诺。加上对新商标的追求,该公司展示了其努力。在OpenAI应对内部争议和外部挑战的过程中,道德AI发展始终是其使命的基石。OpenAI在追求卓越的AI过程中的发展史仍然吸引着科技界,为创新和责任手牵手的未来承诺。

Leave a Comment

“Meta AI推出Seamless:一个公开可用的AI系统,实时解锁富有表现力的跨语言沟通”

自动语音翻译的新功能和改进使我们能够完成更多任务,涵盖更多语言,并且能够处理更多输入格式。然而,相较于人际交流,目前大规模自动语音翻译系统缺少使机器中介沟通自然的关键能力。 Meta AI的一项新研究提出了一系列模型,可以实现从头到尾的表达和多语言翻译。研究人员首先提出了SeamlessM4T v2,这是SeamlessM4T模型的升级版本,它是多模态的,支持几乎所有语言。这个改进的模型使用了更近期版本的UnitY2框架,其训练使用了资源较少的语言数据。通过扩展SeamlessAlign,将自动对齐了76种语言的数据,总计114,800小时。最近的两个模型,即SeamlessExpressive和SeamlessStreaming,基于SeamlessM4T v2。使用SeamlessExpressive,用户可以在保留所有语调和风格的同时进行翻译。 Meta的研究保留了用户声音的风格,同时解决了韵律(prosody)的一些尚未充分研究的特征,例如说话速度和停顿,这些特征在以前的表达性语音研究尝试中被忽视了。关于SeamlessStreaming,该提议模型不需要等待源话语完全结束才能生成延迟较低的目标翻译,而是使用了效率高的单调多头注意力(EMMA)技术。利用SeamlessStreaming,可以同时完成多种源语言和目标语言的语音转文本翻译。 团队根据一组新的和更新的现有自动度量标准来评估这些模型的韵律、延迟和稳定性。为进行人工评估,他们修改了现有的协议,以衡量对于意思保留、真实性和表达力最重要的品质。他们对性别偏见进行了全面评估,这是已知的第一个为多模态机器翻译进行红队评估的努力,也是第一个已知的检测和缓解毒性添加的系统,并使用不可听见的本地水印技术来缓解深度伪造的影响,以确保他们的模型能够负责任且安全地使用。 Seamless是第一个公开可用的能够实现表达性跨语言实时交流的系统。它结合了SeamlessExpressive和SeamlessStreaming,汇集了各个重要组成部分。总体而言,Seamless为我们提供了转变通用语音翻译器从科幻理念变为现实所需的基础技术的关键洞察。 研究人员强调,模型的准确性可能会因性别、种族或口音而有所不同,尽管我们在各种公平性角度上对我们的凭据进行了彻底测试,并在可行的情况下加入了安全保障。进一步的研究应该继续努力提高语言覆盖范围,并缩小低资源语言和高资源语言之间的性能差距,以实现通用语音翻译器。

Leave a Comment

「见面SceneTex:室内场景高质量、风格一致的纹理生成的新型AI方法」

高质量的3D内容合成对于许多应用来说是一个至关重要且具有挑战性的问题,比如自动驾驶、机器人模拟、游戏、电影制作以及未来的VR/AR场景。由于越来越多的3D内容数据集的可用性,3D几何建模这个领域已经引起了计算机视觉和图形界的广泛研究兴趣。尽管3D几何建模已经取得了很大的进展,但是创建物品的外观或纹理仍然需要大量的人力。开发和编辑通常需要很长时间,并且需要具备使用Blender等3D建模程序的丰富经验。 因此,对于人类技能的高需求和相关成本阻碍了自主纹理设计和增强达到完全工业化。通过利用2D扩散模型的最新发展,特别是针对预定义形式的纹理合成方面的方法,已经在文本到3D创建方面取得了很大的进展。两个开创性的工作Text2Tex和Latent-Paint产生了高质量的物体外观,并实现了从输入提示中合成高保真度的纹理。虽然这些方法对于单个物体产生了有趣的结果,但要将它们扩展到为场景生成纹理仍然存在一些困难。 一方面,纹理接缝、累积的伪影和循环闭合问题是将2D视图投影到3D物体表面的自回归算法的常见问题。当每个物体都有自己的纹理时,保持图片风格的一致性可能是一项具有挑战性的任务。相反地,纹理优化是在低分辨率潜空间中使用基于分数蒸馏的方法进行的,这经常导致错误的几何细节和朦胧的RGB纹理。因此,之前的基于文本的方法无法生成高品质的3D场景纹理。 慕尼黑工业大学和Snap Research的研究团队提出了SceneTex,这是一个独特的设计,使用深度到图像扩散先验来为内部场景网格生成高质量且风格一致的纹理,以解决上述问题。该研究团队采用了一种独特的策略,将纹理创建视为使用扩散先验在RGB空间中进行纹理优化的挑战,而不是现有技术中反复将2D视图弯曲到网格表面上。基本上,研究团队引入了一个多分辨率纹理场,以细致地描绘网格的外观。研究团队使用多分辨率纹理以准确地呈现多种尺寸的纹理细节。因此,他们的设计现在可以适应低频和高频的外观信息。研究团队使用交叉注意力解码器来减少自遮挡引起的风格不一致,以确保所创建纹理的风格一致性。 从实用的角度来看,每个解码后的RGB值都是通过与分布在每个物体上的预采样参考表面位置进行交叉参考生成的。因为每个可见位置都会获得整个实例外观的全局参考,所以研究团队可以进一步确保每个模型内部的全局风格一致性。研究团队通过全面的试验表明,SceneTex可以根据提供的语言信号准确而灵活地创建内部场景的纹理。研究团队通过对3DFRONT数据集的部分进行用户研究,证明了SceneTex在2D指标(如CLIP和Inception分数)方面优于其他基于文本的纹理创建算法。 研究团队的技术贡献可以概括如下: • 使用深度到图像扩散先验,研究团队创建了一个独特的框架,用于生成高质量的高分辨率场景纹理。 • 研究团队使用多分辨率纹理通过提出隐式纹理场来准确捕捉丰富的纹理特征,以记录物体在多个尺度上的外观。 • 与以往的合成技术相比,研究团队通过使用交叉注意力纹理解码器,为3D-FRONT场景生成更美观和风格一致的纹理,以确保每个实例的全局风格一致性。

Leave a Comment

纽约大学和Meta公司的研究人员推出了Dobb-E:一个用于学习家庭机器人操作的开源通用框架

“`html 纽约大学和Meta的研究团队旨在通过引入高度适应型的DobbE系统,解决家庭环境中机器人操作学习的挑战,能够从用户示范中学习和适应。实验展示了系统的效率,同时强调了现实世界环境中的独特挑战。 研究中承认了积累大量机器人数据集的最新进展,强调了以家庭和第一人称机器人互动为中心的数据集的独特性。利用iPhone的能力,该数据集提供了高质量的动作和稀有的深度信息。与现有的自动化操作重点表示模型相比,强调了用于通用表示的域内预训练。他们建议使用非机器人家庭视频的非域内信息来增强数据集,承认这些增强对于他们的研究有潜在的改进。 引言中提到了在创建全面家庭助手方面面临的挑战,主张从受控环境向真实家庭的转变。强调效率、安全和用户舒适性,并介绍了体现这些原则的DobbE框架。它利用大规模数据和现代机器学习来提高效率,利用人类示范来确保安全,并使用符合人体工程学的工具来提高用户舒适度。DobbE将围绕Hello Robot Stretch集成硬件、模型和算法。还讨论了纽约家庭数据集中来自22个家庭的多样化示范以及用于视觉模型的自监督学习技术。 该研究采用行为克隆框架,一种模仿学习的子集,来训练DobbE模仿人类或专家行为。设计的硬件设置促进了无缝示范收集和转移到机器人实体,利用了包括iPhone视觉里程计在内的多种家庭数据。基本模型在这些数据上进行预训练。经过测试,训练模型在真实家庭中进行测试,消融实验评估了视觉表示、所需示范、深度感知、示范者专业知识以及系统中是否需要参数化策略。 DobbE在陌生的家庭环境中接受仅五分钟示范和15分钟适应家庭预先训练的表示模型后,显示出81%的成功率。在10个不同的家庭中经过30天的学习,DobbE成功学会了109项任务中的102项,证明了使用ResNet模型进行视觉表示和使用两层神经网络进行行动预测等简单方法的有效性。任务的完成时间和难度通过回归分析进行了分析,消融实验评估了不同系统组件,包括图形表示和示范者专业知识。 总之,DobbE是一种经过测试的成本效益高且适用于各种家庭环境的机器人操作系统,具有令人印象深刻的81%的成功率。DobbE团队慷慨地开源了其软件堆栈、模型、数据和硬件设计,以推动家用机器人研究的发展,并促进机器人管家的广泛采用。DobbE的成功归功于其强大而简单的方法,包括行为克隆和用于行动预测的两层神经网络。该研究还提供了有关光照条件和阴影对任务执行的影响的见解。 “`

Leave a Comment

“认识 RAGs:一个使用自然语言从数据源创建 RAG 管道的 Streamlit 应用程序”

GPT在自然语言处理任务中表现出色。然而,使用GPT构建和部署的流程可能会很长且复杂。这就是RAG的作用所在。 RAG是由Streamlit开发的一款应用程序,用于简化创建和部署GPT流程的过程。它提供了直观的界面,使用户可以指定任务和所需的RAG系统参数。然后,在RAG生成所需代码后,流程将自动部署。 最好的部分是RAG还有一个全新的版本RAGs v2。RAGs v2是自其初始发布以来的一次重要升级,为构建和自定义ChatGPT提供了更灵活和用户友好的体验。用户现在可以轻松创建、保存和管理多个RAG流程,每个流程都可以使用不同的数据集或系统提示进行自定义。此外,还可以删除未使用的流程,提高整体可用性。集成了代码检查和CI工具,提高了开发质量。RAGs v2还支持各类大型语言模型(LLM),用于在每个RAG流程中构建和使用。此外,它还可以加载文件或网页,进一步扩展其功能。提供了一个详细的说明视频,以便轻松设置和使用这个高级工具。 以下是该应用的三个主要部分: 在主页上,通过指示“builder agent”构建RAG流程。 可以在RAG配置部分中找到“builder agent”创建的RAG设置。您可以在此区域中自由更新或更改生成的设置,该区域具有用户界面。 使用常规的聊天机器人界面生成RAG agent,您可以根据数据向其提问。 如何使用RAGs 以下是使用RAGs的简单方法: 运行RAGs:要运行RAGs,执行以下命令: pip install rags 安装完成RAGs后,可以执行以下命令构建RAG流程: rags create-pipeline Streamlit应用程序将启动,您可以选择任务和所需的RAG系统规格。 完成创建RAG流程后,执行以下命令部署: rags…

Leave a Comment

迎接 PGXMAN:PostgreSQL 扩展管理器

你能够将它们拖放到项目管理工作流中,而不是手动更新和独立管理每个Postgres扩展吗?那该多么棒啊!幸运的是,随着PGXMAN的推出,这个愿望成真了。 想象一下,只需点击几下或输入几条命令,就可以安装、更新和卸载Postgres扩展。搜索新版本、管理依赖关系和手动更新都成为了过去的事情。有了Pgxman负责这一切,你可以专注于创建令人难以置信的应用。 增强Postgres数据库最有效的方法之一就是使用扩展。而处理扩展可能是具有挑战性的。感谢PGXMAN,当安装和管理Postgres扩展时,Pgxman就是救星。 什么是PGXMAN? Pgxman是一个Postgres扩展程序包管理器。使用它可以轻松安装和更新扩展,并管理扩展之间的依赖关系。对于希望在应用程序中包含Postgres扩展的开发人员来说,PGXMAN是一个宝贵的工具。 PGXMAN:它是如何工作的? Pgxman使用软件包存储库来存储扩展。每个扩展的详细信息,包括名称、版本和依赖关系,都存储在软件包存储库中。通过这些信息,Pgxman可以安装、更新和删除扩展。 使用Pgxman的优点 使用PGXMAN有许多优点,其中包括: PGXMAN简化了查找、安装和更新扩展的过程,易于使用。 PGXMAN可以自动处理扩展之间的依赖关系。 使用PGXMAN可轻松保持扩展的最新状态。 PGXMAN社区强大而支持性良好,有许多用户和开发人员为该项目做出了贡献。 开始使用Pgxman 下面的命令将安装pgxman并帮助你入门: pip install pgxman 以下命令将在安装pgxman后帮助你使用pgxman添加扩展: pgxman install <extension-name> 通过以下命令,您还可以使用pgxman更新扩展: pgxman update…

Leave a Comment

微软和佐治亚理工学院的研究人员推出TongueTap:使用头戴式设备进行多模式舌头手势识别

在迅速发展的可穿戴技术领域,追求平滑、无需手动操作的交互方式产生了突破性的发现。TongueTap是一种通过同步多个数据流实现舌头手势识别来控制佩戴式设备的技术,它是一项有前景的发展。这种方法使用户能够静默地进行交互,无需使用手或眼睛,也无需需要通常放置在口内或接近口腔的特殊接口。 在与美国华盛顿州雷德蒙德的微软研究院合作下,乔治亚理工学院的研究人员将两个商业头戴式设备中的传感器(Muse 2和Reverb G2 OE设备)进行了整合,创建了一种舌头手势接口(TongueTap)。这两个头戴式设备都包含IMU和光电测量(PPG)传感器。其中一个头戴设备还包括脑电图(EEG)、眼动追踪和头部追踪传感器。两个头戴设备的数据使用“实验室流式层(LSL)”进行了同步,该系统是用于多模式脑-计算机界面常用的时间同步系统。 团队在其流程中使用了SciPy对EEG信号进行了128Hz低通滤波和独立分量分析(ICA)处理,同时对其他传感器分别应用了主成分分析(PCA)。为了进行手势识别,他们使用Scikit-Learn中的支持向量机(SVM)方法,使用径向基函数(RBF)核函数和超参数C=100、gamma=1进行二元分类,判断一个移动窗口的数据是否包含手势或非手势。 他们通过与16名参与者合作,收集了用于评估舌头手势识别的大型数据集。研究中最有趣的结果是哪些传感器在分类舌头手势时最有效。Muse上的IMU传感器是最有效的传感器,单独使用可以达到80%的准确率。多模态组合,包括Muse IMU传感器,效率更高,多种PPG传感器的准确率达到94%。 基于表现最佳的传感器,研究人员观察到,耳后的IMU是一种低成本的舌头手势检测方法,其位置可以与以往的口腔感应方法相结合。使舌头手势成为产品的关键步骤之一是建立可靠的、用户无关的分类模型。为了使手势在更现实的环境中适应,需要进行更生态有效的研究设计,包括多次实验和在不同环境之间进行移动。 TongueTap是朝着平滑、直观的可穿戴设备交互方向迈出的一大步。它利用商业可购买的技术来识别和分类舌头手势,为实现离散、准确和用户友好的佩戴式设备控制打下了基础。舌头交互的最有前景的应用是控制增强现实界面。研究人员计划通过将其用于增强现实头盔,并与其他注视交互方式进行比较,进一步研究这种多器官交互。

Leave a Comment

Snorkel AI的首席执行官兼联合创始人 Alex Ratner – 面试系列

亚历克斯·拉特纳是Snorkel AI的首席执行官兼联合创始人,该公司诞生于斯坦福人工智能实验室Snorkel AI通过将手动的人工智能开发流程转变为程序化的解决方案,使人工智能开发变得快速而实用Snorkel AI利用自有数据和知识,使企业能够开发适用于其独特工作负载的人工智能

Leave a Comment

“Rasa-驱动的 Chatbot:无缝 Confluence 和 Jira 集成指南”

介绍 在近年来,聊天机器人在人工智能的推动下发展成了功能复杂的对话代理工具。本指南深入探讨了构建一个高级的Rasa-powered聊天机器人的过程,该机器人专门针对与Confluence页面和Jira工单相关的用户查询进行了定制。将Confluence和Jira集成起来带来了很多好处,可以简化信息检索,并促进协同工作环境的形成。Confluence有助于协同文档编写,而Jira则是一个强大的项目管理工具。通过创建与这些平台无缝集成的聊天机器人,可以提高可访问性,优化团队进行内容协作和项目管理的效率。 学习目标 在本文中,您将学习到: Rasa项目设置:学习如何启动一个Rasa项目,为高级聊天机器人的开发奠定基础。 NLU意图定义:定义Confluence和Jira查询的特定自然语言理解(NLU)意图,提高聊天机器人的理解能力。 自定义动作开发:创建基于Python的自定义动作,与Confluence和Jira的API进行交互,从而扩展功能。 模型训练和测试:了解模型训练过程,确保聊天机器人的泛化能力,并进行迭代测试以持续改进。 本文是作为数据科学博文的一部分发表的。 基础概念 Rasa Rasa是一个开源的对话人工智能平台,可以帮助开发人员构建强大的上下文感知的聊天机器人。Rasa利用机器学习来理解并响应复杂的用户输入,不仅仅是简单的基于规则的系统。其自然语言处理能力和对话管理工具使得Rasa成为创建智能对话代理的多功能解决方案。 Jira Jira是由Atlassian开发的一款著名的项目管理和问题追踪工具。在敏捷软件开发中被广泛使用,Jira通过组织任务、追踪问题和使团队的工作流程变得更加高效来促进协作。其丰富的功能,如可自定义的工作流和实时协作,有助于在开发团队和项目经理中的广泛使用。Jira的丰富的RESTful API允许与外部工具和应用的无缝集成,实现实时数据交换和自动化。 Confluence Confluence同样是由Atlassian开发的一个协同平台,用于组织内的高效文档编写、知识共享和团队合作。它是一个集中化的空间,供团队创建、共享和协作于内容,使其成为项目文档、会议记录和一般知识管理的重要工具。实时协同编辑可以让多个团队成员同时在同一文档上进行工作。通过Confluence强大的搜索能力,可以高效地找到相关信息。Confluence与Jira等Atlassian产品无缝集成,创造了一个统一的项目管理和文档生态系统。 聊天机器人 聊天机器人已成为现代数字互动的重要组成部分,能够提供即时和个性化的响应。由人工智能驱动,聊天机器人能够解释用户的输入、理解上下文,并提供相关信息或执行操作。从客户支持到流程自动化,聊天机器人改变了企业与用户互动的方式,提高了效率和用户体验。聊天机器人利用自然语言处理来识别用户意图,使其能够以上下文相关和准确的方式响应。在Rasa的上下文中,自定义动作是Python函数,扩展了聊天机器人的功能,使其能够执行除简单意图识别之外的任务。 先决条件 在我们深入开发过程之前,请确保您拥有必要的工具和访问权限: Python和虚拟环境 确保您已安装Python。使用以下命令创建并激活虚拟环境: # 命令提示符(Windows)或终端(macOS/Linux)…

Leave a Comment

探索单细胞生物学中的人工智能前沿:对Geneformer和scGPT等零射基础模型的批判性评价

Translate from English to Chinese: 基于基因形态模型在单细胞生物学中的应用近来一直是研究人员讨论的热点话题。像scGPT、GeneCompass和Geneformer这样的模型是该领域的一些有希望的工具。然而,它们的有效性一直是一个令人担忧的问题,特别是在零-shot环境中,尤其是当这个领域涉及到探索性实验和缺乏明确的标签进行微调时。本论文基于此问题,对这些模型的零-shot性能进行了严格评估。 以前,有研究依赖于对特定任务进行微调,但由于该领域的特性以及高计算要求,当应用于单细胞生物学领域时,其局限性变得非常明显。因此,为了应对这一挑战,微软研究人员评估了Geneformer和scGPT基因形态模型在涉及多样数据集和多个任务的多个方面上的零-shot性能,如细胞类型聚类的嵌入表示效用、批效应校正和基于预训练目标的模型输入重构的效果。 选择这两个模型的原因是它们的预训练权重(在评估时的时间点上)是可用的。研究人员使用了五个不同的人类组织数据集进行评估,每个数据集都对单细胞分析提出了独特且相关的挑战。为了比较,研究人员还使用了一个名为scVI的生成模型,该模型在每个数据集上进行了训练。他们使用了以下指标来评估每个任务: 对于评估细胞嵌入,他们使用平均轮廓宽度(ASW)和平均Bio(AvgBIO)评分来计算细胞类型在嵌入空间内的唯一度。 对于批次整合,他们采用一种在0到1之间的变体AWS评分,0表示完全分离批次,1表示完美混合批次。 对于评估scGPT和Geneformer在预训练目标上的性能,分别使用均方差(MSE)和皮尔逊相关性。 在这两个度量标准上,scGPT和Geneformer的表现均不如基准策略。Geneformer在不同数据集上具有很大的方差,尽管scGPT在其中一个数据集上的表现优于基准模型scVI,但在另外两个数据集上表现较差。随后,研究人员评估了预训练数据集对模型性能的影响,主要集中在scGPT(四个变体)上,并发现所有模型变体的中位数得分有所改善。 在评估批次效应时,两个模型均表现不佳,常常落后于scVI等模型,这表明它们对零-shot环境中的批次效应并不完全稳健。在最后一组评估中,研究人员发现scGPT无法重构基因表达,而Geneformer的表现更好。与基准模型相比,他们观察到基准预测胜过所有scGPT变体,而Geneformer在其中一个数据集上的表现优于平均排名。 总之,研究人员对将scGPT和Geneformer应用于单细胞生物学的零-shot能力进行了全面分析,他们的分析突显了这些模型的不佳性能。他们的研究发现,scGPT在所有评估中优于Geneformer模型。最后,研究人员还提供了一些关于未来工作需要关注的见解,尤其是关于预训练任务、预训练数据集与下游分析任务性能之间的关系。

Leave a Comment

成为数据分析领袖与Rajan Sethuraman

在这一期的用数据引领节目中,LatentView Analytics的首席执行官Rajan Sethuraman讨论了他从安永(Accenture)到领导一个快速增长的分析公司的经历。他强调了转型LatentView所面临的挑战,特别强调了生成式人工智能、人才招聘和地理扩张。Rajan与那些打算从事数据分析职业的人分享了见解。 您可以在流行平台上收听这一期的Leading with Data,如Spotify、Google Podcasts和Apple。选择您喜欢的平台,享受深入的内容! 与Rajan Sethuraman的对话中的关键见解 分析公司从执行到战略伙伴的转变对于提供增强客户价值至关重要。 人才招聘应优先考虑技术、数学和商业技能的结合,培养持续学习的文化。 生成式人工智能正在革新分析,为个性化和高效解决方案打开了新的机会。 战略性的地理扩张和有机增长对于分析公司扩大市场份额和提升能力至关重要。 数据分析市场的迅速增长要求公司适应新兴趋势并探索相关机会。 加入我们即将举行的Leading with Data活动,与AI和数据科学领域的领导者进行深入讨论! 现在,让我们来看看Rajan Sethuraman在这个节目中提出的问题以及他的回答! 您是如何开始从事分析和数据科学的旅程的? 在安永(Accenture)工作了二十多年,然后在毕马威(KPMG)工作了一年之后,我于2016年6月加入了LatentView Analytics。LatentView对我非常吸引,它将我在管理咨询方面的背景、广泛的分析经验和后来在人才招聘和预测建模方面的专长相结合。我被LatentView能够通过数据分析解决复杂业务问题的能力所吸引。 从安永到LatentView Analytics的过渡是什么样的? 从安永转到LatentView是一个很大的改变,因为两家公司的规模差异很大。我被在像LatentView这样规模较小、充满活力的公司中发挥影响的潜力所吸引。在LatentView,文化活跃,有着聪明人员在解决具有挑战性的问题。我的角色从首席人力资源官发展到首席执行官,我致力于将LatentView从执行合作伙伴转变为我们客户的战略思想合作伙伴。…

Leave a Comment

Can't find what you're looking for? Try refining your search: