汽车爱好者们有好消息:现在到下周都将进行的两个备受赞誉的车展,通过展示由人工智能驱动的下一代汽车设计,让参观者们大呼过瘾。 预计来自世界各地的数十万汽车爱好者将前往中国广州,这个被誉为“花城”的城市参加其车展,活动将于11月26日(星期日)结束。这次活动将展示电动汽车(EV)和自动驾驶方面的最新发展,共有1100辆车展出。 而在世界的城市之一——洛杉矶,洛杉矶车展预计将达到有史以来最高的参观人数。该展览也将持续到11月26日,除了展出私人收藏的古董车和豪华车外,还设有公开测试赛道,参观者可以亲身体验最新的电动汽车。 广州车展 Human Horizons, NIO, ZEEKR 最受期待的之一是莲花(Lotus)的全新纯电动Emeya Hyper-GT,这款豪华车型于9月发布。这款令人惊叹的豪华车拥有运动车的灵活性,并搭载双 NVIDIA DRIVE Orin 处理器提供强大的智能功能。高性能处理能力使驾驶员可以享受车辆的安全驾驶能力,并通过空中升级(OTA)支持未来功能。 为了安全起见,Emeya搭载了34个先进的环绕传感器,用于实时处理多样化和冗余的传感器数据,让驾驶员在车辆后方嵌入了DRIVE Orin处理器,Emeya可以提供先进的驾驶辅助系统(ADAS)功能,并且具备支持自主驾驶未来的内部空间。 Emeya Hyper-GT采用了莲花创新的Electric Premium Architecture,该架构还支撑了Eletre Hyper-SUV,同样由NVIDIA DRIVE Orin提供动力。 此外,莲花还展示了其全系列的电动汽车,包括Evija超级跑车、Eletre Hyper-SUV和最近推出的Type…
Leave a Comment四海吧 Posts
在这一集的《Leading With Data》中,我们与纽约大学的联合AI大师班负责人、Dataiku的前首席AI战略师Jepson Taylor进行了互动。在展望人工智能的未来时,Taylor分享了他旅程中的关键时刻的宝贵见解——从化学工程到人工智能创业、成功的初创公司收购以及生成式人工智能的兴起。 让我们一起深入探讨! 与Jepson Taylor的对话关键见解 生成式人工智能是开启通往AGI道路的关键,革新问题解决和创新方法。 从传统编程转向人工智能需要对技术的热情和冒险精神,比如离开稳定的工作追求创业。 讲故事成为人工智能专业人士的关键技能,能够有效地将复杂的想法传达给高管和利益相关者。 人工智能的未来 embraces 生成式算法,使得人工智能系统能够自主撰写和增强代码,带来更高效和强大的应用。 人工智能初创公司的胜利取决于招募正确的人才,强调有经验的专业人士,他们能够负责自己的工作,并推动公司发展。 在接下来的部分,我们总结了在《Leading With Data》会议上向Jepson Taylor提出的问题。 你从化学工程到人工智能创业的旅程是如何开始的? 在学习化学工程时,我并没有做太多的编程,但有两个平行的路径改变了这一点。首先,我在上学期间创办了一家电子商务公司,这是我在Web编程方面的基础。其次,我在数值方法课上的一位鼓舞人心的老师向我介绍了遗传算法和模拟退火。这激发了我对编程的热情,特别是在计算机可以为你工作的领域,比如高性能计算和计算机视觉。我的工程项目始终有一个编程的延伸,甚至曾经因为在化学工程实习期间进行卫星图像处理而受到批评! 从化学工程转向人工智能,哪些是关键时刻? 起初,我以为自己会去医学院攻读MD-PhD,将医学研究与编程相结合。然而,我爱上了编程和计算机视觉,意识到与医疗保健相比,我可以通过人工智能产生更大的影响。在深度学习出现之前,计算机视觉更多地是一门艺术,需要费力的启发式方法。深度学习改变了这一点,不再需要构建这些复杂规则。 你能分享一下你的初创公司被DataRobot收购的故事吗? 2016年,我和我的合作伙伴参加了犹他州的一个创业比赛,介绍了一个AutoML解决方案。通过创建一个用于结构化数据上传的Web表单,它可以在不到40秒的时间内提供一个AutoML模型的分析结果。数据质量让我们震惊,促使我们转向深度学习。放弃工作是从“创业者”过渡到企业家的关键一步,我们与 Teal…
Leave a Comment在本文中,我们将讨论为什么准确性并不总是衡量模型性能的最佳指标,尤其是在分类任务的情况下,然后我们将介绍…
Leave a Comment生成式人工智能几乎在每位首席执行官的脑海中都是首要考虑的问题,但它如何实现企业就绪性还存在争议以下是为何 “RAG” 和微调是其成功的关键
Leave a Comment在像F1这样极具竞争力的运动中,就连最微小的表现提升也可能导致取得胜利从粉丝和数据科学的角度分析F1可能会帮助获得有用的见解这激发了…
Leave a Comment阅读关于LinkedIn最近对其动态和基础设施的更新,将以人为本的原则与技术术语和实施相连接的内容
Leave a Comment想象世界的广阔并不是一件容易的事情但为了更接近它,今年11月,我将参加#30DayMapChallenge我已经迷上了地理可视化…
Leave a Comment寻找AI视频生成器吗?请阅读这篇《Colossyan Creator》评测,了解它的功能和与其他替代方案的比较
Leave a Comment“`html 大型语言模型以其仿人能力在人工智能界引起了轰动。凭借出色的文本理解和生成能力,如GPT-3、LLaMA、GPT-4和PaLM等模型受到了广泛关注和热潮。GPT-4是OpenAI最近推出的模型,由于其多模态能力,引起了人们对视觉和语言应用融合的兴趣,也因此产生了多模态大型语言模型(MLLMs)。MLLMs的引入是为了通过添加视觉问题解决能力来改进它们。 研究人员一直在关注多模态学习,之前的研究发现多种模态可以很好地同时提高文本和多模态任务的性能。目前现有的解决方案,如跨模态对齐模块,限制了模态协作的潜力。大型语言模型在多模态指导下进行细化,这导致文本任务性能有所降低,产生了一大挑战。 为了解决所有这些挑战,阿里巴巴集团的研究团队提出了一种名为mPLUG-Owl2的新型多模态基础模型。mPLUG-Owl2的模块化网络架构考虑了干扰和模态协作。该模型结合了常见的功能模块,以鼓励跨模态协作,并使用模态适应模块在各种模态之间无缝过渡。通过这样做,它利用语言解码器作为通用接口。 这种模态适应模块通过将语言和视觉模态投影到共同的语义空间中保证两种模态之间的协作,同时保持模态特定特征。团队为mPLUG-Owl2提出了一个两阶段的训练范式,包括联合视觉-语言指导调优和视觉-语言预训练。借助这种范式,视觉编码器能够更高效地收集高层和低层语义视觉信息。 研究团队进行了各种评估,并展示了mPLUG-Owl2在文本问题和多模态活动中的概括能力。该模型通过在各种任务中实现最先进的性能,展示了其作为单一通用模型的多样性。研究表明,mPLUG-Owl2是独特的,因为它是第一个在纯文本和多模态场景中展示模态协作的MLLM模型。 总之,mPLUG-Owl2无疑是多模态大型语言模型领域的重大进展和重要一步。与早期主要集中于增强多模态技能的方法不同,mPLUG-Owl2强调模态之间的协同作用,以在更广泛的任务范围内提高性能。该模型采用了模块化的网络架构,其中语言解码器作为控制各种模态的通用接口。 “`
Leave a Comment了解更多有关在AIOps领域中改变性能分析的内容,以及人工智能/机器学习与AIOps的融合如何引领了一种新的可观测性时代
Leave a Comment“您是否正在寻找在快速发展的人工智能领域中的职业?探索提供令人兴奋机会的前六个人工智能职业道路”
Leave a Comment一群研究人員提出了CogVLM,這是一種革新了當前多模態人工智能標準的新模型,幾乎摧毀了所有競爭對手
Leave a Comment介绍 在人工智能中,出现了两个不同的挑战:在云环境中部署大型模型,产生了巨大的计算成本,阻碍了可扩展性和盈利能力,以及需要支持复杂模型的资源受限的边缘设备。这些挑战的共同问题是在不影响准确性的情况下缩小模型尺寸。模型量化是一种流行的技术,可以提供潜在解决方案,但也引发了对潜在准确性的担忧。 量化感知训练成为一个有力的解决方案。它将量化无缝地集成到模型训练过程中,可以显著减小模型尺寸,有时可以减小两到四倍以上,同时保持重要的准确性。本文深入探讨了量化,在后训练量化(PTQ)和量化感知训练(QAT)之间进行了比较。此外,我们提供了实际见解,展示了如何使用Deci开发的开源训练库SuperGradients来有效地实现这两种方法。 此外,我们还探讨了用于移动和嵌入式平台的卷积神经网络(CNNs)的优化,解决了尺寸和计算需求的独特挑战。我们着重于量化,研究了数字表示在优化移动和嵌入式平台模型中的作用。 学习目标 了解人工智能中模型量化的概念。 了解典型量化级别及其权衡。 区分量化感知训练(QAT)和后训练量化(PTQ)。 探索模型量化的优势,包括内存效率和能源节省。 发现模型量化如何实现更广泛的人工智能模型部署。 本文是Data Science Blogathon的一部分。 理解模型量化的需求 模型量化是深度学习中的一种基本技术,旨在解决与模型尺寸、推理速度和内存效率相关的关键挑战。它通过将模型权重从高精度浮点表示(通常为32位)转换为较低精度浮点(FP)或整数(INT)格式(例如16位或8位)来实现这一目标。 量化的好处是双重的。首先,它显著减小了模型的内存占用,并提高了推理速度,而不会造成显著的准确性降低。其次,它通过减少内存带宽需求和增强缓存利用来优化模型性能。 在硬件架构上,INT8表示通常在深度神经网络的上下文中被称为“量化”,但是根据不同的模型,还会使用其他格式,如UINT8和INT16,这取决于硬件架构。不同的模型需要不同的量化方法,通常需要先有先验知识,并进行细致的微调以在准确性和模型尺寸减小之间取得平衡。 量化引入了挑战,特别是对于INT8等低精度整数格式,由于其有限的动态范围。将FP32的广阔动态范围压缩为只有255个INT8值可能导致准确性损失。为了解决这个挑战,可以通过通道或层级缩放调整权重和激活张量的比例和零点值,以更好地适应量化格式。 此外,量化感知训练可以在模型训练过程中模拟量化过程,使模型能够优雅地适应较低的精度。通过校准来实现的挤压或范围估计是这个过程的一个重要方面。 总之,模型量化对于部署高效的人工智能模型非常重要,在限制性计算资源的边缘设备上准确性和资源效率之间取得微妙的平衡。 模型量化技术 量化级别 量化将模型的高精度浮点权重和激活转换为较低精度的定点值。 “量化级别”指的是表示这些定点值的比特数。典型的量化级别有8位、16位,甚至是二进制(1位)量化。选择适当的量化级别取决于模型准确性与内存、存储和计算效率之间的权衡。 详细介绍量化感知训练(Quantization-Aware…
Leave a Comment介绍 人工智能(AI)在过去几年中取得了显著的发展,主要归功于大型语言模型(LLMs)的兴起。这些复杂的AI系统,在包含丰富人类语言的大量数据集上进行训练,推动了众多技术的进步。LLMs的规模和复杂性,例如GPT-3(生成预训练变压器3),使它们成为自然语言理解和生成的前沿。本文重点介绍了LLMs在改革电子邮件回复生成和分类方面的关键作用。随着我们的数字通信环境的演变,对电子邮件的高效、上下文感知和个性化回复的需求越来越关键。LLMs具有重塑这一领域的潜力,通过提供增强沟通效率、自动化重复任务和增强人类创造力的解决方案。 学习目标 追溯语言模型的演变,了解关键里程碑,并从基础系统到GPT-3.5等高级模型的发展中获得洞察力。 导航大型语言模型的复杂性。在探索细调和迁移学习中面临的挑战和创新解决方案的同时,他们将积极理解数据准备、模型架构和必要的计算资源。 研究大型语言模型如何改变电子邮件沟通。 了解语言模型如何优化电子邮件的分类过程。 本文作为数据科学博文马拉松的一部分发表。 了解大型语言模型 大型语言模型,即LLMs,在人工智能领域,特别是在理解人类语言方面,具有重要的进展。它们擅长理解和生成类似人类的文本。人们对它们感到兴奋,因为它们擅长各种语言任务。要理解LLMs的概念,有两个关键方面是必要的:它们是什么以及它们如何工作。 什么是大型语言模型? 在它们的核心,大型语言模型就像拥有广泛网络连接的卓越计算机程序。它们的独特之处在于它们的规模庞大。它们经过对包括书籍、文章、网站和社交媒体帖子等各种文本数据集的预训练。这个预训练阶段使它们接触到人类语言的复杂性,使它们学会语法、句法、语义甚至一些常识推理。重要的是,LLMs不仅仅是机械地复制学到的文本,而是能够生成连贯且具有上下文相关性的回答。 最著名的LLMs之一是GPT-3,它代表了生成预训练变压器3。 GPT-3拥有惊人的参数数量,准确说是1,750亿个,这使它成为最大的语言模型之一。这些参数代表了其神经网络中的权重和连接,并通过微调来使模型能够根据前文提供的上下文预测句子中的下一个单词。这种预测能力被用于各种应用,从电子邮件回复生成到内容创作和翻译服务。 实质上,像GPT-3这样的LLMs位于尖端人工智能技术和复杂的人类语言的交汇处。它们可以流利地理解和生成文本,使它们成为具有广泛影响的多功能工具,适用于各种行业和应用。 培训过程和类似GPT-3的模型 大型语言模型的培训过程是一项复杂而资源密集的工作。它始于从互联网获取大量文本数据集,涵盖多种来源和领域。这些数据集构成了模型构建的基础。在培训过程中,模型通过优化其神经网络,调整其参数的权重以最小化预测错误来学习预测给定前文上下文情况下单词或单词序列的可能性。 GPT-3架构概述 GPT-3,或称“生成式预训练变压器3”,是由OpenAI开发的最先进的语言模型。它的架构基于变压器模型,通过采用自我关注机制,革新了自然语言处理任务。 变压器架构: 2017年Vaswani等人推出的变压器架构在GPT-3中起到了关键作用。它依赖于自我关注,使模型在进行预测时能够衡量序列中不同单词的重要性。这个注意机制使模型能够充分考虑句子的整个上下文,有效地捕捉长程依赖。 GPT-3的规模: GPT-3之所以特别出色,是因为它具有前所未有的规模。它拥有庞大的参数数量,共计1750亿个,使其成为当时最大的语言模型。这种巨大的规模有助于它理解和生成复杂的语言模式,使其在各种自然语言处理任务中具有高度的灵活性。 分层架构: GPT-3的架构非常分层。它由许多叠加在一起的变压器层组成。每一层都会提炼输入文本的理解,使模型能够掌握层次特征和抽象表示。这种深度的架构有助于GPT-3捕捉语言中复杂细微之处。…
Leave a Comment本文是使用Python概率编程语言(PPL)Pyro进行AB测试的介绍,Pyro是PyMC的一个替代品撰写本文的动机是为了进一步推广我的……
Leave a Comment一篇新的研究论文提出了一种基于深度学习的分类器,用于使用视网膜光学相干断层扫描(OCT)检测老年性黄斑变性(AMD)阶段。该模型利用两阶段卷积神经网络,将Topcon OCT图像中以黄斑为中心的3D体积分成正常、早期/中期AMD(iAMD)、萎缩(GA)和新生血管(nAMD)阶段。第一阶段采用2D ResNet50进行B扫描分类,第二阶段使用较小模型(ResNet)进行体积分类。 经过大量数据集的训练,该模型在将以黄斑为中心的3D体积分类为正常、iAMD、GA和nAMD阶段方面表现出色。该研究强调了准确的AMD分期对于及时治疗的重要性。性能指标包括ROC-AUC、平衡准确率、准确率、F1分数、敏感性、特异性和马修斯相关系数。 研究详细介绍了使用视网膜OCT扫描创建基于深度学习的自动AMD检测和分期系统。与传统方法相比,OCT是一种非侵入性成像技术,在提供关于AMD分期的详细见解方面至关重要。该研究强调了准确的AMD分期对于有效治疗和视觉保护的重要性。该研究强调了高质量数据集对于强大分析的重要性。 该研究采用了两阶段深度学习模型,利用ImageNet预训练的ResNet50和四个独立的ResNet对OCT扫描中的AMD生物标志物进行二元分类。第一阶段在体积中定位疾病类别,而第二阶段执行体积级别的分类。该模型在实际世界的OCT数据集上训练,展示了有希望的性能指标,包括ROC-AUC、平衡准确率、准确率、F1分数、敏感性、特异性和马修斯相关系数。该研究指出了使用不同设备的多样化OCT数据集面临的挑战,并讨论了潜在的泛化问题。 基于深度学习的AMD检测和分期系统在实际测试集中展示出有希望的性能,平均ROC-AUC为0.94。在推理时间加入蒙特卡洛丢弃(Monte-Carlo dropout)增强了分类不确定性估计的可靠性。该研究利用了2079只眼睛的3995个OCT体积的精选数据集,利用各种指标评估性能,包括AUC、BACC、ACC、F1分数、敏感性、特异性和MCC。结果凸显了该模型在准确的AMD分类和分期方面的潜力,有助于及时治疗和视觉功能保护。 该研究成功开发了一种基于深度学习的自动AMD检测和分期系统,利用OCT扫描准确地将以黄斑为中心的3D体积分成四个类别:正常、iAMD、GA和nAMD。与基线方法相比,这种深度学习模型在性能上显示出可比或更好的表现,并带有B扫描级别疾病定位的额外好处。 进一步研究可以提高深度学习模型在各种OCT设备上的泛化能力,考虑对Cirrus和Spectralis等扫描仪进行适应性调整。应探索域漂移适应方法,以应对与特定数据集训练相关的限制,确保在各种信噪比情况下的强大性能。该模型对于回顾性AMD发病检测的潜力可以扩展,实现对纵向数据集的自动标记。在实际筛查环境中应用不确定性估计并探索该模型在检测除AMD之外的其他疾病生物标志物方面的潜力,这是未来研究的有希望的方向,有助于在更广泛的人群中进行疾病筛查。
Leave a Comment随着人工智能的发展,它已经被应用于生活的各个方面。其应用正在各个领域中显现。人工智能的应用已经扩展到医疗保健、教育、交通、制造业、零售业、金融等各个领域。 然而,随着人工智能(AI)越来越多地融入我们的日常生活,建立强大和有效的计算系统对于可靠和安全的人工智能体验是必要的。但是问题是:硬件突破必须跟上机器学习(ML)模型和软件开发的进展。这种不平衡使得构建完整和安全的全栈系统变得困难。此外,尽管电池技术在发展,但小型设备市场正在超过这些发展,这限制了人工智能系统的潜在强度和使用。 因此,谷歌推出了开源框架Project Open Se Cura,旨在加速安全、可扩展、透明和高效的人工智能系统的开发。这个项目在谷歌内部以Project Sparrow的名字存在。Project Open Se Cura凸显了谷歌对开源开发的承诺。该倡议涉及创建开源设计工具和知识产权(IP)库,以加速全栈系统处理机器学习工作负载的增长。协作共同设计和开发流程旨在增强系统设计,侧重于安全、效率和可扩展性,并助力下一代人工智能体验。 这个项目与VeriSilicon、Antmicro和lowRISC等重要合作伙伴密切合作开发。研究人员强调每个合作伙伴都提供了对开发过程至关重要的知识和资源。例如,lowRISC为项目提供了清晰的信任根、开发和集成工具,确保了安全的基础。Antmicro在开源系统级软件和使用Renode的系统仿真工具方面提供了专业知识。VeriSilicon在商业化、BSP(板支持包)开发、IP设计和硅设计方面提供了专业知识。这些工具使得通过在IP库中添加安全的机器学习功能,能够开发出低功耗的人工智能系统概念验证。 研究人员表示,他们期待进一步开放地增强和发展Open Se Cura。他们正在积极寻求与剑桥大学(用于CHERI创新)和密歇根大学(用于低功耗和生成型人工智能)等机构的合作伙伴关系。 谷歌对通过这些新工具探索可能性感到兴奋,并鼓励广大开源社区加入并做出贡献。这个协作努力旨在推动创新,创建安全、可扩展和高效的新型人工智能体验。研究人员预计与开源社区的合作引领人工智能进步的新时代。 本文翻译自:Meet Google’s Project Open Se Cura: An Open-Source Framework to…
Leave a Comment万能数据工具包(VDK)是一个开源的数据摄取和处理框架,旨在简化数据管理的复杂性虽然万能数据工具包可以处理各种数据集成任务,包括…
Leave a Comment构建数据可视化应用程序的最佳框架是什么?是Streamlit还是Dash,或许?还是您可以用Mercury或Voilá将Jupyter Notebook转换为Web应用程序?所有这些都是…
Leave a Comment在我为Towards Data Science写的第一篇帖子中,我介绍了我最喜欢的涵盖从线性代数到现代深度学习的机器学习书籍
Leave a Comment在旧金山举行的亚太经合组织首席执行官峰会上,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)将人工智能比作气候变化根据CNBC的报道,皮查伊被问及如何获得全球对“智能人工智能监管”的共识时,他表示人工智能“将会蔓延”,“人工智能的进步将会……”
Leave a Comment确定房屋价值是使用机器学习(ML)的一个经典案例在本文中,我们讨论了一种专为视觉问答(VQA)任务设计的开源模型的使用通过VQA,您可以使用自然语言向一张照片提问,并以简明的语言得到一个回答本文的目标是激发和展示使用这项技术所能实现的可能性
Leave a Comment人工分析师已经无法有效地抵御网络安全攻击的日益速度和复杂性。数据量太大了,无法通过手工筛查。 生成型人工智能,是我们这个时代最具变革性的工具,可以实现一种数字柔道的效果。它让公司能够将对抗压倒他们的数据的力量转化为使其防御更强大的力量。 企业领导人似乎已经准备好抓住眼前的机会。在一项最新调查中,首席执行官表示网络安全是他们三大最关注的问题之一,并认为生成型人工智能是一项主导技术,能够带来竞争优势。 生成型人工智能既带来风险,也带来好处。一篇早期的博客介绍了开始保护企业人工智能的六个步骤。 以下是生成型人工智能增强网络安全的三种方式。 从开发人员开始 首先,给开发人员一个安全的副驾驶。 每个人在安全领域都起着一定的作用,但并非每个人都是安全专家。因此,这是最具战略性的开始之一。 增强安全的最佳位置是在开发人员编写软件的前端。一个以安全专家为训练对象的人工智能助手可以帮助开发人员确保其代码符合安全最佳实践。 这种人工智能软件助手可以通过提供先前审查过的代码进行每天学习。它可以从以前的工作中汲取经验,帮助开发人员遵循最佳实践。 NVIDIA正在创建一个用于构建这样的副驾驶或聊天机器人的工作流程,用到了NVIDIA NeMo的组件,它是一个用于构建和自定义大型语言模型的框架。 无论用户是自定义他们自己的模型还是使用商业服务,一个安全助手只是将生成型人工智能应用于网络安全的第一步。 分析漏洞的代理 其次,让生成型人工智能帮助导航已知软件漏洞的茫茫大海。 每时每刻,公司都必须在成千上万个补丁中选择以减轻已知的攻击行为。这是因为每一行代码都可能有几十个甚至几千个不同的软件分支和开源项目的根源。 进一步分析漏洞的LLM可以帮助确定公司应该首先实施哪些补丁。它是一种特别强大的安全助手,因为它可以阅读公司使用的所有软件库,以及其支持的功能和API的策略。 为了测试这个概念,NVIDIA构建了一个用于分析软件容器的流水线,以查找漏洞。这个代理以高精确度确定需要修补的区域,将人工分析师的工作速度加快了4倍。 结论明确,现在是将生成型人工智能作为漏洞分析的第一响应者的时候了。 填补数据空白 最后,利用LLM来帮助填补网络安全领域不断扩大的数据空白。 由于敏感性太高,用户很少分享有关数据泄露的信息。这使得预测攻击变得困难。 这就是LLM的用武之地。生成型人工智能模型可以创建合成数据,模拟以前未曾出现的攻击模式。这样的合成数据还可以填补训练数据的空白,以便机器学习系统学习如何在攻击发生之前防御。 进行安全模拟 不要等待攻击者展示可能性。创建安全模拟来了解他们可能如何尝试渗透企业防御。…
Leave a Comment康奈尔大学的研究人员开发了一种可穿戴设备,利用不可听见的声波和人工智能来追踪用户的上半身三维动作
Leave a Comment