Press "Enter" to skip to content

364 search results for "VICE"

加快时间序列集合的认识速度与MongoDB和亚马逊SageMaker Canvas

这是与MongoDB的Babu Srinivasan共同撰写的客座文章随着今天快节奏的商业环境中行业的发展,无法进行实时预测给那些高度依赖精准及时洞察力的行业带来了重大挑战在各个行业中缺乏实时预测存在着紧迫的业务挑战,这可能会对决策产生重大影响

Leave a Comment

2024 年值得关注的前 12 位数据科学领袖

在蓬勃发展的数据科学领域,2024年的到来标志着关键时刻,我们将聚焦于一群杰出人物,他们推动创新,塑造着分析学的未来。《2024年十二位数据科学领袖榜单》作为一个指路明灯,庆祝这些人的卓越专业知识、远见领导力以及在该领域的重要贡献。让我们一起探索这些开创性思想家的故事、项目和有前瞻性的观点,他们承诺将塑造数据科学的发展轨迹。这些杰出领导者不仅是先驱者,更是引领我们进入一个无与伦比的创新和发现时代的先锋。 2024年十二位数据科学领袖榜单 随着我们临近2024年,我们将关注一群具有显著专业知识、领导能力和卓越贡献的人士。《2024年十二位数据科学领袖榜单》旨在承认和关注这些人,将他们视为思想领袖、创新者和预计在未来一年取得重大里程碑的影响者。 随着我们深入了解细节,明显地看到这些人的观点、举措和倡议能够改变我们在解决各个行业面临的复杂挑战时的方法和数据利用。无论是在预测分析方面的进展,还是对伦理人工智能实践的倡导,或者是开发尖端算法,这些名单上的人士都有望在2024年影响数据科学领域。 1. 吴恩达 “如今人工智能的主要挑战在于找到合适的业务背景来适应它。我热爱技术,它为我们提供了许多机会。但是最终,技术需要被融入到业务使用案例中。” 吴恩达博士是一位拥有机器学习(ML)和人工智能(AI)专业知识的英裔美籍计算机科学家。在谈到他对AI发展的贡献时,他是DeepLearning.AI的创始人,Landing AI的创始人兼首席执行官,AI Fund的普通合伙人,并且是斯坦福大学计算机科学系的兼职教授。此外,他曾是Google AI旗下Google Brain深度学习人工智能研究团队的创始领导者。他还曾担任百度的首席科学家,指导了一个由1300人组成的人工智能团队,并发展了公司的全球AI战略。 吴恩达先生负责领导斯坦福大学的大规模在线开放课程(MOOC)的发展。他还创办了Coursera,并为超过10万名学生提供机器学习(ML)课程。作为机器学习和在线教育的先驱者,他拥有卡内基梅隆大学、麻省理工学院和加州大学伯克利分校的学位。此外,他在机器学习、机器人学和相关领域发表了200多篇研究论文,并入选了《时代》杂志评选的全球最具影响力人物100人。 网站:https://www.andrewng.org Twitter:@AndrewYNg Facebook:Andrew Ng、Google Scholar。 2. Andrej Karpathy “我们本应让人工智能做所有工作,而我们玩游戏,但我们在做所有工作,而AI在玩游戏!” Andrej Karpathy是一位来自斯坦福大学的斯洛伐克-加拿大双博士学位获得者,在OреոΑӏ负责构建一种JARVIS。他曾担任特斯拉的人工智能和自动驾驶视觉总监。Karpathy对深度神经网络充满热情。他从多伦多开始,修读计算机科学和物理学的双学位,之后前往哥伦比亚深造。在哥伦比亚,他与Michiel van…

Leave a Comment

在金融科技API管理中释放人工智能的力量:产品经理的全面指南

这份全面的指南探索了人工智能在金融技术API管理中的改变性作用,并为每个部分提供了实际示例从由人工智能驱动的洞察力和异常检测到由人工智能增强的设计、测试、安全性和个性化用户体验,金融科技产品经理必须利用人工智能的能力来优化运营、提升安全性并提供最佳的用户体验

Leave a Comment

使用Amazon DocumentDB在Amazon SageMaker Canvas中构建无代码机器学习解决方案

我们很高兴地宣布亚马逊文档数据库(兼容MongoDB)与亚马逊SageMaker Canvas的集成正式发布,这使得亚马逊文档数据库的客户可以在不编写代码的情况下构建和使用生成型人工智能和机器学习(ML)解决方案亚马逊文档数据库是一个完全托管的本地JSON文档数据库,使操作关键业务变得简单且具有成本效益

Leave a Comment

如何使用开源工具像专业人士一样克隆声音和视频口型同步

介绍 AI语音克隆风靡社交媒体。它开启了创造性的无限可能。你肯定在社交媒体上看过名人梗或AI语音配音。你想知道它是如何完成的吗?当然,许多平台提供像Eleven Labs这样的API,但我们能否免费使用开源软件来实现呢?答案是肯定的。开源界有TTS模型和嘴唇同步工具,用于实现语音合成。因此,在本文中,我们将探索用于语音克隆和嘴唇同步的开源工具和模型。 学习目标 探索用于AI语音克隆和嘴唇同步的开源工具。 使用FFmpeg和Whisper转录视频。 使用Coqui-AI的xTTS模型进行语音克隆。 使用Wav2Lip进行视频嘴唇同步。 探索该技术的实际用例。 本文作为 数据科学博客马拉松 中的一部分发表。 开源栈 正如你已经了解的,我们将使用OpenAI的 Whisper,FFmpeg,Coqui-ai的xTTS模型和Wav2lip作为我们的技术栈。但在深入代码之前,让我们简要讨论一下这些工具。同时感谢这些项目的作者。 Whisper:Whisper是OpenAI的自动语音识别(ASR)模型。它是一个使用超过650k小时的各种音频数据和相应转录进行训练的编码器-解码器变压器模型。这使其在多语言转录方面非常强大。 编码器接收音频段的对数梅尔频谱图,每个编码器块使用自注意力机制来理解音频信号的不同部分。解码器然后接收编码器的隐藏状态信息和学习的位置编码。解码器使用自注意力机制和跨注意力机制预测下一个标记。最终,它输出代表识别文本的一系列标记。有关Whisper的更多信息,请参考官方存储库。 Coqui TTS:TTS是Coqui-ai的开源库。它包含多个文本到语音模型。它具有端到端模型,如Bark、Tortoise和xTTS,频谱图模型如Glow-TTS、FastSpeech等,以及声码器如Hifi-GAN、MelGAN等。此外,它提供了一个统一的API用于推断、微调和训练文本到语音模型。在这个项目中,我们将使用xTTS,一个端到端的多语言语音克隆模型。它支持16种语言,包括英语、日语、印地语、普通话等。有关TTS的更多信息,请参考官方TTS存储库。 Wav2Lip:Wav2Lip是一个用于“A Lip Sync Expert Is All You Need for…

Leave a Comment

通过检索增强生成,提升您的稳定扩散提示

文字到图像生成是一门快速发展的人工智能领域,应用广泛,包括媒体与娱乐、游戏、电子商务产品可视化、广告与营销、建筑设计与可视化、艺术创作和医学影像等各个领域稳定扩散是一种文字到图像模型,让您能够在几秒钟内创建高品质的图片在十一月份[…]

Leave a Comment

如何使用AWS原型实现ICL-Group在Amazon SageMaker上构建计算机视觉模型

这是由ICL和AWS员工共同撰写的客户帖子ICL是一家总部位于以色列的跨国制造和采矿公司,以独特矿物为基础生产产品,并满足人类的基本需求,主要涉及农业、食品和工程材料三个市场他们的采矿场地使用必须进行监控的工业设备

Leave a Comment

2024年您必须探索的10款最佳GPU

简介 在人工智能(AI)、机器学习(ML)和深度学习(DL)的时代,对强大计算资源的需求已经达到了一个高潮。这场数字革命将我们推进到了未知的领域,在这里,数据驱动的洞察力是创新的关键。但要打开这些领域,我们需要与我们的壮志相匹配的工具。 这就是神奇的云GPU世界,我们数字时代的无名英雄。这些通用计算单元,通常简称为GPU,不仅仅是计算资源,它们更是无限动力的引擎。云GPU为用户提供了使用超级计算能力的非凡能力,而无需承担沉重的前期硬件投资负担。 本指南将带你踏上一段激动人心的旅程,探索主要云供应商,揭示它们的优势和隐藏的亮点,让你在AI/ML/DL的道路上变得更强大。 最佳GPU概览 供应商 GPU选项 定价 免费层 独特功能 最佳用途 亚马逊网络服务(AWS) T4,G4ad(Radeon Pro V520) 按需与竞价实例 是(有限制) 多样的GPU选择,广泛的生态系统 大型企业,对工作负载要求高的场景 微软Azure T4,A100,V620,M60,MI25 按使用量付费与预留实例 是(有限制) 高性能N系列GPU AI,机器学习,科学计算…

Leave a Comment

使用 QLoRA 对 Llama 2 进行微调,并在 Amazon SageMaker 上部署,配备 AWS Inferentia2

在这篇文章中,我们展示了使用参数高效微调 (PEFT) 方法对 Llama 2 模型进行微调,并将微调后的模型部署在 AWS Inferentia2 上我们使用 AWS Neuron 软件开发工具包 (SDK) 来访问 AWS Inferentia2 设备,并从其高性能中受益然后,我们使用一个由 […] 提供支持的大型模型推断容器

Leave a Comment

使用亚马逊床岩和亚马逊转录,利用生成式人工智能生成记录摘要

会议记录是协作的重要组成部分,但往往容易被忽略在主持讨论、仔细倾听和记录笔记之间,关键信息很容易溜走而未被记录下来即使记录了笔记,它们可能会杂乱无章或难以辨认,使其变得毫无用处在本文中,我们将探讨如何使用亚马逊[…]

Leave a Comment

揭示内部运作:深入探究BERT的注意力机制

介绍 BERT,全称为双向编码器表示来自转换器,是一种利用转换器模型和无监督预训练进行自然语言处理的系统。BERT通过两个无监督任务进行预训练:掩码语言建模和句子预测。这使得BERT能够根据具体任务进行定制化,而无需从头开始。本文将介绍BERT的注意力机制及其工作原理。 也可阅读:什么是BERT?点击这里! 学习目标 理解BERT中的注意力机制 BERT中如何进行标记化? BERT中如何计算注意力权重? BERT模型的Python实现 该文章是数据科学博文马拉松的一部分。 BERT中的注意力机制 让我们从最简单的角度开始理解什么是注意力。注意力是模型试图在句子中对那些更重要的输入特征加重权重的一种方式之一。 让我们通过以下示例来理解注意力机制的基本工作原理。 示例1 部分单词比其他单词更受关注 在上面的句子中,BERT模型可能更倾向于给单词“cat”和动词“jumped”赋予更多权重,而不是“bag”,因为了解它们对于预测下一个单词“fell”的过程更加重要。 示例2 考虑以下句子: 部分单词比其他单词更受关注 为了预测单词“spaghetti”,注意力机制会更加关注动词“eating”,而不是“bland”这个副词。 示例3 同样地,在像下面这样的翻译任务中: 输入句子:How was your day…

Leave a Comment

利用实体提取、SQL查询和具有Amazon Bedrock的代理来提升基于RAG的智能文档助手的能力

近年来,由于生成式人工智能(Generative AI)的快速发展,尤其是通过指导微调和强化学习等训练技术引入的大语言模型(LLMs)的性能改善,会话型人工智能(Conversational AI)取得了长足的进步在正确提示的情况下,这些模型可以进行连贯的对话,而无需任何特定任务的训练数据[…]

Leave a Comment

2024年的17个预测:从贫穷到财富,从披头士狂热到国家宝藏

向一边去,韦伯斯特:今年企业发现了许多候选词来评选年度词汇。紧随其后的是诸如“生成式人工智能”和“生成式预训练变压器”之类的术语,整个行业都将注意力转向变革性的新技术,如“大型语言模型”和“检索增强生成”(RAG)。 一开始,“生成式人工智能”只是一个较小的关注点,但最后却以耀眼姿态收场。许多公司正在迅速利用其能够处理文本、语音和视频的能力,产生革新性的内容,从而彻底改变生产力、创新力和创造力。 企业正在顺应这一趋势。根据麦肯锡公司的数据,像OpenAI的ChatGPT这样的深度学习算法,再加上企业数据的进一步训练,每年可以为63个商业用例带来相当于2.6万亿至4.4万亿美元的价值。 然而,管理大量的内部数据往往被认为是扩展人工智能的最大障碍。一些AI领域的NVIDIA专家预测,2024年将成为联络朋友的一年——与云服务提供商、数据存储和分析公司以及其他掌握处理、优化和高效部署大数据的技能的公司建立伙伴关系和合作。 大语言模型是这一切的核心。NVIDIA专家表示,LLM研究的进展将越来越多地应用于商业和企业应用领域。通过几乎任何平台,诸如RAG、自主智能代理和多模态互动等AI功能将变得更加易于获取和部署。 听取NVIDIA专家对未来一年的预测: MANUVIR DAS企业计算副总裁 一刀切不适用于所有情况:定制化即将进入企业。企业将不会只有一两个生成式人工智能应用,它们会有数百个定制应用,使用适合于业务不同部分的专有数据。 一旦投入生产,这些定制化的LLM将具备RAG功能,将数据源与生成式人工智能模型连接起来,以获得更准确、更明智的响应。像Amdocs、Dropbox、Genentech、SAP、ServiceNow和Snowflake这样的领先公司已经在构建使用RAG和LLM的全新生成式人工智能服务。 开源软件引领潮流:得益于开源预训练模型,解决特定领域挑战的生成式人工智能应用将成为企业运营策略的一部分。 一旦公司将这些先导模型与私有或实时数据结合起来,他们就可以开始在整个组织中看到加速的生产力和成本效益。从基于云计算和人工智能模型铸造服务到数据中心、边缘和桌面,AI计算和软件将在几乎任何平台上变得更加易于获取。 现成的人工智能和微服务:生成式人工智能促使应用程序编程接口(API)端点的采用增加,这使得开发人员能够构建复杂的应用程序更加容易。 到2024年,软件开发工具包和API将升级,开发人员将使用生成式人工智能微服务(例如RAG作为服务)来定制现成的AI模型。这将帮助企业充分发挥以智能助手和摘要工具为代表的以AI驱动的生产力的潜力,这些工具可以获取最新的业务信息。 开发人员将能够直接将这些API端点嵌入到他们的应用程序中,而无需担心维护支持这些模型和框架所需的基础设施。最终用户将能够体验到更直观、更具响应性和更符合需求的应用程序。 IAN BUCK超大规模和高性能计算副总裁 国家财富:人工智能将成为新的太空竞赛,每个国家都希望建立自己的卓越中心,推动研究和科学的重大进展,提高国内生产总值。 只需要几百个加速计算节点,各国就能迅速构建高效、高性能、百亿亿次量级的AI超级计算机。政府资助的生成式AI卓越中心将通过创造新的工作岗位和建设更强大的大学项目推动国家经济增长,培养下一代科学家、研究人员和工程师。 量子飞跃:企业领导者将以两个关键驱动因素启动量子计算研究项目:利用传统AI超级计算机模拟量子处理器的能力以及混合经典量子计算的开放统一开发平台的可用性。这使得开发人员可以使用标准编程语言而不需要定制的、专门的知识来构建量子算法。 曾经在计算机科学中被认为是一个隐晦的领域,随着企业加入学术界和国家实验室追求材料科学、制药研究、亚原子物理和物流的快速进展,量子计算探索将变得更加主流。 KARI BRISKI副总裁,AI软件 从试错到致富:随着企业采用这些AI框架,对试错增强生成技术(RAG)将会有更多的讨论。 当企业培训LLM来构建生成式AI应用程序和服务时,当模型在某种用例下没有足够准确、相关的信息时,RAG被广泛视为解决不准确或荒谬回答的方法。…

Leave a Comment

VoAGI新闻,12月6日:GitHub存储库用于掌握机器学习• 5个免费课程,掌握数据工程

本周在VoAGI上:发现来自机器学习课程、训练营、书籍、工具、面试题、备忘单、MLOps平台等的GitHub代码库,以掌握机器学习,保障你梦寐以求的工作 • 数据工程师必须准备和管理数据驱动的整个数据工作流所需的基础设施和工具…

Leave a Comment

GPT-4和XGBoost 2.0的深入解析:AI的新领域

介绍 人工智能(AI)正在经历一次重大转变,GPT-4等LLM的出现正在革新机器对人类语言的理解和生成。与此同时,xgboost 2.0作为一种强大的预测建模工具出现,通过提高效率和准确性增强了机器学习。本文探讨了GPT-4和xgboost 2.0的能力和应用,并研究了它们在各个领域的变革性影响。期待深入了解它们的实际应用、挑战和未来前景,并概述这些先进的AI技术在塑造AI未来中的作用。 学习目标 深入了解GPT-4如何革新自然语言处理,以及xgboost 2.0如何增强预测建模。 了解这些技术在客户服务、金融等不同领域的多样化实际应用。 认识到与实施这些AI技术相关的潜在挑战和道德问题。 探索AI领域的未来发展,考虑GPT-4和xgboost 2.0等技术的当前发展轨迹。 这篇文章是 Data Science Blogathon 的一部分。 GPT-4概述 GPT-4是OpenAI生成预训练transformer家族中最新的继任者,代表着自然语言处理领域的重大突破。在其前身GPT-3已经具备了令人印象深刻的能力的基础上,GPT-4通过无与伦比的抓住和解释上下文的能力使自己与众不同。这个先进模型擅长生成不仅连贯和符合上下文的回答,而且与人类表达惊人地相似。它的多功能性涵盖了广泛的应用领域,包括复杂的文本生成、无缝的翻译、简明的摘要和准确的问答。 GPT-4的这一广泛功能范围使其在多个领域中成为宝贵的资产,从自动化客户服务互动和增强语言翻译服务到提供教育支持和简化内容创作流程。该模型对微妙语言的深刻理解以及生成丰富、多样的文本内容的能力,将其置于基于AI的沟通和内容生成解决方案的前沿,为数字和实际场景中的创新和应用开辟了新的道路。 XGBoost 2.0分析 XGBoost 2.0在机器学习方面迈出了重大的一步,提升了处理复杂预测建模任务的能力,涉及金融和医疗等高风险领域。该更新引入了几个关键的创新,例如具有向量叶子输出的多目标树,允许单棵树管理多个目标变量。这一发展显著降低了过拟合和模型大小,同时更有效地捕捉目标之间的相关性。此外,XGBoost 2.0通过新的“device”参数简化了GPU配置,取代了多个单独的设置,简化了选择过程。它还引入了“max_cached_hist_node”参数,可以更好地控制直方图的CPU缓存大小,在深度树场景中优化内存使用。 这些更新进一步增强了XGBoost在处理结构化数据方面的优势。在内存管理、GPU利用率和多目标树构建方面的改进,增强了它作为处理结构化数据挑战的首选。新版本将“hist”设为默认的树方法,优化基于直方图的方法。它还为“approx”树方法引入了GPU支持,展示了XGBoost在计算效率方面的承诺。…

Leave a Comment

How Getir通过使用Amazon SageMaker和AWS Batch将模型训练时间缩短了90%

这是一篇由Nafi Ahmet Turgut, Hasan Burak Yel和Damla Şentürk从Getir共同撰写的嘉宾文章成立于2015年,Getir已经将自己定位为极速杂货配送领域的开拓者这家创新科技公司通过“几分钟即送”的引人入胜的服务,革新了最后一公里配送领域随着一个…

Leave a Comment

为何GPU在人工智能领域表现出色

GPU被称为人工智能的稀土金属,甚至是黄金,因为它们是当今生成式人工智能时代的基石。 三个技术原因以及许多故事解释了为什么会这样。每个原因都有多个值得探索的方面,但总体上有: GPU采用并行处理。 GPU系统可扩展到超级计算高度。 用于人工智能的GPU软件堆栈既广泛又深入。 总的结果是,GPU比CPU以更高的能效计算技术,并且更快地执行计算。这意味着它们在人工智能训练和推理方面提供领先的性能,并且在使用加速计算的各种应用中都能获得收益。 在斯坦福大学的人工智能人本中心发布的最新报告中提供了一些背景信息。报告中指出,GPU性能“自2003年以来增加了约7000倍”,每单位性能的价格“增加了5600倍”。 2023年的报告展示了GPU性能和价格/性能的急剧上升。 报告还引用了独立研究团体Epoch的分析和预测人工智能进展的数据。 Epoch在其网站上表示:“GPU是加速机器学习工作负载的主要计算平台,在过去五年中,几乎所有最大的模型都是在GPU上训练的… 从而对AI的最新进展做出了重要贡献。” 一份为美国政府评估人工智能技术的2020年研究得出了类似的结论。 “当计算生产和运营成本计算在内时,我们预计[前沿]人工智能芯片的成本效益比领先节点的CPU高出一个到三个量级,”研究报告中说。 在Hot Chips,一年一度的半导体和系统工程师聚会上,NVIDIA公司的首席科学家比尔·达利在一个主题演讲中表示,NVIDIA GPU在过去十年中在AI推理方面的性能提升了1000倍。 ChatGPT传播新闻 ChatGPT为GPU在人工智能方面的优势提供了一个强有力的例子。这个大型语言模型(LLM)是在数千个NVIDIA GPU上训练和运行的,用于服务超过1亿人使用的生成式AI。 自2018年推出以来,作为人工智能的行业标准基准,MLPerf详细记录了NVIDIA GPU在人工智能训练和推理中的领先性能。 例如,NVIDIA Grace Hopper超级芯片在最新一轮推理测试中表现优异。自那次测试以来,推出的推理软件NVIDIA TensorRT-LLM性能提升了8倍以上,能源使用和总拥有成本降低了5倍以上。事实上,自2019年基准测试发布以来,NVIDIA…

Leave a Comment

Can't find what you're looking for? Try refining your search: