Press "Enter" to skip to content

299 search results for "前沿"

纽约大学和谷歌AI研究员探索机器学习在高级演绎推理方面的前沿

使用大量推理规则和构建子证明的就业使得证明的复杂性在许多演绎推理任务中无限发展,例如医学诊断或定理证明。由于巨大的证明空间,不可能找到覆盖所有大小保证的数据。因此,从基本证明开始,通用推理模型应能够推广到更复杂的证明。 纽约大学和谷歌AI研究人员的一个团队证明,LLMs在接受上下文学习(ICL)和思维链(CoT)提示的训练后可以进行演绎推理。一些演绎规则,例如假言附加式,是早期研究的主要重点。评估也是在演示中进行的,这意味着测试用例与上下文演示的分布相同。 纽约大学、谷歌和波士顿大学的研究人员进行的一项新研究探讨了LLMs能否推广到比演示更复杂的证明。学术界根据三个维度对证明进行分类: 在演示的每个阶段使用的前提数量。 构成证明的顺序步骤的长度。 所使用的演绎规则。 总大小是这三个维度的函数。 该团队在两个重要方面对之前的研究进行了扩展,以评估LLMs的一般演绎推理能力。除了假言附加式外,他们测试LLMs是否掌握了所有演绎规则。他们的推理能力通过以下两种方式进行测试: 深度和宽度的推广涉及对比上下文示例提供的较长证明进行推理。 组合推广涉及在单个证明中使用大量的演绎规则。 根据他们的研究,推理任务在接受展示各种演绎规则的基本示例时最受益于上下文学习。为了防止模型过拟合,这些上下文示例必须包含它不熟悉的推导原则,例如分情况证明和反证法。此外,这些示例应该伴随有干扰项。 根据他们的发现,CoT可以使LLMs进行超领域推理,推广到组合证明。这些LLMs包括GPT-3.5 175B、PaLM 540B、LLaMA 65B和FLAN-T511B,其规模和训练目标各异。这一发现令人惊讶,考虑到大量文献主张LLMs缺乏组合泛化能力。ICL的泛化方式与监督学习不同,特别是在上下文样本上进行的梯度下降。明显地,使用与测试示例相同分布的上下文样本是更差的,因为它们在多个实例中被发现。例如,当上下文示例中包含特定演绎规则时,研究人员有时看到了更好的组合证明泛化效果。 似乎预训练并不能教育模型创建假设的子证明。没有明确的示例,LLMs无法推广到某些演绎规则(例如分情况证明和矛盾证明)。模型规模与性能之间的关系较弱。通过定制指导和更多的预训练,较小的模型(不是最小的,但可比较)可以与较大的模型竞争。 为了进一步了解ICL和CoT触发过程,研究人员指出了一个关键的领域需要今后进行研究。他们发现,最好的上下文示例通常来自于与测试示例本身不同的分布,即使是对于特定的测试示例。贝叶斯推理和梯度下降并不能解释这一点。他们有兴趣研究是否简单的示例效果更好,即使测试案例稍微复杂。需要进一步研究来了解如何更进一步地表征从特定实例进行推广。

Leave a Comment

探索单细胞生物学中的人工智能前沿:对Geneformer和scGPT等零射基础模型的批判性评价

Translate from English to Chinese: 基于基因形态模型在单细胞生物学中的应用近来一直是研究人员讨论的热点话题。像scGPT、GeneCompass和Geneformer这样的模型是该领域的一些有希望的工具。然而,它们的有效性一直是一个令人担忧的问题,特别是在零-shot环境中,尤其是当这个领域涉及到探索性实验和缺乏明确的标签进行微调时。本论文基于此问题,对这些模型的零-shot性能进行了严格评估。 以前,有研究依赖于对特定任务进行微调,但由于该领域的特性以及高计算要求,当应用于单细胞生物学领域时,其局限性变得非常明显。因此,为了应对这一挑战,微软研究人员评估了Geneformer和scGPT基因形态模型在涉及多样数据集和多个任务的多个方面上的零-shot性能,如细胞类型聚类的嵌入表示效用、批效应校正和基于预训练目标的模型输入重构的效果。 选择这两个模型的原因是它们的预训练权重(在评估时的时间点上)是可用的。研究人员使用了五个不同的人类组织数据集进行评估,每个数据集都对单细胞分析提出了独特且相关的挑战。为了比较,研究人员还使用了一个名为scVI的生成模型,该模型在每个数据集上进行了训练。他们使用了以下指标来评估每个任务: 对于评估细胞嵌入,他们使用平均轮廓宽度(ASW)和平均Bio(AvgBIO)评分来计算细胞类型在嵌入空间内的唯一度。 对于批次整合,他们采用一种在0到1之间的变体AWS评分,0表示完全分离批次,1表示完美混合批次。 对于评估scGPT和Geneformer在预训练目标上的性能,分别使用均方差(MSE)和皮尔逊相关性。 在这两个度量标准上,scGPT和Geneformer的表现均不如基准策略。Geneformer在不同数据集上具有很大的方差,尽管scGPT在其中一个数据集上的表现优于基准模型scVI,但在另外两个数据集上表现较差。随后,研究人员评估了预训练数据集对模型性能的影响,主要集中在scGPT(四个变体)上,并发现所有模型变体的中位数得分有所改善。 在评估批次效应时,两个模型均表现不佳,常常落后于scVI等模型,这表明它们对零-shot环境中的批次效应并不完全稳健。在最后一组评估中,研究人员发现scGPT无法重构基因表达,而Geneformer的表现更好。与基准模型相比,他们观察到基准预测胜过所有scGPT变体,而Geneformer在其中一个数据集上的表现优于平均排名。 总之,研究人员对将scGPT和Geneformer应用于单细胞生物学的零-shot能力进行了全面分析,他们的分析突显了这些模型的不佳性能。他们的研究发现,scGPT在所有评估中优于Geneformer模型。最后,研究人员还提供了一些关于未来工作需要关注的见解,尤其是关于预训练任务、预训练数据集与下游分析任务性能之间的关系。

Leave a Comment

用GPT-4揭示科学发现的前沿:大型语言模型在多个学科中的全面评估

大型语言模型(LLMs)最近受到人工智能(AI)界的广泛赞赏。这些模型具有卓越的能力,在编码、数学、法律乃至理解人类意图和情感等领域都表现出色。基于自然语言处理、理解和生成的基本原理,这些模型在几乎每个行业中都具有巨大的潜力。 LLMs不仅能生成文本,还能进行图像处理、音频识别和强化学习,证明了它们的适应性和广泛的应用领域。由OpenAI最近推出的GPT-4因其多模态特性而变得非常受欢迎。与GPT 3.5不同,GPT-4既可以接受文本形式的输入,也可以接受图像形式的输入。一些研究甚至显示,GPT-4展示了人工通用智能(AGI)的初步证据。GPT-4在通用AI任务中的有效性已经引起科学家和研究人员对LLMs在不同科学领域的关注。 在最新的研究中,一支研究团队研究了LLMs在自然科学研究背景下的能力,特别关注于GPT-4。该研究主要关注生物学、材料设计、药物开发、计算化学和偏微分方程等自然科学领域,以涵盖广泛的自然科学。利用GPT-4作为深入研究的LLM,该研究提供了关于LLMs的性能和其在特定科学领域中可能应用的全面概述。 该研究涵盖了多个科学学科领域,如生物学、材料设计、偏微分方程、密度泛函理论和分子动力学在计算化学中的应用。团队分享称,已经对该模型在科学任务上进行了评估,以充分实现GPT-4在研究领域中的潜力,并验证其领域专业知识。LLM应加速科学进展,优化资源分配,并促进跨学科研究。 研究团队分享称,根据初步结果,GPT-4已经显示出在一系列科学应用中有潜力,并展示了其处理复杂问题解决和知识整合任务的能力。该研究论文对GPT-4在多个领域的表现进行了全面考察,既强调了其优势,也指出了其劣势。评估包括GPT-4的知识库、科学理解能力、数值计算技能和多样化预测能力。 研究表明,GPT-4在生物学和材料设计领域显示出广泛的领域专长,有助于满足某些需求。该模型展现了在药物研发领域预测属性的潜力。GPT-4在计算化学和偏微分方程研究领域中也有助于计算和预测,但对于定量计算任务,需要稍稍提高准确性。 总之,这项研究非常具有启发性,因为它突显了大规模机器学习和LLMs的快速发展。它还关注了这一充满活力的课题未来研究的重点,即基本科学模型的构建以及LLMs与专业科学工具和模型的集成。

Leave a Comment

LLM邮件效率的下一个前沿

介绍 人工智能(AI)在过去几年中取得了显著的发展,主要归功于大型语言模型(LLMs)的兴起。这些复杂的AI系统,在包含丰富人类语言的大量数据集上进行训练,推动了众多技术的进步。LLMs的规模和复杂性,例如GPT-3(生成预训练变压器3),使它们成为自然语言理解和生成的前沿。本文重点介绍了LLMs在改革电子邮件回复生成和分类方面的关键作用。随着我们的数字通信环境的演变,对电子邮件的高效、上下文感知和个性化回复的需求越来越关键。LLMs具有重塑这一领域的潜力,通过提供增强沟通效率、自动化重复任务和增强人类创造力的解决方案。 学习目标 追溯语言模型的演变,了解关键里程碑,并从基础系统到GPT-3.5等高级模型的发展中获得洞察力。 导航大型语言模型的复杂性。在探索细调和迁移学习中面临的挑战和创新解决方案的同时,他们将积极理解数据准备、模型架构和必要的计算资源。 研究大型语言模型如何改变电子邮件沟通。 了解语言模型如何优化电子邮件的分类过程。 本文作为数据科学博文马拉松的一部分发表。 了解大型语言模型 大型语言模型,即LLMs,在人工智能领域,特别是在理解人类语言方面,具有重要的进展。它们擅长理解和生成类似人类的文本。人们对它们感到兴奋,因为它们擅长各种语言任务。要理解LLMs的概念,有两个关键方面是必要的:它们是什么以及它们如何工作。 什么是大型语言模型? 在它们的核心,大型语言模型就像拥有广泛网络连接的卓越计算机程序。它们的独特之处在于它们的规模庞大。它们经过对包括书籍、文章、网站和社交媒体帖子等各种文本数据集的预训练。这个预训练阶段使它们接触到人类语言的复杂性,使它们学会语法、句法、语义甚至一些常识推理。重要的是,LLMs不仅仅是机械地复制学到的文本,而是能够生成连贯且具有上下文相关性的回答。 最著名的LLMs之一是GPT-3,它代表了生成预训练变压器3。 GPT-3拥有惊人的参数数量,准确说是1,750亿个,这使它成为最大的语言模型之一。这些参数代表了其神经网络中的权重和连接,并通过微调来使模型能够根据前文提供的上下文预测句子中的下一个单词。这种预测能力被用于各种应用,从电子邮件回复生成到内容创作和翻译服务。 实质上,像GPT-3这样的LLMs位于尖端人工智能技术和复杂的人类语言的交汇处。它们可以流利地理解和生成文本,使它们成为具有广泛影响的多功能工具,适用于各种行业和应用。 培训过程和类似GPT-3的模型 大型语言模型的培训过程是一项复杂而资源密集的工作。它始于从互联网获取大量文本数据集,涵盖多种来源和领域。这些数据集构成了模型构建的基础。在培训过程中,模型通过优化其神经网络,调整其参数的权重以最小化预测错误来学习预测给定前文上下文情况下单词或单词序列的可能性。 GPT-3架构概述 GPT-3,或称“生成式预训练变压器3”,是由OpenAI开发的最先进的语言模型。它的架构基于变压器模型,通过采用自我关注机制,革新了自然语言处理任务。 变压器架构: 2017年Vaswani等人推出的变压器架构在GPT-3中起到了关键作用。它依赖于自我关注,使模型在进行预测时能够衡量序列中不同单词的重要性。这个注意机制使模型能够充分考虑句子的整个上下文,有效地捕捉长程依赖。 GPT-3的规模: GPT-3之所以特别出色,是因为它具有前所未有的规模。它拥有庞大的参数数量,共计1750亿个,使其成为当时最大的语言模型。这种巨大的规模有助于它理解和生成复杂的语言模式,使其在各种自然语言处理任务中具有高度的灵活性。 分层架构: GPT-3的架构非常分层。它由许多叠加在一起的变压器层组成。每一层都会提炼输入文本的理解,使模型能够掌握层次特征和抽象表示。这种深度的架构有助于GPT-3捕捉语言中复杂细微之处。…

Leave a Comment

Google揭示了最前沿的Vertex AI搜索:对于医疗服务提供商来说是一个具有颠覆性影响的创举

在2023年HLTH的开创性公告中,谷歌通过引入针对医疗保健和生命科学提供商定制的Vertex AI Search功能,为医疗行业带来了一场革命。这项创新承诺改变访问患者数据和回答医疗查询的方式。让我们详细探讨这一令人兴奋的发展。 医疗保健搜索的新时代 谷歌的Vertex AI平台处于这一技术飞跃的前沿。它现在拥有强大的生成式AI功能,使医疗保健和生命科学公司能够高效搜索患者数据。这包括关键的临床来源,如FHIR数据和临床记录。这项创新与谷歌的庞大医学语言模型Med-PaLM 2相结合,使其与众不同。 也可阅读:谷歌的Med-PaLM 2将成为最先进的医学人工智能 揭秘Vertex AI和Med-PaLM Vertex AI是一个可自定义的搜索引擎,使组织能够创建具有生成式AI功能的搜索引擎。它是一个颠覆者,提供了设计定制的客户搜索体验的灵活性,特别是在医疗保健领域。 另一方面,Med-PaLM 2是一种生成式AI技术,利用了谷歌的大型语言模型(LLMs)的力量。这个数字奇迹可以回答复杂的医学问题,为准确高效的医疗解决方案提供有价值的资产。 了解更多: 医疗保健中的生成式人工智能 医疗保健查询的整体解决方案 Vertex AI Search与Med-PaLM 2的结合带来了医疗保健提供商寻找答案的范式转变。无论是特定于患者的医学查询还是一般医学问题,这个动态的二人组都能涵盖。 提高效率和护理质量 谷歌云的云AI和行业解决方案副总裁兼总经理Burak Gokturk强调了这项突破性技术的巨大潜力。他认为它可以提升临床决策支持、减轻医疗保健专业人员的行政负担,从而提高患者护理质量。…

Leave a Comment

走在AI信任曲线的前沿:揭秘开源的负责任AI工具包

在如今迅速发展的技术环境中,人工智能(AI)已经成为影响我们生活许多方面的强大工具。然而,随着AI的进步,人们对其道德使用的担忧也在增加。对AI的滥用可能导致偏见结果并破坏公众的信任。为了解决这些问题,负责任的AI实践正在获得关注,并且行业领导者正在带头开发开源的负责任AI工具包。让我们探讨这些工具包及其在促进AI应用的公平性、透明度和问责制方面的重要性。 AI实施中的信任赤字 埃森哲(Accenture)2022年的技术展望研究揭示了一个令人震惊的统计数据:全球只有35%的消费者信任组织如何实施AI。此外,77%的人认为组织应对任何AI滥用负责。这些发现突显了优先考虑公平性和问责制的负责任AI实践的紧迫性。 还要阅读:欧盟对AI规则采取行动 负责任AI实践成为主流 承认负责任AI的重要性,大型科技公司已经建立了专门的内部团队和部门来负责负责任AI实践。Finarkein Analytics的联合创始人兼首席执行官Nikhil Kurhe强调,负责任AI实践正在成为主流,导致更广泛地采用道德AI原则。 负责任AI工具包的力量 负责任AI工具包确保以公平、稳健和透明的方式开发AI应用和系统。通过集成这些工具包,AI开发人员可以创建无偏见和负责任的模型,增强用户之间的信任。 TensorFlow Federated:赋能分散式机器学习 TensorFlow Federated(TFF)是一个面向分散式机器学习的开源框架。它使得可以在多个客户端的本地训练数据上训练共享的全局模型。TFF允许开发人员探索新颖的算法,并在其模型上模拟分散式学习。 还要阅读:如何用TensorFlow构建负责任AI? TensorFlow Model Remediation:解决性能偏差问题 Model Remediation库提供了减少或消除模型创建和训练过程中的性能偏差对用户造成伤害的解决方案。该工具包使机器学习从业者能够创建准确且具有社会责任的模型。 TensorFlow Privacy:保护个人数据 TensorFlow Privacy(TF Privacy)由Google…

Leave a Comment

50+全新前沿人工智能工具(2023年7月)

AI工具正在快速发展,新的工具不断推出。查看下面一些可以增强您日常工作的AI工具。 tl;dv 这个工具由GPT模型提供动力,是Zoom和Google Meet的会议记录器。 tl;dv 为用户转录和总结通话。 Otter AI Otter.AI使用人工智能,为用户提供实时会议笔记转录,这些笔记可共享、可搜索、易于访问和安全。 Taskade Taskade是一款AI生产力工具,可帮助用户高效地管理任务和项目。 Notion AI Notion AI是一款写作助手,可以帮助用户在Notion工作区内写作、头脑风暴、编辑和总结。 Bing 微软推出了AI驱动的Bing搜索引擎,就像在搜索网络时拥有研究助手、个人计划师和创意伙伴。 Bard Bard是由Google开发的聊天机器人,可帮助提高生产力并将想法变为现实。 Forefront Forefront AI是一个平台,提供GPT-4、图像生成、自定义角色和可共享聊天等免费访问,从而为企业提供了改进的效率和用户体验。 Merlin Merlin是一个ChatGPT扩展程序,可帮助用户在任何网站上完成任何任务,提供博客摘要和Gmail AI写手等功能。…

Leave a Comment

一篇很有意思的文章:测谎仪的前沿竞赛

@阑夕:一篇很有意思的文章:测谎仪的前沿竞赛。 据南加利福尼亚大学心理学家Jerry Jellison研究统计,每个人平均一天要听到200句谎言。大多数时候都是「善意的谎言」,但赫特福德大学心理学家Richard Wiseman表示,大部分人每天也会说2-3个真·谎言。 我们的身体在各个方面都会出卖我们,比如心率、汗液分泌和面部微表情等等,同时我们还会结巴、迟疑和不小心说漏嘴。弗洛伊德说过:「凡人皆无法保守秘密,就算口风严实也会在举手投足间流露,每个毛孔都散发着背叛的气息。」即使这样,我们也很难分辨出谎言。通过206项科学研究统计,人们只能分辨出54%的谎言,这个几率比抛硬币稍微好那么一点。 因此千百年来,人们一直致力于识别谎言。而测谎,在一般情况下基本上指的就是测谎仪,它在电视节目和审讯程序中很受欢迎。在过去的几十年里,随着计算能力、脑扫描技术和人工智能的发展,催生了许多声称是新一代强力测谎工具的仪器。初创公司竞相将这些进展商业化,并想要人们相信完美的测谎仪即将来临。 例如,联邦快递和Uber分别在巴拿马和墨西哥地区使用了一种叫做「眼检测」的测谎技术,来筛选出有犯罪历史的司机,这是一个基于眼睛运动和瞳孔大小的细微变化的测谎仪。同时信用评级机构益博睿使用它来测试其员工是否徇私舞弊,英国诺森比亚的警察使用它来评估性侵犯者的改善情况,阿富汗政府、麦当劳和数十家美国警局都在使用这项技术。 目前市面上的测谎技术一般运用五种类型的证据。 前两种证据是语言以及人们说话的方式。斯坦福数字通信专家Jeff Hancock发现,在约会网站的档案中撒谎的人更倾向于使用「I、me、my」。还有一种方法叫做语音压力分析,通过检测语音语调变化来识别谎言。审讯美国2012年枪杀案嫌疑犯George Zimmerman,和英国委员会在2007年到2010年期间打击电信诈骗时,都使用了这种方法。 第三种证据是肢体语言。有些说谎者会有一种所谓「骗子的愉悦」的表现,当他们认为谎言没有被发现时,脸上会有种欢快的表情一闪而过。而认知负荷会使人的行为变得不同,说谎者努力想要表现得自然一些,但结果往往适得其反。2015年剑桥大学的一项研究发现,通过紧身衣来测量受试者被质疑时肢体的烦躁和僵硬程度,来分辨谎言的成功率达到了70%以上。 第四种证据是生理性的。也就是常见的血压、呼吸速率和汗液分泌情况。有一种阴茎体积描记法,通过使用特殊工具来测量阴茎的充盈量来评估性犯罪者的唤起水平。还有技术是使用红外摄像机来分析面部温度,当人们撒谎时血会涌向大脑,鼻子——和匹诺曹相反——会随之稍微收缩。 第五种收集证据的途径在20世纪90年代随着新技术的发展而被开辟出来,那就是——大脑。在Netflix的纪录片「制造杀人犯」第二集中,一名被判处终身监禁的残酷杀人犯Steven Avery最终被名为「脑指纹」的检测所识破。它的发明人Larry Farwell称,「脑指纹」检测可以通过嫌疑人对罪案相关的词汇或图片的神经反应,来检测隐藏在犯罪嫌疑人大脑中的罪行。 911事件之后,美国政府通过美国国防高级研究计划局(DARPA)来赞助各种基于脑科学的测谎研究。其中2006年,名为Cephos和 No Lie MRI的两家公司发明出了一种基于fMRI(功能性磁共振成像)的测谎技术。这项技术可以追踪大脑中涉及社会计算、回忆和冲动控制部分的血液流动情况。 另外,一个新的测谎前沿领域正在兴起,那就是利用人工智能将各种证据来源途径结合在一起,成为一种测谎手段。机器学习通过在大量数据中发现之前看不出的数据模式,推动了测谎研究的发展。比如,马兰里大学的科学家们就声明他们发明出了通过分析法庭录像来鉴别谎言的软件,准确率可以达到88%。 但是从历史来看,测谎仪在科学基础上的瑕疵一直是笼罩在它头顶的一片乌云。甚至是测谎仪的发明者John Larson,也嫌弃他自己的创作。 1921年时值29岁Larson还是加利福尼亚州伯克利市的一名菜鸟警察,但他学习过生理学和犯罪学,于是他建造了一个装置连续测量人的血压和呼吸速率,并将结果记录在滚动的纸上。此后测谎仪开始大面积流行。1951年,美国陆军成立了第一所测谎学校,为南卡罗来纳州杰克逊堡国家信用评估中心的情报机构培养审查官。 在上世纪的大部分时间里,大约有四分之一的美国公司对员工进行了测谎检查,以检测包括吸毒史和盗窃史等问题,麦当劳也经常在员工身上使用测谎仪。到了20世纪80年代,美国有多达10000名受过培训的测谎主考官,每年要做200万次测试。…

Leave a Comment

2024 年值得关注的前 12 位数据科学领袖

在蓬勃发展的数据科学领域,2024年的到来标志着关键时刻,我们将聚焦于一群杰出人物,他们推动创新,塑造着分析学的未来。《2024年十二位数据科学领袖榜单》作为一个指路明灯,庆祝这些人的卓越专业知识、远见领导力以及在该领域的重要贡献。让我们一起探索这些开创性思想家的故事、项目和有前瞻性的观点,他们承诺将塑造数据科学的发展轨迹。这些杰出领导者不仅是先驱者,更是引领我们进入一个无与伦比的创新和发现时代的先锋。 2024年十二位数据科学领袖榜单 随着我们临近2024年,我们将关注一群具有显著专业知识、领导能力和卓越贡献的人士。《2024年十二位数据科学领袖榜单》旨在承认和关注这些人,将他们视为思想领袖、创新者和预计在未来一年取得重大里程碑的影响者。 随着我们深入了解细节,明显地看到这些人的观点、举措和倡议能够改变我们在解决各个行业面临的复杂挑战时的方法和数据利用。无论是在预测分析方面的进展,还是对伦理人工智能实践的倡导,或者是开发尖端算法,这些名单上的人士都有望在2024年影响数据科学领域。 1. 吴恩达 “如今人工智能的主要挑战在于找到合适的业务背景来适应它。我热爱技术,它为我们提供了许多机会。但是最终,技术需要被融入到业务使用案例中。” 吴恩达博士是一位拥有机器学习(ML)和人工智能(AI)专业知识的英裔美籍计算机科学家。在谈到他对AI发展的贡献时,他是DeepLearning.AI的创始人,Landing AI的创始人兼首席执行官,AI Fund的普通合伙人,并且是斯坦福大学计算机科学系的兼职教授。此外,他曾是Google AI旗下Google Brain深度学习人工智能研究团队的创始领导者。他还曾担任百度的首席科学家,指导了一个由1300人组成的人工智能团队,并发展了公司的全球AI战略。 吴恩达先生负责领导斯坦福大学的大规模在线开放课程(MOOC)的发展。他还创办了Coursera,并为超过10万名学生提供机器学习(ML)课程。作为机器学习和在线教育的先驱者,他拥有卡内基梅隆大学、麻省理工学院和加州大学伯克利分校的学位。此外,他在机器学习、机器人学和相关领域发表了200多篇研究论文,并入选了《时代》杂志评选的全球最具影响力人物100人。 网站:https://www.andrewng.org Twitter:@AndrewYNg Facebook:Andrew Ng、Google Scholar。 2. Andrej Karpathy “我们本应让人工智能做所有工作,而我们玩游戏,但我们在做所有工作,而AI在玩游戏!” Andrej Karpathy是一位来自斯坦福大学的斯洛伐克-加拿大双博士学位获得者,在OреոΑӏ负责构建一种JARVIS。他曾担任特斯拉的人工智能和自动驾驶视觉总监。Karpathy对深度神经网络充满热情。他从多伦多开始,修读计算机科学和物理学的双学位,之后前往哥伦比亚深造。在哥伦比亚,他与Michiel van…

Leave a Comment

在金融科技API管理中释放人工智能的力量:产品经理的全面指南

这份全面的指南探索了人工智能在金融技术API管理中的改变性作用,并为每个部分提供了实际示例从由人工智能驱动的洞察力和异常检测到由人工智能增强的设计、测试、安全性和个性化用户体验,金融科技产品经理必须利用人工智能的能力来优化运营、提升安全性并提供最佳的用户体验

Leave a Comment

微软人工智能团队推出Phi-2:一个具有杰出推理和语言理解能力的2.7B参数小语言模型

语言模型的发展一直以来都是在大模型能够拥有更高性能的前提下进行的。然而,打破这一既定信念,微软研究院的机器学习基础团队的研究人员推出了参数为27亿的全新语言模型Phi-2,这一模型正颠覆着长期主导这一领域的传统扩展规则,挑战了“模型大小决定语言处理能力”的普遍观念。 这项研究打破了关于超卓性能必须依赖更大模型的普遍假设。研究人员将Phi-2引入视为范式转变,超越常规。文章揭示了Phi-2的独特特点以及其开发中采用的创新方法。Phi-2摒弃常规方法,依赖精心策划的高质量训练数据,并利用较小模型的知识传递,对语言模型扩展的既定规则构成了巨大挑战。 Phi-2方法的核心在于两项关键性发现。首先,研究人员强调了训练数据质量的重要作用,使用“教科书级”数据精心设计,使模型获得推理、知识和常识的能力。其次,采用创新技术实现了模型洞察力的高效扩展,从13亿参数的Phi-1.5开始。文章深入探讨了Phi-2的架构,这是一个基于Transformer的模型,以下一个单词预测为目标,在合成和网络数据集上进行训练。令人惊讶的是,尽管规模较小,Phi-2在各种基准测试中超越了更大的模型,突显了其高效性和出色能力。 总之,来自微软研究院的研究人员将Phi-2推崇为语言模型发展中的一股变革力量。这一模型不仅挑战了,而且成功推翻了业界对模型能力与大小本质相关的长期信念。这种范式转变鼓励了新的视角和研究方向,强调了不完全遵循常规扩展规则时所能实现的高效性。Phi-2独特的高质量训练数据和创新的扩展技术,标志着自然语言处理迈向前沿,并为未来带来了新的可能性和更安全的语言模型。 本文首发于Microsoft AI团队推出Phi-2:一个参数为27亿的小型语言模型,展示出卓越的推理和语言理解能力,转载请注明出处。

Leave a Comment

如何使用开源工具像专业人士一样克隆声音和视频口型同步

介绍 AI语音克隆风靡社交媒体。它开启了创造性的无限可能。你肯定在社交媒体上看过名人梗或AI语音配音。你想知道它是如何完成的吗?当然,许多平台提供像Eleven Labs这样的API,但我们能否免费使用开源软件来实现呢?答案是肯定的。开源界有TTS模型和嘴唇同步工具,用于实现语音合成。因此,在本文中,我们将探索用于语音克隆和嘴唇同步的开源工具和模型。 学习目标 探索用于AI语音克隆和嘴唇同步的开源工具。 使用FFmpeg和Whisper转录视频。 使用Coqui-AI的xTTS模型进行语音克隆。 使用Wav2Lip进行视频嘴唇同步。 探索该技术的实际用例。 本文作为 数据科学博客马拉松 中的一部分发表。 开源栈 正如你已经了解的,我们将使用OpenAI的 Whisper,FFmpeg,Coqui-ai的xTTS模型和Wav2lip作为我们的技术栈。但在深入代码之前,让我们简要讨论一下这些工具。同时感谢这些项目的作者。 Whisper:Whisper是OpenAI的自动语音识别(ASR)模型。它是一个使用超过650k小时的各种音频数据和相应转录进行训练的编码器-解码器变压器模型。这使其在多语言转录方面非常强大。 编码器接收音频段的对数梅尔频谱图,每个编码器块使用自注意力机制来理解音频信号的不同部分。解码器然后接收编码器的隐藏状态信息和学习的位置编码。解码器使用自注意力机制和跨注意力机制预测下一个标记。最终,它输出代表识别文本的一系列标记。有关Whisper的更多信息,请参考官方存储库。 Coqui TTS:TTS是Coqui-ai的开源库。它包含多个文本到语音模型。它具有端到端模型,如Bark、Tortoise和xTTS,频谱图模型如Glow-TTS、FastSpeech等,以及声码器如Hifi-GAN、MelGAN等。此外,它提供了一个统一的API用于推断、微调和训练文本到语音模型。在这个项目中,我们将使用xTTS,一个端到端的多语言语音克隆模型。它支持16种语言,包括英语、日语、印地语、普通话等。有关TTS的更多信息,请参考官方TTS存储库。 Wav2Lip:Wav2Lip是一个用于“A Lip Sync Expert Is All You Need for…

Leave a Comment

Spotify的秘密武器:AI生成的播放列表

揭開AI播放清單功能的面紗 今秋,敏銳的用戶發現了Spotify流媒體應用程序上的一個新功能,允許通過提示創建AI驅動的播放清單。雖然Spotify向TechCrunch確認了此測試,但有關該技術及其運作方式的詳細信息仍未公開,讓用戶感到好奇。這一功能是通過用戶@robdad_在TikTok視頻中展示出來的,他意外發現了他稱之為“Spotify的ChatGPT”的東西。 導航AI播放清單界面 從Spotify應用程序的“您的音樂庫”選項卡中可以輕鬆訪問AI播放清單功能。用戶可以通過點擊屏幕右上角的加號(+)按鈕啟動播放清單創建過程。彈出菜單出現,除了現有的“播放清單”和“合併”選項外,還提供了AI播放清單選項。在選擇後,用戶將遇到一個屏幕,可以在AI聊天機器人風格的框中輸入提示,或從提供的提示列表中選擇,例如“用器樂電子音樂集中注意力工作”或“探索像女巫之屋這樣的小眾音樂類型”。 AI播放清單生成的幕後 @robdad_分享的屏幕截圖展示了提示選擇過程,顯示選項包括“用背景咖啡館音樂填充沉默”或“用有趣、快樂和積極的歌曲來提振士氣”。AI聊天機器人然後回答“正在處理您的請求…”並呈現一個範例播放清單。用戶可以通過向左滑動進一步完善播放列表,刪除不想包含的任何歌曲。 Spotify的AI探索繼續 這不是Spotify首次嘗試AI驅動的功能。今年早些時候,這家流媒體巨頭推出了一個AI驅動的DJ,以推薦歌曲和俏皮的評論顛覆了音樂聆聽體驗。產品設計師Chris Messina最近發現的代碼暗示AI在播放清單創建方面具有更廣泛的應用,可能還涉及Spotify Blend。然而,Spotify對具體細節保持緘默,稱“在Spotify,我們不斷改進和構思我們的產品,為用戶提供價值。” 我們的說法 Spotify對AI生成的播放清單的實驗反映出該公司致力於在音樂流媒體領域的技術創新前沿。儘管詳細信息有限,但通過AI提示的用戶自主創建個性化播放清單的前景為Spotify體驗增添了激動人心的維度。隨著Spotify在AI方面不斷突破界限,這一功能如何發展和融入該平台的更廣泛生態系統將是一個有趣的觀察。 由於AI播放清單功能的持續測試,Spotify用戶可以預期在播放清單創建方面出現一個可能改變遊戲規則的功能。隨著技術的不斷發展,我們與喜愛的音樂互動的方式也在不斷變化,而Spotify似乎決心引領這個以AI為驅動的未來。

Leave a Comment

Deci AI推出DeciLM-7B:一种超快速且超准确的70亿参数的大型语言模型(LLM)

“`html 在不断发展的技术进步领域中,语言模型已成为不可或缺的一部分。这些由先进的人工智能驱动的系统增强了我们与数字平台的互动。语言模型旨在理解和生成类似人类的文本,弥合了人类沟通与机器理解之间的差距。技术的进步引领着一个数字时代,语言模型在信息处理、沟通和问题解决中扮演越来越重要的角色。 最近,Deci推出了DeciLM-7B,这是一种具有高精度和速度的创新模型,适用于70亿参数级别。这个模型在Apache 2.0许可下,处于新一代语言模型的前沿,拥有70亿参数级别中无与伦比的准确性和速度。该模型是语言处理领域的一种增量革新和变革性力量。 在“开放语言模型排行榜”上,DeciLM-7B显示出令人印象深刻的平均得分为61.55。这表明DeciLM-7B是70亿参数级别中最先进的基础语言模型,提供了在各种应用中改进的准确性和可靠性。Mistral 7B在诸多基准测试中表现优异,包括Arc、HellaSwag、MMLU、Winogrande和GSM8K等。 DeciLM-7B不仅准确,而且速度出色。与Mistral 7B相比,它的吞吐量增加了83%,与Llama 2 7B相比增加了139%。DeciLM-7B提高了语言模型的效率标准。PyTorch基准测试突显了其在吞吐量上优于Mistral 7B和Llama 2 7B,分别显示出1.83倍和2.39倍的增加。 DeciLM-7B与Infery和Dec开发的推理SDK相互协作,相对于具有vLLM的Mistral 7B,能够提供4.4倍的速度提升,为成本效益高、大量用户交互提供机会。 DeciLM-7B利用NAS的引擎AutoNAC。该模型采用了变量分组查询注意力。在顶级的70亿参数大型语言模型中,该模型在没有复杂的偏好优化方法的情况下表现出色。研究人员强调,DeciLM-7B和Infery-LLM具有在多个行业引发革命性变革的潜力。它们在提供实时聊天机器人的高容量客户服务方面提升了智能度、响应度和可负担性,并在医疗、法律、市场营销和金融等文本密集型专业领域中实现了工作流自动化的革新。 总之,DeciLM-7B在大型语言模型中具有重要作用。它不仅在准确性和效率方面出类拔萃,还在可访问性和多功能性方面表现出众。随着技术的不断进步,像DeciLM-7B这样的模型在塑造数字世界方面变得更加重要。它们给我们提供了一个令人兴奋的前景,展示了无数未来可能性的一瞥。随着技术的进步,这些模型变得越来越重要,为我们提供了数字领域中众多选择的引人入胜且广阔的预览。 “`

Leave a Comment

通过扩散实现自适应学习:尖端范式

介绍 在教育和机器学习的不断发展中,适应性学习通过扩散的整合代表了一种范式转变。这种先进的方法利用了扩散的原理来量身定制学习经验,无缝地适应个体学习者的需求和学习节奏。在本文中,我们将深入探讨适应性学习通过扩散的细微差别,探索其潜在概念,应用于不同领域以及对学习者和教育工作者的转变性影响。 学习目标 了解在教育和机器学习背景下,适应性学习通过扩散的核心原理。 探索适应性学习架构的关键组成部分,包括学习者模型、辅导模型和知识领域。 深入了解适应性学习通过扩散在不同领域中的实际应用,如教育科技、企业培训和医疗教育。 获取有关实现动态内容扩散、个性化学习路径和实时反馈扩散的高级代码段的知识。 认识到适应性学习通过扩散对学习者和教育工作者的转变性影响,包括在赋予学习者力量和提高教育效率方面的作用。 本文是作为数据科学博文马拉松的一部分发表的。 理解适应性学习通过扩散 适应性学习通过扩散的核心是在教育模型中思考扩散过程的应用。扩散,作为物理和数学的基本概念,描述了物质或信息通过VoAGI的传播。在教育领域中,这意味着智能地传播和吸收知识,根据每个人独特的学习轨迹进行调整。 适应性学习架构 学习者模型 适应性学习架构的核心是学习者模型。这个动态实体捕捉到学习者的独特属性,包括熟练水平、现有知识、指定的学习目标和偏好的学习风格。学习者模型充当了一个个性化的蓝图,通过每次互动的演变和适应提供一个精心调整的学习体验。 现有知识、指定的目标、学习风格 现有知识:学习者已经掌握的内容被包含在学习者模型中。通过评估先前的知识,系统避免了冗余,并调整内容以弥补现有的差距。 指定的目标:学习者被分配的学习目标是另一个重要方面。这些目标作为标准,指导适应性系统筛选与学习者特定教育目标相符的内容。 学习风格:了解学习者最好吸收信息的方式很重要。学习风格包括视觉、听觉、动觉等偏好。适应性学习架构利用这些信息以优化适合个体学习偏好的内容发送方式。 辅导模型 辅导模型是负责内容适应的智能核心。它利用从学习者模型中得出的见解来动态调整教育内容的难度、节奏和格式。该模型使用复杂的算法确保学习材料与学习者当前的熟练水平和学习风格相契合,促进更有效的学习体验。 知识领域 知识领域涵盖了可供学习的全部主题。它作为Tutoring模型从中提取内容的广泛库存。适应性学习架构确保从知识领域中选取的内容与学习者的目标相符,优化教育过程。 输出给学习者 适应性学习架构的最终输出是为个体学习者量身定制的学习体验。这个输出包括量身定制的课程、评估和反馈,旨在最大限度地提高学习者对材料的理解和保持。适应性系统根据实时交互和学习者不断变化的需求对这个输出进行不断改进。 从本质上讲,适应性学习架构将教育转变为一个动态、个性化和反应灵敏的过程。通过交织学习者模型、现有知识、指定的目标、学习风格、辅导模型、知识领域和输出给学习者,这个架构为更有效和引人入胜的学习旅程铺平了道路。…

Leave a Comment

迎接EAGLE:基于压缩的快速LLM解码的新机器学习方法

大型语言模型(LLMs)如ChatGPT在自然语言处理领域取得了巨大的革命性进展,展示了他们在各种语言相关任务中的能力。然而,这些模型面临着一个关键问题——自回归解码过程,其中每个标记都需要进行完整的前向通行。这种计算瓶颈在拥有庞大参数集的LLMs中尤为明显,在实时应用中产生了障碍,并给具有受限GPU能力的用户带来了挑战。 来自Vector Institute、滑铁卢大学和北京大学的研究人员介绍了EAGLE(Extrapolation Algorithm for Greater Language-Model Efficiency),以应对LLM解码中固有的挑战。与Medusa和Lookahead等传统方法有所不同,EAGLE采取了一种独特的方法,专注于对第二层顶层上下文特征向量的外推。与前辈们不同,EAGLE努力高效地预测后续特征向量,为文本生成提供了显著加速的突破。 EAGLE方法的核心是部署了一种轻量级插件——FeatExtrapolator。这个插件与原始LLM的冻结嵌入层一起进行训练,根据第二顶层的当前特征序列预测下一个特征。EAGLE的理论基础建立在特征向量随时间的可压缩性上,为加快标记生成铺平了道路。值得注意的是,EAGLE具有出色的性能指标;与普通解码相比,它的速度提高了三倍,比Lookahead快了一倍,并且相对于Medusa加速了1.6倍。最为关键的是,它保持了与普通解码一致性,确保了生成文本分布的保持。 https://sites.google.com/view/eagle-llm EAGLE的能力远不止于加速。它可以在标准GPU上进行训练和测试,使更广泛的用户群体能够使用。它与各种并行技术的无缝集成增加了其应用的灵活性,进一步巩固了它作为高效语言模型解码工具包中宝贵的补充的地位。 考虑到该方法对FeatExtrapolator的依赖,这是一个轻量级但功能强大的工具,与原始LLM的冻结嵌入层合作。这种合作根据第二顶层的当前特征序列预测下一个特征。EAGLE的理论基础根植于特征向量随时间的可压缩性,为更流畅的标记生成过程提供了途径。 https://sites.google.com/view/eagle-llm 传统的解码方法需要对每个标记进行完整的前向通行,而EAGLE的特征级外推提供了一个新的解决方案。研究团队的理论探索最终形成了一种方法,不仅显著加速了文本生成,而且保持了生成文本的分布的完整性——这是维护语言模型输出质量和连贯性的关键因素。 https://sites.google.com/view/eagle-llm 总结起来,EAGLE在解决LLM解码长期存在的低效问题上脱颖而出。通过巧妙地解决自回归生成的核心问题,EAGLE的研究团队提出了一种不仅能大幅加速文本生成,而且能保持分布一致性的方法。在实时自然语言处理需求激增的时代,EAGLE的创新方法使其成为前沿技术的领跑者,填补了尖端技术能力与实际应用之间的鸿沟。

Leave a Comment

斯拉瓦·马德尔斯卡,健康科技创业者——医疗人工智能、疼痛管理技术、预防保健、背部疼痛创新和医疗趋势

在这次采访中,我们探讨了HUGUP和Semiflex Dome System的创始人兼首席执行官Slawa Madelska的见解作为从数字代理机构转型为医疗技术创业的人,Madelska对将技术融入医疗领域有着细腻的观点HUGUP专注于基于证据的背部疼痛管理解决方案,而Semiflex系统则是一种创新的外科医疗设备,用于… Slawa Madelska,医疗技术创业者 — 医疗人工智能、疼痛管理技术、预防保健、背痛创新和医疗保健趋势 阅读更多»

Leave a Comment

伊利诺大学研究人员推出了Magicoder:一系列针对代码的完全开源大语言模型(LLM)

伊利诺伊大学厄巴纳香槟分校和清华大学的研究团队旨在通过引入Magicoder来解决从开源代码片段生成低偏差、高质量编码挑战的难题。Magicoder在各种编码基准测试中表现优于现有的语言模型,包括Python文本转代码生成、多语言编码和数据科学程序语言模型。 CodeGen、CodeT5、StarCoder和CODELLAMA等知名基础模型已经证明了语言模型在代码生成和理解方面的基本能力。指令微调的提出旨在通过使用指令-响应对来对预训练的语言模型进行微调,SELF-INSTRUCT和Evol-Instruct等方法则用于生成指令微调的合成数据。现有的代码基准测试,如HumanEval、MBPP、APPS和CodeContests,评估语言模型在从自然语言描述中开发单功能程序方面的能力。 Magicoder是一系列完全开源的用于代码的语言模型,使用OSS-INSTRUCT方法在75,000个合成指令数据上进行训练,该方法使用开源代码片段启发语言模型生成高质量的代码指令数据。该方法通过从GitHub获取种子代码片段,促使语言模型生成与种子代码相关的编码问题和解决方案,确保多样性和真实世界的相关性。评估使用HumanEval和MBPP等基准测试,重点关注pass1指标。使用INSTRUCTOR根据嵌入相似性对由OSS-INSTRUCT生成的数据进行分类。为了提高鲁棒性,采用了数据清洗技术,包括净化和提示过滤。 Magicoder以不超过70亿的适度参数量展现了与顶级代码模型竞争性能。使用OSS-INSTRUCT在75,000个合成指令数据上进行训练,Magicoder在Python文本转代码生成、多语言编码和数据科学程序语言建模方面超越了先进的代码模型。增强版MagicoderS进一步改进了代码生成性能,在各种基准测试中超过了类似或更大尺寸的其他模型。 MagicoderS-CL-7B在代码模型中同时实现了前沿结果,展示了强大和优越的代码生成能力。 总之,该研究突出了使用OSS-INSTRUCT的有效性,该方法利用语言模型从开源代码片段中生成编码挑战。经过OSS-INSTRUCT训练的Magicoder在不同的编码基准测试中比其他参数更大的语言模型表现更好。此外,当与Evol-Instruct结合时,它还增强了MagicoderS模型,在HumanEval基准测试中表现出与ChatGPT等领先模型相似的令人印象深刻的性能。该研究建议公开模型权重、训练数据和源代码,以支持未来对于代码的语言模型和扩展OSS-INSTRUCT到更大的基础模型以生成更高质量数据的研究工作。

Leave a Comment

AI是否接管厨房?麦当劳与谷歌携手推出GenAI

“`html 为重新定义快餐科技,麦当劳和谷歌合作伙伴将从2024年开始部署生成AI。这个跨越多年的全球联盟旨在无缝整合谷歌云技术到麦当劳遍布全球的众多餐厅。这次战略合作标志着一个重要的跃进,将麦当劳的餐厅技术平台推向前所未有的复杂和生产力领域。 揭示合作伙伴关系 麦当劳和谷歌宣布在全球数千家餐厅中利用谷歌云技术进行广泛合作。这一变革性的合作突显了麦当劳在快餐行业内始终走在数字创新的前沿。该合作关注于利用谷歌云的硬件、数据和AI技术,推动其数字业务的无与伦比的增长。 店内技术创新 作为这次合作的一部分,麦当劳计划在其餐厅和客户平台上实施先进的技术创新。这包括对受欢迎的移动应用程序进行改进,将其作为麦当劳庞大忠诚计划的一个入口,该计划目前拥有1.5亿会员。此外,麦当劳全球的自助服务点将进行大规模升级,向顾客提供更流畅、高效的体验。 生成AI的作用 这次合作的核心是在2024年开始部署生成AI。数千家麦当劳餐厅将进行硬件和软件升级,使这家快餐巨头能够以空前的规模利用生成AI的力量。这一实施旨在优化各种运营方面,麦当劳暗示通过AI驱动的自动化可以交付更热更新鲜的食物。 此外,麦当劳利用AI确保著名薯条的新鲜度的承诺也是这次合作的一个值得注意的亮点。通过部署生成AI,这家快餐巨头计划优化运营,向顾客提供更热和更新鲜的食物。虽然AI如何革新薯条的准备的确切细节尚未公开,但麦当劳通过尖端技术提升标志性菜单项目质量的强调,让人们对快餐餐饮的未来产生了引人入胜的一瞥。 谷歌分布式云 – 一个技术变革者 为了简化这些进步的无缝部署,谷歌分布式云计划在数千家麦当劳餐厅中部署一种硬件和软件的组合。这项尖端技术使麦当劳能够利用基于云的应用程序和现场AI解决方案,实现对餐厅运营的更本地化控制。该合作使麦当劳成为全球最大的全球性餐饮服务零售商,利用谷歌分布式云的新功能。 还阅读: 革命餐馆:AI在餐饮服务中的力量 我们的看法 谷歌云技术的整合,加上生成AI的采用,使麦当劳处于行业数字化转型的前沿。尽管AI应用的具体细节仍然令人费解,但麦当劳强调其致力于提升客户体验和简化餐厅运营。这次合作承诺带来令人兴奋的时刻,麦当劳和谷歌重新定义了外出就餐的本质。两个行业巨头相互协同他们的专业知识,结果很可能是一个不仅提高运营效率,而且在不断发展的快餐餐饮世界中为顾客满意度树立新的基准的技术奇迹。 “`

Leave a Comment

解锁数据科学之门:GATE 2024数据科学与人工智能的终极学习指南

介绍 工程研究生入学考试(GATE)是印度的一个入学考试,用于攻读研究生。这个考试主要测试工程和科学的本科学科的综合理解能力。如果你准备参加由IISc Bangalore推出的2024年GATE数据科学和人工智能考试,那么你来对地方了。本文是一个宝库 – 学习资料、讲义以及标准教材 – 它们将成为你在这个新颖而激动人心的GATE科目中的指南。 你准备的主要科目包括概率和统计、线性代数、机器学习、人工智能等等。这些不仅仅是任何学科,它们是数据科学和人工智能巨大建筑的支柱。我即将介绍的资源来源于IISc Bangalore的教授们的经典之作,都经过了检验和推荐。 概率和统计:机会和数据的游戏 在概率和统计方面,要准备迎接挑战。这个科目在GATE数据科学和人工智能考试中占有重要的分量,相比计算机科学与工程专业的课程,涵盖了更多的主题。要战胜这个强大的科目,你需要准备适合的参考书籍。我建议首先学习 Sheldon Ross 的《概率课程入门》,这是本本科学生必备的教材。一旦你掌握了基础,可以继续学习同一作者的《概率模型入门》。 对于那些渴望更进一步的知识的人,可以深入学习 S.C. Port 和 C.J. Stone 的《概率论入门》,然后是《随机过程入门》。这些书将带你深入了解随机建模和理论概率。 在讲座视频方面,MIT在概率和统计方面的课程无与伦比。无论你喜欢综合性的旧播放列表还是新的分支主题视频,他们都可以满足你的需求。别忘了检查probabilitycourse.com,那里有大量与GATE课程内容完美契合的例子和练习。 线性代数:数据科学的基石 线性代数是另一个需要重视的科目。GATE课程中新增了向量空间和奇异值分解等新主题,你不能浮于表面。要打好基础,你可以通过MIT的YouTube频道观看 Gilbert…

Leave a Comment

Janne Aas-Jakobsen,CONSIGLI AS创始人兼首席执行官 — 人工智能在工程和建筑领域的作用,可持续技术,全球扩张,创业洞察和技术创新

在我们对CONSIGLI AS的创始人兼首席执行官Janne Aas-Jakobsen的采访中,我们深入探讨了人工智能在工程和建筑领域的变革角色Janne是将人工智能融入传统行业的先驱者,他讨论了这项技术如何增强可持续性和效率对话还涉及全球扩张策略,并为创业者提供了重要的见解…Janne Aas-Jakobsen,CONSIGLI AS的创始人兼首席执行官-人工智能在工程和建筑中的角色,可持续技术,全球扩张,创业见解和技术创新阅读更多 »

Leave a Comment

Can't find what you're looking for? Try refining your search: