Press "Enter" to skip to content

Tag: Tech News

医疗景观人工智能模型列表(2023年)

鉴于人工智能(AI)在今年取得的许多进展,AI已成为2023年的一个重要讨论点并不足为奇。现在,几乎在每个领域中都可以找到AI的应用案例,其中之一就是在医疗保健和医学领域的令人兴奋和有用的应用。从药物发现到转录医学文件,甚至协助手术,它正在改变医疗专业人员的生活,还有助于减少错误并提高其效率。本文讨论了2023年几个有可能改变医学界的AI模型。 Med-PaLM 2 Med-PaLM由Google Research设计用于医学领域,能够对医学问题提供高质量的答案。该模型利用了Google的LLM的强大性能,并是其中一个在回答USMLE样式问题时达到人类专家水平的首个模型。在评估时,该模型展示了理解症状、进行复杂推理并选择适当治疗的能力。此外,它在研究中基于MedQA医学考试基准测试中取得了86.5%的准确率。尽管显示出了有前途的能力,研究人员希望进行更严格的评估,以确保该模型可以在关键安全领域部署。 Bioformer Bioformer是BERT的一个紧凑版本,可用于生物医学文本挖掘。虽然BERT在NLP应用中取得了最先进的性能,但通过减少参数可以提高计算效率,对性能的影响很小。Bioformer研究人员采用这种方法开发了一个模型,其模型尺寸比BERT大大减小(减少60%)。该模型是在PubMed摘要和PubMed Central全文文章上训练的,并使用了生物医学词汇表。研究人员发布了两个版本的模型-Bioformer8L和Bioformer16L,在命名实体识别、关系抽取、问题回答和文档分类等参数评估中表现良好,即使参数更少。 MedLM MedLM是由Google开发的一套针对医疗保健用例进行调优的基础模型。MedLM中的两个模型旨在处理复杂任务并扩展到各种任务中。这些模型的主要目的是自动化任务,以节省时间,提高效率并改善患者整体健康状况,Google的研究人员与德勤合作以试行MedLM的能力。MedLM还与其他AI系统集成,如BenchSci的ASCEND,以提高临床研究和开发的质量和速度。 RoseTTAFold RoseTTAFold是一款通过有限信息预测蛋白质结构的深度学习软件。它能够研究蛋白质序列的模式、蛋白质氨基酸的相互作用以及它们的三维结构。该模型使研究人员能够模拟蛋白质和小分子药物彼此之间的相互作用,促进药物发现研究。该模型的研究人员还公开了其代码,以造福整个社区。 AlphaFold AlphaFold是由DeepMind开发的功能强大的AI模型,可以根据蛋白质的氨基酸序列预测其三维结构。DeepMind与EMBL的欧洲生物信息研究所(EMBL-EBI)合作共同发布了一个包含超过2亿个AI生成的蛋白质结构预测结果的数据库,以促进科学研究。在CASP14中,AlphaFold在高准确性的情况下超过了其他模型,产生了令人满意的结果。此外,它具有更好地帮助研究人员理解蛋白质结构和推进生物研究的潜力。 ChatGLM-6B ChatGLM是一个双语模型(中英文),它在中文医疗对话数据库上进行了精细调整。该模型在相对较短的时间内(13小时)进行了精细调整,使其成为非常实惠且适用于医疗目的的LLM。该模型还具有更长的序列长度,因此支持更长的对话和应用程序。该模型使用了监督式精细调整、RLHF等技术进行训练,从而使其能够更好地理解人类指令。因此,该模型具有出色的对话和问答能力。 本文最初发表在MarkTechPost上,文章标题为:医疗领域人工智能模型清单(2023年)。

Leave a Comment

‘长尾巴摇晃着狗尾巴:人工智能个性化艺术的意想不到后果’

“`html Meta最近在生成影片领域展现了Emu,这标志着一个转折点,技术和文化以前所未有的方式相互交汇。 Emu不仅是人工智能在创造能力上的进步,更是生成人工智能领域新时代的灯塔,它标志着我们获得信息和娱乐的潜在革命。 我们正处在生成人工智能革命的临界点上,即将改变出版和娱乐领域的基本结构。语言模型以其非凡的综合和表达信息的能力,承诺打造一座全球无与伦比的图书馆,覆盖多种语言下的各种主题。然而,这些生成信息的准确性至关重要,需要保持警惕的事实核查和审查。 将注意力转向娱乐领域,其影响是深远的。Emu所开辟的道路,生成人工智能能够从根本上改变Netflix和Amazon Prime等平台,实现以前无法想象的电影体验个性化。设想一下未来,通过一系列要点来构成电影的叙事,而算法会据此调整剧情。你的英雄命运,无论是胜利还是失败,由你决定。这不仅仅是关于偏好,而是个性化达到了高峰。我们将很快看到我们决定英雄在结局时是否死去。幸福快乐…只有我意愿为之!然而,这种个性化带来了一个重要的警示。将艺术体验根据个人口味调整的能力,有可能限制我们接触多样化的观点,导致一个过于简化和以回声室为特点的世界。 这种倾向于简化,通常被代表为“用5岁儿童的方式解释”,可能有助于初步理解,但有可能侵蚀我们对复杂问题的充分理解的丰富性和深度。爱因斯坦关于使事情尽可能简单但不过分简单的指导在这里特别适用。它强调了在保持清晰度的同时保留复杂主题的细微差别的重要性。 尽管存在潜在的陷阱,这项技术的魅力是无可否认的。它触动了我们对独特性和认可的深刻渴望,这与可定制产品如NikeId的吸引力相似。然而,危险在于让人工智能加强我们的偏见,并使我们远离具有挑战性和多样性的思想。这与创造力的本质相背离,而创造力在于与广泛的知识接触。 在人工智能领域,特别是在强化学习中,我们训练代理人在探索和利用之间取得平衡,这是我们自己的知识之旅的一种策略。然而,在与信息的互动中,我们经常限制自己只接触与我们现有信念相一致的内容。这种悖论强调了我们在应用人工智能时关键性的疏忽。 当我们站在人工智能重塑我们的世界的潜力的边缘时,我们必须考虑如何利用这个强大的工具。真正的危险不在于人工智能本身,而在于我们与之互动的方式。我们必须将人工智能视为一种促进探索和理解的催化剂,营造一个欢迎复杂性、培养智力好奇心的环境。通过这样做,人工智能能够真正成为一种力量,拓宽我们的视野,丰富集体的人类经验。 本文来源:长尾狗摇头摆尾:人工智能个性化艺术的意外后果 – MarkTechPost “`

Leave a Comment

探索AI的新领域:谷歌DeepMind的研究关于通过ReSTEM自我训练推进机器学习超越人类生成的数据

大型语言模型(LLMs)正在通过展示惊人的文本生成能力和执行各种语言任务而改变深度学习。获得高质量的与人类相关的数据是一个重大障碍,即使使用人类收集的数据进行监督微调(SFT)也能进一步提高它们在感兴趣的任务上的性能。这对需要大量资源和专业知识的复杂问题解决任务尤为困难。为了克服这一障碍,模型生成的合成数据在其质量能够得到保证的情况下被认为是一种可扩展且经济实惠的解决方案。 来自Google Deepmind和Mila的研究人员在这项研究中研究了一个更加简单的场景,其中外部的标量反馈信号作为每个生成样本的质量指标,即使LLMs能够自行评估生成的数据。研究团队提出了一种简单而有效的语言模型自训练技术,只涉及两个技能:1) 使用模型创建样本,2) 使用评分机制评估这些样本。这种方法使我们能够研究在模型创建的数据上进行训练。研究团队使用了加强自训练的命名方式,并将这种技术称为ReST𝐃𝑀,以实现统一性和清晰度。研究团队演示了如何将ReST𝐃𝑀视为使用期望最大化进行强化学习。 具体而言,ReST𝐃𝑀在以下方式上在期望和最大化阶段之间切换:1. 生成 (E-step):对于每个输入背景,语言模型产生多个输出样本。然后,研究团队通过使用二进制奖励来筛选这些样本,以收集训练数据集。2. 改进 (M-step):使用前面生成阶段的训练数据集来对原始语言模型进行监督和微调。然后,下一个生成阶段使用调整后的模型。ReST𝐃𝑀及其变体已经证明在许多领域的语言模型中提高了效能,例如机器翻译、语义解析和偏好对齐。 ReST𝐃𝑀主要在以前关于非常小型语言模型(最多7B参数)的研究中使用,对于更大的模型而言,其可扩展性有限。他们的工作旨在通过比较模型创建的合成数据的可扩展性和有效性与人类提供的数据在两个具有挑战性但研究不足的领域中: 代码生成 (APPS) 和具有竞争水平的数学问题解决 (MATH)。他们的研究结果表明,将ReST𝐃𝑀应用于不同规模的PaLM 2模型可以显著改善数学推理和代码生成能力。 令人惊讶的是,通过模型生成的人工数据进行改进的模型在性能上大幅优于以人类提供的数据训练的模型。此外,经过几个ReST𝐃𝑀周期后,改进效果会减弱,表明可能会过度拟合数量有限的训练案例。此外,使用ReST𝐃𝑀进行优化的模型增强了 pass@k 和多数投票能力。最后,这些改进的模型在类似但不同的基准测试中展现出增强的性能,包括Big-Bench Hard任务、编码(HumanEval)和算术问题(GSM8K和Hungarian HS决赛)。最后,还进行了消融研究,以调查训练问题、迭代次数和模型生成解决方案数量对ReST𝐸𝑀微调的影响。

Leave a Comment

这篇AI论文揭示了生成型AI模型的网络安全意义-风险、机遇和伦理挑战

生成型人工智能(GenAI)模型,如ChatGPT、Google Bard和Microsoft的GPT,已经革新了人工智能互动。它们通过创建多样化的文本、图像和音乐等内容来改变多个领域,影响着沟通和问题解决。ChatGPT被数百万人迅速接受,反映了GenAI融入日常数字生活,改变了人们对人工智能的认知和互动方式。它能够理解和生成类似人类对话的能力,使得更广泛的受众更容易接触和理解人工智能,显著改变了人们的感知。 GenAI模型的发展状况迅速演进,从GPT-1到最新的迭代版本如GPT-4,每一次迭代都展示了在语言理解、内容生成和多模态能力方面的重大进展。然而,这种进化也带来了一些挑战。这些模型日益复杂的特性带来了伦理问题、隐私风险和恶意实体可能利用的漏洞。 在这方面,最近有一篇论文对GenAI,尤其是ChatGPT的网络安全和隐私影响进行了全面的探讨。它揭示了ChatGPT中存在的可能践踏伦理边界和侵犯隐私的漏洞,这些漏洞可能被恶意用户利用。该论文指出了类似GenAI工具的潜在威胁,如越狱、反向心理和提示注入攻击,展示了这些工具可能带来的潜在威胁。它还探讨了网络罪犯如何滥用GenAI进行社会工程攻击、自动化攻击和恶意软件创建的问题。此外,它还讨论了利用GenAI的防御技术,强调了网络防御自动化、威胁情报、安全代码生成和伦理准则等来加强系统防御,抵御潜在攻击。 作者广泛探讨了操作ChatGPT的方法,讨论了像DAN、SWITCH和CHARACTER Play这样的破解技术,旨在覆盖限制并绕过伦理约束。他们强调了如果这些方法被恶意用户利用,可能导致有害内容的生成或安全漏洞。此外,他们详细介绍了一些令人担忧的情景,如果不受限制地使用ChatGPT-4的能力,可能会突破互联网的限制。他们深入探讨了提示注入攻击,展示了像ChatGPT这样的语言模型中的漏洞,并提供了使用ChatGPT生成攻击载荷、勒索软件/恶意软件代码和影响CPU的病毒的示例。这些探索突显了重大的网络安全问题,说明了类似ChatGPT这样的AI模型在社会工程、网络钓鱼攻击、自动化攻击和多态恶意软件生成方面的潜在滥用。 研究团队探索了ChatGPT在网络安全方面的几种应用: – 自动化:ChatGPT通过分析事件、生成报告和提供防御策略来协助SOC分析师。 – 报告:根据网络安全数据生成易于理解的报告,帮助识别威胁和评估风险。 – 威胁情报:处理大量数据以识别威胁、评估风险并推荐缓解策略。 – 安全编码:帮助在代码审查中检测安全漏洞并建议安全编码实践。 – 攻击识别:通过分析数据描述攻击模式,有助于理解和防止攻击。 – 伦理准则:生成AI系统伦理框架的摘要。 – 增强技术:与入侵检测系统集成,提高威胁检测能力。 – 事件响应:提供及时指导并创建事件响应手册。 – 恶意软件检测:通过分析代码模式来检测潜在恶意软件。…

Leave a Comment

支持向量机(SVM)是什么?

支持向量机(SVM)是一种在机器学习领域中使用的监督学习算法。它主要用于执行分类和回归等任务。该算法可以处理各种任务,例如判断电子邮件是否为垃圾邮件、识别手写字体,甚至在图片中检测人脸。它非常适应性强,能处理大量信息和数据中的复杂关系。 SVM的主要任务是根据特征绘制最佳的分隔线(或平面),以区分不同组的事物。就像在数据集中找到不同类别之间的最佳边界一样。因此,无论是对文本、图像还是其他任何东西进行分类,SVM都是机器学习中的首选工具。 SVM的类型 线性支持向量机 当数据可以通过一条直线轻松分为两组时,线性SVM效果最好。想象一下你的数据就像是纸上的点,你可以画一条直线将它们整齐地分成两个不同的类。也就是说,数据应该是完全线性可分的。 非线性支持向量机 当数据无法通过一条直线分类成两组时,我们就会引入非线性SVM。这种情况下,数据不是线性可分的。在这种情况下,非线性SVM可以派上用场。在现实世界中,数据通常杂乱无章,不遵循简单的规律,这时我们就可以使用非线性SVM及其核技巧。 它是如何工作的? 想象一下,你手上有两组事物,比如绿色和蓝色的点,散落在地板上。SVM的任务是找到一条最佳的直线(或者如果你在三维世界中则是一个平面),将这些点分隔成各自的组。 现在,可能有很多条分隔这些点的直线,对吧?但是SVM会寻找一个特殊的直线——与最接近的绿色点到直线的距离和最接近的蓝色点到直线的距离之间有最大距离的直线。这个距离被称为“间隔”,SVM希望使其尽可能大。 那些在定义直线时起着关键作用的最近的点被称为“支持向量”。SVM专注于这些点,以绘制最佳的直线,使两组之间的空间最大化。 但是,如果你的点没有被一条直线整齐地分开呢?如果它们到处都是?这就是SVM可以使用所谓的“核技巧”将问题提升到一个更高维度空间的地方,这样可以绘制出更复杂的分割曲线或曲面。 用例与应用 1. 垃圾邮件过滤:想象一下,你的电子邮箱里有一堆邮件,其中一些是垃圾邮件,一些则不是。支持向量机(SVM)可以用来创建一个智能过滤器,学会区分垃圾邮件和普通邮件。它会查看邮件的各种特征,比如使用的词语,并绘制一条线来将垃圾邮件与非垃圾邮件分开,保持您的邮箱清洁。 2. 手写识别:如果你希望你的计算机识别不同人的手写。SVM可以做到这一点。通过分析手写字母的特征,比如形状和大小,SVM可以绘制线条或曲线来将一个人的手写与另一个人的手写分开,使其在邮政服务等应用中有用于识别数字。 3. 医学诊断:在医学领域,SVM可以帮助诊断疾病。假设你有关于患者的数据,其中一些患有某种疾病,另一些没有。SVM可以分析各种健康指标,并创建一个边界来区分健康患者和患有该疾病的患者。这可以帮助医生进行更准确的诊断。 4. 图像分类:考虑这样一个场景,你有很多图片,其中一些是猫,一些是狗。SVM可以成为一个英雄,创建一个系统,学会根据颜色、形状或图案等特征区分猫和狗。它绘制一条线(或更复杂的边界)来正确分类新的图片。 5. 股票市场预测:如果你对股票市场感兴趣,SVM可以派上用场。通过分析历史股票数据,考虑交易量和价格变动等各种因素,SVM可以创建一个模型来预测股票的涨跌。 参考资料: https://towardsdatascience.com/support-vector-machine-introduction-to-machine-learning-algorithms-934a444fca47…

Leave a Comment

来自CMU和Meta的新型AI研究介绍了PyNeRF:具有尺度感知和基于网格渲染的神经辐射场的重大飞跃

如何改进神经辐射场(NeRFs)以处理尺度变化并减少场景重建中的锯齿伪影?卡内基梅隆大学和Meta的一篇新研究论文通过提出金字塔神经辐射场(PyNeRF)来解决这个问题。它通过在不同的空间网格分辨率上训练模型头部,从而帮助减少在不同相机距离下重建场景时可能发生的视觉畸变。PyNeRF在不显著影响性能的情况下实现了这些改进,使其成为在加速NeRFs的同时保持高质量场景重建的有效解决方案。 受到NeRF的启发,该研究探索了基于网格的方法(NSVF、Plenoxels、DVGO、TensoRF、K-Planes、Instant-NGP),旨在使用体素网格和张量近似来增强渲染速度和内存效率。PyNeRF在不同尺度上结合了速度优势与质量保证,超越了Instant-NGP、Nerfacto等快速渲染方法,并在渲染质量和训练速度上表现出色。 近期在神经体积渲染方面的进展,特别是NeRFs,为实现逼真的视图合成提供了进展。然而,NeRFs由于其MLP表示和假设而导致速度较慢,容易出现锯齿现象。基于网格的方法如Mip-NeRF加速训练,但缺乏与位置编码的兼容性——PyNeRF受到分治NeRF扩展和经典技术的启发。PyNeRF的金字塔模型沿着光线采样,并采用分区方法来提高渲染质量,同时保持加速的NeRF实现的速度,为高效和高质量的新视图合成提供了一种多功能解决方案。 研究建议修改基于网格的模型,并在不同的空间网格分辨率下训练模型头部以渲染较大的体积样本。使用SUDS作为基础模型,他们逐步在更高的分辨率上进行训练。文中还讨论了各种基于网格加速方法,将学到的特征存储在体素网格或哈希表等结构中。研究人员对其方法进行了与LaplacianPyNeRF和其他插值方法的评估,考察了重用特征网格和使用2D像素区域的影响。其主要贡献是一种多功能的分区方法,可以提高可视保真度,同时在任何现有的网格渲染方法中保持渲染速度。 PyNeRF在合成和真实场景中大大提高了渲染质量,将误差率降低了20-90%,对性能的影响很小。与Mip-NeRF相比,它在训练速度上提高了60倍,并减少了20%的误差。PyNeRF在2小时内达到了SUDS的质量,各项指标优于基准,而SUDS需要4小时。对合成和多尺度Blender数据集的评估结果显示,与快速渲染方法相比,PyNeRF在合成和Multi-scale Blender数据集上展现出卓越的结果。通过对Argoverse 2 Sensor数据集的评估,验证了PyNeRF在众多视频帧中的高质量重建。 总而言之,PyNeRF在快速体积渲染器中改进了抗锯齿特性,展示出在各种数据集上的卓越成果。该方法倡导分享真实场景捕捉,以进一步研究神经体积渲染。然而,它也注意到高质量神经表示的潜在安全和隐私风险。 未来研究可以通过分享更多的真实场景捕捉和探索替代的映射函数来为层次结构分配积分体积。一个有价值的研究方向是在模型训练期间使用语义信息进行隐私过滤。有趣的未来研究方向包括进一步探索架构以提高在快速NeRF方法中可视保真度同时保持渲染速度。潜在的研究领域涉及将金字塔方法应用于其他加速的NeRF实现,并评估其性能。

Leave a Comment

微软研究员提出TaskWeaver:一种用于构建具有LLM驱动的自主代理的代码优先机器学习框架

大型语言模型(LLM)展示了令人印象深刻的自然语言创作和解释能力。这些模型的例子包括GPT、Claude、Palm和Llama。许多应用程序,如聊天机器人、虚拟助手和内容生成系统,广泛使用了这些模型。LLM可以通过提供更直观、更自然的体验,完全改变人与技术的互动方式。代理被定义为能够计划任务、监视环境并采取适当行动响应的自主实体。使用大型语言模型(LLM)或其他AI技术的代理属于此类。 许多框架已经尝试使用LLM进行任务导向型对话,包括Langchain、Semantic Kernel、Transformers Agent、Agents、AutoGen和JARVIS。使用这些框架,用户可以通过用简单的语言提问并获取答案的方式与LLM驱动的机器人进行交流。然而,许多框架存在诸多缺点,限制了它们在数据分析活动和特定领域的情况下的性能。大多数当前框架在处理复杂数据结构(如嵌套列表、字典或数据框)方面,没有原生支持是它们的主要缺点之一。 然而,许多当前框架在处理这些结构时需要帮助,尤其是在不同插件或聊天轮之间共享数据时。在这些情况下,这些框架会将复杂的结构编码为字符串或JSON对象,并将数据存储到磁盘上。这些方法是有效的;然而,特别是在处理大型数据集时,它们可能变得复杂并增加错误率。当前方法无法配置以包括领域知识的能力是另一个缺点。虽然这些框架提供了快速的工程工具和示例,但它们必须提供一种将领域特定信息整合到规划和代码生成过程中的系统化方法。 由于约束的存在,很难根据特定领域需求来控制规划和代码生成过程。许多当前框架面临的另一个问题是它们可能缺乏灵活性,很难适应广泛的用户需求。插件可以处理常见需求,但可能需要帮助来处理临时需求。为每个临时查询编写不同的插件是不可行的。在这些情况下,代理根据用户查询开发独特的代码执行能力变得至关重要。为解决这个问题,需要一种能够平稳地将定制代码执行与插件执行相结合的解决方案。 为了克服这些缺点,微软的研究团队提出了TaskWeaver,这是一个用于创建LLM驱动的自主代理的面向代码的框架。TaskWeaver的独特特性是它能够将用户定义的插件视为可调用的函数,将每个用户请求转换为可执行的代码。TaskWeaver支持复杂的数据结构、灵活的插件使用和动态插件选择,帮助克服其他框架的缺点。它通过利用LLM的编码能力实现复杂逻辑,并通过示例集成领域特定知识。 此外,TaskWeaver为开发人员提供直观的界面,并显著提高了所创建代码的安全执行。研究团队在本文中描述了TaskWeaver的体系结构和实现,并展示了它在不同任务处理方面的出色表现。TaskWeaver为创建具有智能能力的对话代理提供了一个强大而灵活的框架,能够处理具有挑战性的任务并根据特定领域条件进行调整。

Leave a Comment

提升数据安全性与协作能力:AWS Clean Rooms引入机器学习和差分隐私功能

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.49.22-AM-1024×573.png” /><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.49.22-AM-150×150.png” /><p>亚马逊网络服务(AWS)推出了安全数据共享服务Clean Rooms的新更新,通过创新的机器学习(ML)和差分隐私功能增强了其功能。这些进步使企业能够安全地协作,利用机器学习模型的能力,并在进行准确的数据分析的同时保护敏感数据隐私。</p><p>Clean Rooms的最新版本引入了一套强大的功能,旨在加强数据隐私和促进安全协作。机器学习支持的添加使用户能够利用ML模型而不暴露原始数据。这一创新功能使得协作数据分析成为可能,而不会危及数据隐私,对于希望获取洞察力而不泄露敏感信息的企业来说,这是一个福音。</p><p>一个重要的新增功能是将差分隐私功能集成到Clean Rooms中。这个新颖的功能将精心校准的错误或“噪音”引入到查询结果中,确保分析准确性同时使个人数据贡献难以理解。通过将隐私视为有限资源,并通过隐私预算组件对其进行处理,这个功能防止了数据泄露,避免了隐私资源的耗尽和潜在违规行为。</p><p>差分隐私是一种在数据共享期间增强隐私保护的技术,它可以揭示统计模式而不泄露具体个人细节的能力。AWS Clean Rooms简化了这项技术的应用,使其易于实施。通过启用差分隐私功能并在协作环境中配置隐私策略,用户可以轻松地使用这种增强隐私保护技术。</p><p>在此更新中的一个开创性功能是Clean Rooms ML,它允许用户在保护敏感数据的同时使用机器学习模型进行预测分析。它的应用涵盖了各个行业,促进了有针对性的营销工作,确定潜在客户,并加速了临床研究,同时不暴露关键信息。</p><p>Clean Rooms ML的实施涉及在组织数据共享协作中训练AWS管理的模型,从而消除了用户构建和部署自己的模型的需求。这种无缝整合的ML功能使用户具备灵活的控制能力,可以调整模型的预测结果,确保分析的适应性和精确性。</p><p>此外,Clean Rooms还引入了一系列隐私控制功能,授权用户管理具有适当权限的Clean Rooms成员执行的查询和输出。这个额外的控制层进一步加强了协作生态系统中的数据安全和隐私保护措施。</p><p>在本质上,改进后的AWS Clean Rooms标志着安全数据协作的范式转变,是在保护敏感信息的同时释放全面数据分析潜力的重要步伐。AWS通过融合最先进的机器学习和差分隐私功能,优先考虑了数据安全,而不会牺牲分析效率,为更安全、更有洞察力的协作未来铺平了道路。</p><p>本文首发于<a href=”https://guoyuhan.love/5g-robots-clean-singapores-rivers.html”>Enhancing Data Security and Collaboration:…

Leave a Comment

来自Datategy和Math&AI研究所的研究人员为大型语言模型的多模态未来提供了一个观点

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-1024×739.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-150×150.png”/><p>来自法国的Datategy SAS和土耳其的Math & AI Institute的研究人员提出了一种最近兴起的多模态架构的潜在方向。他们研究的核心思想是,经过深入研究的命名实体识别(NER)形式可以在多模态大型语言模型(LLM)设置中加以利用。</p><p>LLaVA、Kosmos或AnyMAL等多模态架构最近一直受到关注,并已在实践中展示了其能力。这些模型可以对文本以外的模态数据进行标记化处理,例如图片,并使用外部的模态特定编码器将其嵌入到联合语言空间中。这样,架构可以以交错的方式提供一种指导调整多模态数据混合文本的手段。</p><p>这篇<a href=”https://www.xiaozhuai.com/this-ai-paper-introduces-rmt-which-combines-retnet-and-transformer-revolutionizing-computer-vision.html”>论文</a>提出,这种通用的架构偏好未来可以拓展成一个更雄心勃勃的设置,他们称之为“全模态时代”。与NER的概念相关的“实体”可以想象成这些类型架构的模态。</p><p>例如,目前的LLMs在推断完整的代数推理方面存在困难。虽然正在进行研究以开发“友好于数学”的特定模型或使用外部工具,但这个问题的一个特定的前景可能是将定量值定义为这个框架中的一种模态。另一个例子是可以由特定的时态认知模态编码器处理的隐式和显式的日期和时间实体。</p><p>LLMs在地理空间理解方面也面临很大困难,远远不被认为是“具备地理空间意识”的。此外,还需要处理数值全局坐标,其中在语言嵌入空间中应准确反映邻近和相邻的概念。因此,将位置作为特殊的地理空间模态纳入,同时配备特殊设计的编码器和联合训练,也可以为此问题提供解决方案。除了这些例子,可以作为模态纳入的第一个潜在实体包括人、机构等。</p><p>作者们认为,这种方法有望解决参数化/非参数化知识扩展和上下文长度限制的问题,因为复杂性和信息可以分布到多个模态编码器中。这也可能解决通过模态注入更新信息的问题。研究人员仅提供了这种潜在框架的边界,并讨论了开发基于实体驱动的语言模型的前景和挑战。</p>

Leave a Comment

如何揭示GPT-4V在机器人视觉语言规划中的力量?见ViLa:一种简单而有效的人工智能方法,利用GPT-4V进行长期目标机器人任务规划

清华大学、上海人工智能实验室和上海启智研究院的研究人员通过引入视觉语言规划(VILA)解决了机器人任务规划中卓越性能的问题。VILA融合了视觉和语言理解,使用GPT-4V编码深奥的语义知识并解决复杂的规划问题,即使在零样本场景中也能做到。这种方法在开放世界的操作任务中具有异常的能力。 该研究探讨了LLM的进展以及对扩展视觉语言模型(VLM)的兴趣,用于视觉问答和机器人等应用。它将预训练模型的应用划分为视觉模型、语言模型和视觉语言模型。重点是利用VLM的视觉基础属性来解决机器人中长期规划中的挑战,通过常识知识来革新高层次的规划。由GPT-4V驱动的VILA在开放世界的操作任务中表现出色,展示了在日常功能中无需额外的训练数据或上下文示例而获得的有效性。 了解场景的任务规划是人类智能的一个关键方面,它依赖于语境理解和适应性。虽然LLM在编码复杂任务规划的语义知识方面表现出色,但它们的局限性在于对机器人的世界接口的需求。为了解决这个问题,机器人VILA是一种整合视觉和语言处理的方法。与先前的基于LLM的方法不同,VILA促使VLM根据视觉提示和高级语言指令生成可行步骤,旨在创建像机器人这样的实体代理,具备人类般的适应性和多样场景中的长期任务规划能力。 VILA是一种将视觉语言模型应用于机器人规划的规划方法。VILA直接将视觉融入推理过程中,利用与视觉领域相关的常识知识。GPT-4V(ision)是用于任务规划的预训练视觉语言模型。在真实机器人和模拟环境中的评估显示,VILA在多样的开放世界操作任务中优于现有的基于LLM的规划器。其独特功能包括空间布局处理、对象属性考虑和多模态目标处理。 VILA在开放世界操作任务中优于现有的基于LLM的规划器。它在空间布局、对象属性和多模态目标方面表现出色。凭借GPT-4V的动力,它可以解决复杂的规划问题,甚至在零样本模式下。VILA显著减少错误,并在需要空间布置、对象属性和常识知识的杰出任务中表现出色。 总而言之,VILA是一种高度创新的机器人规划方法,能够有效地将高级语言指令转化为可操作的步骤。它在整合感知数据和理解视觉世界的常识知识方面优于现有的基于LLM的规划器,特别是在处理复杂的长期任务时。然而,需要注意的是,VILA存在一些限制,如依赖于黑匣子式的VLM和缺乏上下文示例,这表明未来需要对这些挑战进行进一步的改进。

Leave a Comment

15+ AI 开发工具(2023年12月)

GitHub Copilot GitHub Copilot是一种市场领先的人工智能辅助编码助手。作为一个能使开发人员以更高效的方式生成优质代码的工具,Copilot基于OpenAI的Codex语言模型开发。该模型既训练有自然语言理解能力,又有广泛的公共代码数据库,使其能够提供有见地的建议。从完成整行代码和函数到撰写注释,以及辅助调试和安全检查,Copilot为开发人员提供了宝贵的工具。 Amazon CodeWhisperer Amazon的CodeWhisperer是一个基于机器学习的代码生成器,可在Visual Studio和AWS Cloud9等各种IDE中提供实时编码建议。它基于大规模开源代码数据集进行训练,可以提供代码片段到完整功能的建议,自动化重复任务并提升代码质量,是寻求效率和安全性的开发人员的福音。 Notion AI 在Notion工作区中,AI助手Notion可以帮助完成各种与写作相关的任务,包括创造性、修订和概要。它提高了写电子邮件、工作描述和博客文章等任务的速度和质量。Notion AI是一个能够自动化各种写作任务的AI系统,从博客和列表到头脑风暴和创作写作都可以轻松地重新组织和转换AI生成的内容,使用拖放文本编辑器工具。 Stepsize AI Stepsize AI是一个旨在优化团队生产力的协作工具。作为一个项目历史记录和任务管理者,它与Slack、Jira和GitHub等平台集成,以简化更新并消除沟通不畅。其主要特点包括对活动的统一摘要、即时回答问题和强大的数据隐私控制。 Mintlify Mintlify是一个节省时间的工具,可直接在您喜爱的代码编辑器中自动生成代码文档。只需单击一次,Mintlify Writer就可以为您的函数创建结构良好、上下文感知的描述。非常适合开发人员和团队,在生成复杂函数的精确文档方面表现出色,因其高效和准确性而备受赞誉。 Pieces for Developers Pieces for…

Leave a Comment

德克萨斯大学的研究人员展示了使用机器学习预测植入物基重建并发症的研究结果

人工智能(AI)已经在今天几乎每个领域都发挥了作用,有潜力通过自动化、预测和优化决策来改善现有系统。乳房重建是一种非常常见的手术过程,大多数情况下采用基于植入物的重建(IBR)。然而,这个过程往往伴随着周围假体感染,给患者带来重大痛苦并增加医疗保健成本。德克萨斯大学的这项研究探讨了人工智能特别是机器学习(ML)及其能力如何应用于预测IBR的并发症,从而最终改善生活质量。 与乳房重建相关的风险和并发症取决于许多非线性因素,传统方法无法捕捉。因此,本文的作者们开发和评估了九种不同的ML算法,以更好地预测IBR的并发症,并将其性能与传统模型进行了比较。 该数据集收集了约两年的患者数据,数据来自德克萨斯大学MD安德森癌症中心。研究人员使用的一些不同模型包括人工神经网络、支持向量机、随机森林等。此外,研究人员还使用了投票模型来进行最终预测,以获得更好的结果。在性能指标方面,研究人员使用曲线下面积(AUC)在三轮10折交叉验证后选择最佳模型。 在这九种算法中,预测周围假体感染的准确率在67%至83%之间,随机森林算法表现最佳,投票模型具有最佳整体性能(AUC 0.73)。关于预测解释性,准确率在64%至84%之间,极端梯度提升算法表现最佳(AUC 0.78)。 额外的分析还确定了周围假体感染和解释的重要预测因素,从而更加深入地了解导致IBR并发症的因素。例如,高体重指数(BMI)、年龄等因素会增加感染的风险。研究人员观察到BMI与感染风险之间存在线性关系,尽管其他研究报告称年龄不会影响IBR感染,但作者发现两者之间存在线性关系。 作者还指出了模型的一些局限性。由于数据只来自一家机构,因此他们的结果不能泛化到其他机构。此外,额外的验证将使这些模型得以临床应用,并有助于减少可怕并发症的风险。此外,临床相关变量和人口统计学因素可以融入模型中以进一步提高性能和准确性。 总之,本研究论文的作者们训练了九种不同的ML算法,以准确预测IBR并发症的发生。他们还分析了各种因素对IBR感染的影响,其中一些因素被以前的模型所忽视。然而,这些算法也存在一些限制,如数据仅来自一家机构、缺乏额外验证等。使用来自不同机构的更多数据来训练模型并添加其他因素(临床和人口统计学)将改善模型的性能,帮助医务人员更好地解决IBR感染问题。 本文的文章首次出现在MarkTechPost上,信息来源于德克萨斯大学研究人员展示利用机器学习预测基于植入物的重建并发症。

Leave a Comment

加州大学伯克利分校研究人员开发了ALIA:用于细粒度分类任务的自动语言引导图像增强的突破性技术

“`html 精细化图像分类是一项计算机视觉任务,旨在将图像分类为更大类别中的子类别。它涉及对特定的、往往是稀有的动物进行复杂的识别。然而,它们在需要更多广泛的训练数据方面存在问题,导致分类器在适应领域中的不同方面时遇到困难,比如天气条件或地理位置的改变。 数据增强是一种常用的方法,用于使训练数据多样化,在精细分类等专门任务中面临挑战。使用生成模型或传统的翻转或裁剪等方法的方法显示出一定的潜力,但通常需要进行大量的微调或生成对于此类任务不适当的图像。 尽管有各种各样的提出的方法试图解决这些挑战,但该领域仍面临着在创建增强数据集方面的困难,这些数据集代表了多样的变化,同时保持与原始训练数据的视觉一致性和相关性。 一种新颖的方法——自动语言引导图像增强(ALIA)应运而生,以克服这些持续存在的挑战。ALIA利用了与大型视觉模型结合使用的数据集领域的自然语言描述,通过语言引导的图像编辑以自动生成训练数据的多样化变化。与先前的方法不同,ALIA不依赖昂贵的微调或用户提供的提示。相反,它智能地过滤掉最小的编辑和可能破坏与分类相关信息的编辑,提供了一种有希望的解决方案,增强了数据集的多样性,并提高了专门任务(如精细化分类)分类器的泛化能力。 该过程包括: 生成领域描述:利用图像字幕生成和大型语言模型(LLM)将图像上下文总结为不超过十个领域描述。 使用语言引导对图像进行编辑:使用文本条件下的图像编辑技术,创建与这些描述相符的多样化图像。 过滤失败的编辑:使用CLIP进行语义过滤,并使用分类器进行基于置信度的过滤,以删除失败的编辑,确保任务相关信息和视觉一致性的保留。 据作者称,这种方法可以扩展数据集20-100%,同时保持视觉一致性并涵盖更广泛的领域范围。 研究团队进行了大量实验证明了ALIA数据增强方法在专门任务(领域泛化、精细化分类和鸟类分类中的上下文偏见)中的有效性。通过对ResNet50模型进行微调,并使用稳定扩散进行图像编辑,ALIA始终优于传统的增强技术,甚至优于实际数据增加在领域泛化任务中,显示出相对原始数据的17%的改进。在精细分类中,ALIA表现出了竞争性的性能,即使没有领域转移也能保持准确性。ALIA在涉及上下文偏见的功能中,在领域内外的准确性方面表现出色,尽管在图像编辑质量和纯文本修改方面面临挑战。这些实验证明了ALIA在增强数据集多样性和模型性能方面的潜力,尽管在一定程度上依赖于模型质量和图像编辑方法的选择。 总之,作者介绍了ALIA,一种基于大型语言模型和语言引导的图像编辑技术的数据增强先进策略,利用广泛的领域知识。对于已提供的训练集中的领域描述和增强数据,该方法展示了在领域适应、偏见减少甚至在缺乏领域转移的情况下的出色能力。 对于未来的研究,作者认为字幕、大型语言模型和图像编辑的进一步改进将极大地增强该方法的效果和适用性。使用从实际训练数据中得出的结构化提示可能在改善数据集多样性和解决当前方法中遇到的各种限制方面发挥关键作用。这为探索ALIA在更广泛的领域中的应用前景和潜在进展提供了有希望的途径。 “`

Leave a Comment

可以不使用GPU加速实时绘制大规模场景吗?这篇AI论文介绍了基于先进LiDAR定位和网格生成的‘ImMesh’

提供与实际世界相匹配的虚拟环境,包括元宇宙、VR/AR、视频游戏和物理模拟器等3D应用程序的广泛兴起改善了人类的生活方式并提高了生产效率。这些程序基于三角形网格,代替了实际环境的复杂几何。目前大多数的3D应用程序都依赖于三角形网格,这些网格是由顶点和三角形面组成的,作为对象建模的基本工具。由于它能够简化和加速渲染和光线追踪,三角化网格在传感器模拟、密集映射和测量、刚体动力学、碰撞检测等方面也非常有用。然而,目前的网格主要是由天才的3D建模师使用CAD软件制作的,这限制了大规模制作大场景网格的能力。因此,在3D重建领域,一个显著的问题是开发一种能够进行实时场景重建的高效网格方法,特别是对于大场景。 计算机、机器人和3D视觉中最困难的挑战之一是从传感器测量中实时重建大场景的网格。这涉及在附近的三角形面之间重新创建场景表面,并通过边缘连接。精确构建几何框架对于这个困难的挑战至关重要,重建真实世界表面上的三角形面也是如此。 为了实现实时网格重建和同时定位的目标,香港大学和南方科技大学最近进行的一项研究提出了一种名为ImMesh的SLAM框架。ImMesh是一个精心开发的系统,它依赖于四个相互依赖的模块共同提供精确和高效的结果。ImMesh使用LiDAR传感器同时实现网格重建和定位。ImMesh包含一个建立在他们早期工作VoxelMap之上的创新网格重建算法。具体而言,所提出的网格化模块使用体素将三维空间分割,快速识别包含新扫描数据点的体素。高效网格化的下一步是降维,将体素级的三维网格问题转化为二维问题。最后一阶段使用体素级的网格推拉和推送程序来逐步重建三角形面。该团队声称,这是使用传统CPU在线重新创建大规模场景三角网格的初次发表的努力。 研究人员通过使用合成和真实数据对ImMesh的运行性能和网格化精确性进行了全面测试,并将结果与已知基准进行了比较。他们首先展示了在数据收集过程中网格正在快速重建的实时视频演示,以确保整体性能。之后,他们利用四个不同情景下由四个单独的LiDAR传感器获取的公共数据集对ImMesh进行了全面测试,验证了系统的实时能力。最后,他们将ImMesh在实验3中的网格化性能与现有的网格化基准进行了比较,以建立一个基准。根据结果,ImMesh在维持最佳运行时性能的同时实现了高度的网格化精确性。 他们还演示了如何将ImMesh用于LiDAR点云增强;这种方法在规则模式下产生了密集的、具有更大视野(FoV)的强化点,比原始LiDAR扫描结果更细密。在应用2中,他们通过将他们的工作与R3LIVE++和ImMesh相结合,实现了场景纹理重建无损。 该团队强调他们的工作在空间分辨率方面并不容易扩展,这是一个重要的缺点。由于固定的顶点密度,ImMesh在处理大而平坦的表面时倾向于以许多小的面元来低效地重建网格。所提出的系统还没有循环校正机制,这是第二个局限性。这意味着由于在重访区域中的累计定位错误,可能会出现逐渐偏离的问题。如果出现重访问题,重建结果可能不一致。利用最近使用LiDAR点云进行循环识别的工作将有助于研究人员在这项工作中克服这个问题。通过利用这种循环检测方法,就有可能实时识别循环并进行循环校正,以减少偏移的影响并提高重建结果的可靠性。

Leave a Comment

探索单细胞生物学中的人工智能前沿:对Geneformer和scGPT等零射基础模型的批判性评价

Translate from English to Chinese: 基于基因形态模型在单细胞生物学中的应用近来一直是研究人员讨论的热点话题。像scGPT、GeneCompass和Geneformer这样的模型是该领域的一些有希望的工具。然而,它们的有效性一直是一个令人担忧的问题,特别是在零-shot环境中,尤其是当这个领域涉及到探索性实验和缺乏明确的标签进行微调时。本论文基于此问题,对这些模型的零-shot性能进行了严格评估。 以前,有研究依赖于对特定任务进行微调,但由于该领域的特性以及高计算要求,当应用于单细胞生物学领域时,其局限性变得非常明显。因此,为了应对这一挑战,微软研究人员评估了Geneformer和scGPT基因形态模型在涉及多样数据集和多个任务的多个方面上的零-shot性能,如细胞类型聚类的嵌入表示效用、批效应校正和基于预训练目标的模型输入重构的效果。 选择这两个模型的原因是它们的预训练权重(在评估时的时间点上)是可用的。研究人员使用了五个不同的人类组织数据集进行评估,每个数据集都对单细胞分析提出了独特且相关的挑战。为了比较,研究人员还使用了一个名为scVI的生成模型,该模型在每个数据集上进行了训练。他们使用了以下指标来评估每个任务: 对于评估细胞嵌入,他们使用平均轮廓宽度(ASW)和平均Bio(AvgBIO)评分来计算细胞类型在嵌入空间内的唯一度。 对于批次整合,他们采用一种在0到1之间的变体AWS评分,0表示完全分离批次,1表示完美混合批次。 对于评估scGPT和Geneformer在预训练目标上的性能,分别使用均方差(MSE)和皮尔逊相关性。 在这两个度量标准上,scGPT和Geneformer的表现均不如基准策略。Geneformer在不同数据集上具有很大的方差,尽管scGPT在其中一个数据集上的表现优于基准模型scVI,但在另外两个数据集上表现较差。随后,研究人员评估了预训练数据集对模型性能的影响,主要集中在scGPT(四个变体)上,并发现所有模型变体的中位数得分有所改善。 在评估批次效应时,两个模型均表现不佳,常常落后于scVI等模型,这表明它们对零-shot环境中的批次效应并不完全稳健。在最后一组评估中,研究人员发现scGPT无法重构基因表达,而Geneformer的表现更好。与基准模型相比,他们观察到基准预测胜过所有scGPT变体,而Geneformer在其中一个数据集上的表现优于平均排名。 总之,研究人员对将scGPT和Geneformer应用于单细胞生物学的零-shot能力进行了全面分析,他们的分析突显了这些模型的不佳性能。他们的研究发现,scGPT在所有评估中优于Geneformer模型。最后,研究人员还提供了一些关于未来工作需要关注的见解,尤其是关于预训练任务、预训练数据集与下游分析任务性能之间的关系。

Leave a Comment

鸭子AI推出DuckTrack:一款多模态计算机交互数据收集器

准确追踪用户交互行为是促进计算机智能能力提升的基石。这项任务在开发和训练智能系统中起着至关重要的作用。这些系统的有效性取决于对用户交互行为的仔细检查和系统记录。 Duck AI的研究人员开发了DuckTrack,以准确记录各种输入,以便能够将这些数据用于正确训练计算机智能代理。DuckTrack通过与主要操作系统兼容的用户友好型桌面应用程序提供了一种同步收集鼠标、键盘、屏幕视频和音频数据的方法。 此外,DuckTrack启动了社区数据收集倡议。这一开源努力邀请贡献者参与收集多样化的计算机交互数据。DuckTrack在所有主要操作系统上运行流畅,并且使用Python创建。DuckTrack的特色概述展示了其对鼠标和键盘动作的精确记录和回放能力。研究人员表示,将屏幕录制与OBS集成可以进一步提升其多功能性。 对于DeepTrack,在绘图任务中结构相似性指数(SSIM)始终超过0.9。每个事件都以0.03ms ± 0.4ms的较低误差范围进行记录,超过了市场上现有跟踪器的准确性。DuckTrack在性能指标方面具有卓越的表现,这使其成为追求顶级跟踪和回放解决方案的可靠选择。 但DuckTrack也存在某些限制。在回放过程中模拟双击或三击实际上是一个挑战,影响了这些动作的准确性。此外,DuckTrack无法记录触控板手势,并且在涉及原始信息(如游戏)的情况下存在一些限制。开发人员正在积极努力解决这些限制,并通过持续与社区互动来提高DuckTrack的功能。 研究人员在不同系统上进行了DuckTrack的测试,包括运行macOS Sonoma 14.0的M2 Pro MBP 14以及运行PopOS! 22.10(基于Ubuntu)和Windows 10 22H2的Intel i7-10510U System76 Lemur Pro 9。他们在ReCAPTCHA任务上测试了DuckTrack,这是人类运动的代理,结论是它在十次尝试中表现出100%的成功率。虽然硬件差异可能会略微影响性能,但跨操作系统的准确性一致性强调了DuckTrack的可靠性。 研究人员将很快宣布有关贡献和设置数据收集的详细指南,鼓励集体努力来改进和完善DuckTrack的功能。 DuckTrack在收集计算机交互数据方面被证明是一项革命性的工具。凭借对精度的执着、不断的社区参与和对改进的重视,DuckTrack成为寻求卓越回放和跟踪功能的个人和企业的首要选择。DuckTrack正在为更精密和无缝的多模式计算机交互体验铺平道路。 在此处下载适用于您的系统的预构建应用程序。

Leave a Comment

深度学习模型如何模仿大脑中的人类语音识别:解读听觉处理

研究表明,将听觉数据转化为语言表示涉及到声音感知。当有人听到语音时,包括主要和非主要听觉皮层区域、听觉神经以及皮层下结构的听觉通路会被激活。由于环境条件和语言知觉单元的听觉信号会发生变化,自然语音知觉是一项艰巨的任务。尽管经典的认知模型能够解释许多语音知觉的心理特征,但在解释大脑编码和自然语音识别方面,这些模型还不够完善。深度学习模型在自动语音识别方面正接近人类的表现。 为了提高人工智能模型的可解释性,并提供新的数据驱动的感知计算模型,加州大学旧金山分校的研究人员旨在将深度学习模型的计算和表示与人类听觉系统的神经反应相关联。它旨在识别人类听觉回路和最先进的语音神经网络模型之间的共同表示和计算。分析重点是与上行听觉通路中真实语音的神经反应相关联的深度神经网络(DNN)语音嵌入,并使用神经编码框架。 详细比较了听觉回路和深度神经网络(DNN)模型的各种计算架构(卷积、循环和自注意)和训练过程(有监督和无监督目标)。此外,检查DNN的计算能提供有关神经编码预测的基本过程的信息。与之前针对单一语言(主要是英语)的建模尝试不同,他们在研究中使用了跨语言范式来揭示语音知觉的语言特定和语言不变特征。 令人着迷的是,研究人员展示了最新的DNN如何紧密模拟人类听觉系统中的关键信息处理要素。当预测整个听觉通路中对真实语音的神经反应时,DNN的特征表示比基于理论驱动的声学-语音学特征集表现得更好。此外,他们还检查了深度神经网络(DNN)中基本的上下文计算。他们发现,完全无监督的自然语音训练是这些网络获取与语言相关的关键时间结构(如音素和音节上下文)的方式。这种获取特定于语言的语言信息的能力预测了非主要听觉皮层中DNN-神经编码的相关性。线性STRF模型无法揭示在跨语言知觉期间STG中的特定于语言的编码,而基于深度学习的神经编码模型可以。 总之 使用比较方法,研究人员展示了语音学习的深度神经网络(DNN)与人类听觉系统之间的重要的表征和计算相似性。从神经科学的角度来看,基于经典特征的编码模型在从统计结构中提取中间语音特征方面被数据驱动的计算模型所超越。通过与神经反应和选择性进行对比,他们为理解AI方面DNN的“黑箱”表示提供了一种方法。他们展示了如何使现代DNN可能选择类似于人类听觉系统信息处理方式的表示。根据研究人员的说法,未来的研究可以使用更广范围的AI模型和更大更多样的人群来调查和验证这些结果。 本文发表在《解读听觉处理:深度学习模型如何在大脑中模拟人类语音识别》一文中,首发于MarkTechPost。

Leave a Comment

MLOps是什么?

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Blog-Banner-2-1-1024×576.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Blog-Banner-2-1-150×150.png”/><p>机器学习运营,或MLOps,是一套用于通过将机器学习(ML)开发和ML部署结合起来,以标准化和简化在生产中连续交付高性能模型的过程。</p><p>制作和完善ML模型被称为ML开发。部署机器学习模型是将它们发布供在生产环境中使用。</p><p>通过自动化将ML模型从开发移至生产所需的过程,MLOps弥合了这两种方法之间的差距。这有助于快速和有效地部署ML模型,并保证其在工业环境中的持续成功。</p><p><strong>MLOps的好处有哪些?</strong></p><p>MLOps的价值在于它使企业能够:</p><ul><li>MLOps简化了将ML模型从开发到生产的流程,加快了部署速度,为组织提供了优势。</li><li>MLOps通过确保在训练环境一致的生产环境中部署ML模型,帮助企业提高机器学习(ML)模型的质量。这样做减少了模型随着基础数据分布的变化而逐渐失去准确性的可能性。</li><li>通过自动化管理和监控生产中的ML模型的过程,MLOps能够降低ML运营的高成本。员工因此可以将更多时间投入到其他项目中,如创建新的ML模型。</li></ul><p><strong>那么,MLOps到底是如何工作的呢?</strong></p><p>连续集成和交付(CI / CD)流水线通常用于实施MLOps。构建,测试和发布软件应用程序都是可以通过CI / CD流水线自动化的过程。</p><p>以下是MLOps CI / CD流水线中的典型步骤示例:</p><ul><li>使用过去收集的数据训练ML模型。</li><li>将ML模型与保留数据集进行比较进行测试。</li><li>将ML模型放入生产环境中,称为“部署”。</li><li>密切关注ML模型,确保其在生产中保持良好状态。</li></ul><p>您可以手动或自动启动CI / CD工作流。例如,当学习到机器学习模型的新版本时,可以激活流水线。</p><p><strong>用于MLOps的工具有哪些?</strong></p><p>对于MLOps,您可以选择各种有用的工具。常用工具包括:</p><ul><li>一套被称为ML框架的工具可用于训练和部署ML模型。最常用的ML框架包括TensorFlow,PyTorch和scikit-learn。</li><li>云计算平台提供了在生产中安装和管理ML模型所需的基础设施和服务。亚马逊网络服务(AWS),Google云平台(GCP)和Microsoft Azure是为MLOps而知名的云计算平台之一。</li></ul><p><strong>MLOps系统包括:</strong></p><ul><li>用于构建的集中式中心。</li><li>发布。</li><li>维护机器学习(ML)模型。</li></ul><p>Kubeflow,MLflow和Prefect是受欢迎的MLOps系统示例。</p><p><strong>如何开始使用MLOps</strong></p><p>您可以采取一些措施来开始使用MLOps:</p><p><strong>选择合适的工具:</strong>MLOps工具有各种形式。选择符合您的要求和预算的工具。</p><p><strong>设置CI / CD流水线:</strong>带有CI / CD流水线的自动化可以将ML模型从开发到生产的过程。</p><p><strong>监控您的ML模型:</strong>密切关注您的生产ML模型的表现。</p><p><strong>结论</strong></p><p>MLOps技术的目标是通过将ML开发和ML部署结合起来,标准化和简化在生产中连续交付高性能模型的过程。企业可以通过加快ML模型的部署速度,提高模型质量和降低ML运营成本从MLOps中受益。您可以采取多种措施开始使用MLOps,例如选择适当的工具,建立CI / CD流水线以及监控您的ML模型。</p> 机器学习运营,或称为MLOps,是一组流程,旨在通过将机器学习(ML)开发和ML部署结合起来,标准化和简化在生产中连续交付高性能模型的过程。 制作和优化ML模型被称为ML开发。部署机器学习模型是将它们发布供在生产环境中使用的过程。 通过自动化将ML模型从开发移到生产所需的过程,MLOps弥合了两种方法之间的差距。这有助于快速有效地部署ML模型,并使其在工业环境中保持成功。 MLOps的好处是什么?…

Leave a Comment

亚马逊推出Q:一款可以根据企业定制的生成式AI聊天机器人

亚马逊网络服务(AWS)最近宣布了一款开创性的生成式AI助手 – 亚马逊Q,旨在改变工作场所。亚马逊Q突出的特点是能够根据具体的业务需求定制其辅助功能,利用公司的数据和专业知识提供答案、解决问题、生成内容和促进行动。 亚马逊Q的主要特点和能力包括: 满足业务需求的定制化:亚马逊Q可以根据组织已有的身份、角色和权限进行个性化互动。这种定制化确保了助手的回答和建议与公司特定的工作流程和信息系统相关。 安全与隐私:亚马逊Q的一个突出特点是其内置的安全和隐私措施。与其他可能最初不包含这些关键特性的生成式AI解决方案不同,亚马逊Q设计时就考虑了这些因素。 开发人员和IT支持:对于开发人员和IT专业人员来说,亚马逊Q是一个知识渊博的助手,可以帮助处理从故障排除到代码优化的各种任务。它经过了AWS的知识和经验培训,在各种AWS服务和工具上提供见解和解决方案。 功能开发和代码转换:亚马逊Q帮助开发新功能和转换现有代码,简化应用程序开发和维护。它可以自动化开发过程的许多方面,减少开发人员所需的时间和精力。 与业务数据和系统的集成:助手可以连接到公司的数据和系统,为问题解决和内容生成提供量身定制的帮助。这种能力使员工能够充分利用生成式AI,有效利用内部资源。 管理控制:亚马逊Q允许管理员对其可以处理的主题和可以提供的回答设定控制,确保其使用符合公司政策和数据访问限制。 在各种服务中的广泛应用:亚马逊Q扩展其能力到各种AWS服务和应用程序,包括Amazon QuickSight、Amazon Connect和AWS供应链。这种整合使得能够更高效地执行各种领域特定任务。 亚马逊Q代表了生成式AI在工作场所应用的重大进展,提供了一个多功能、安全、定制化的助手,可以增加各种业务功能的生产力和创新能力。 本文来源:亚马逊推出Q:一款可以专门为企业定制的生成式AI聊天机器人 – MarkTechPost

Leave a Comment

这篇AI论文介绍了子句编码器:一种对文本进行细粒度语义表示的对比学习上下文嵌入AI模型

来自宾夕法尼亚大学、华盛顿大学和腾讯AI实验室的研究人员提出了一种子句编码器,这是一种对比学习的上下文嵌入模型,它为文本序列中的原子命题生成不同的嵌入。与传统的句子嵌入不同,它通过学习不同含义单元的上下文嵌入,专注于细粒度的语义表示。该模型在检索支持事实和识别条件语义相似性等任务中具有很好的效果。子句编码器与句子编码器具有相似的推理成本和空间复杂度,展示了其实用性。 子句编码器通过为文本序列中的原子命题生成不同的嵌入,专注于细粒度的语义表示。应用包括检索支持事实和识别条件语义相似性。精细级别的有效编码有望影响文本评估、归属和事实估计。受到文本归属需求的影响,子句编码器设计具有潜在的跨文档信息链接应用。 该研究挑战了将整个文本序列编码为定长向量的常见做法,引入了子句编码器。子句编码器架构在跨文档信息链接方面具有潜在应用,为具有不同信息粒度的任务提供了灵活性。该研究旨在评估子句编码器在检索支持事实和识别条件语义相似性等任务中的实用性。 该模型为文本序列中的不同原子命题生成不同的上下文嵌入。使用二进制标记掩码作为输入,基于Transformer架构将子句编码器应用于检索支持事实和识别条件语义相似性。尽管研究承认英文文本的实验局限性,但提出了更广泛的语言适用性潜力,并引入了创建子句编码器训练数据的自动过程。 子句编码器在识别相同上下文中命题之间的微妙语义差异方面优于句子编码器,提高了精确性和召回率。子句编码器在原子事实检索方面表现与文档级和句子级模型相当,展示了增强的记忆能力。研究强调了子句编码器在不同粒度的多向量检索中的潜力,表明其在各种检索任务中的灵活性。 该架构在跨文档信息链接和具有不同粒度的各种任务方面具有潜力。原子事实检索评估显示了子句编码器在检索支持命题方面的实用性。子句编码器提高了多向量检索的召回率,突出了其在各种检索任务中的潜在优势。该研究强调了子句编码器在文本归属中解决粒度挑战的重要性。 研究表明,所展示的发现可能为进一步的长篇文本评估、归属和事实估计研究铺平道路。研究承认在英文文本方面实验规模有限,提出了对多语种子句编码器的未来研究,并指出了对其他语言的潜在扩展。研究强调了对持续探索的需求,希望该工作将激发子句编码器应用的进展,进一步推动该领域的研究。

Leave a Comment

谷歌 DeepMind 和 YouTube 研究人员宣布了 Lyria:一种先进的 AI 音乐生成模型

在最近的一项公告中,Google的DeepMind与YouTube合作,推出了一款名为Lyria的音乐生成模型,该模型将改变艺术表达的景观。这项创新技术配备了两个实验性工具集,Dream Track和Music AI,标志着人工智能辅助音乐创作迈出了重要的一步,承诺重新定义音乐家和创作者与他们的创作互动。 Lyria的发布紧随Google先前在基于人工智能的音乐创作方面的尝试,其通过单词提示生成曲调的方式进入这一领域。现在,重点转向了DeepMind的Lyria模型,旨在与YouTube合作,使创作者能够发挥其潜力。Dream Track是一种开创性的工具,赋予创作者们创造以人工智能生成的音乐为基础的YouTube Shorts背景音乐的能力,使他们能够沉浸在备受赞誉的艺术家独特的音乐风格中。 然而,在人工智能在音乐创作中的角色引发的兴奋中,出现了关于人工智能生成作品的真实性和可持续性的担忧。在音频片段之间保持音乐连贯性的复杂性对人工智能模型构成了挑战。DeepMind承认了这种复杂性,并强调在延长的时间内保持预期音乐效果的困难,从而导致时间上的超现实失真。 DeepMind和YouTube最初集中在更短的音乐作品上以缓解这些挑战。Dream Track的首个发布面向一小群创作者,为其提供了机会以反映所选择艺术家的音乐本质来创作精心策划的30秒人工智能生成背景音乐。值得注意的是,艺术家们积极参与测试这些模型,以确保其真实性并提供宝贵的见解。 团队强调了这些努力的合作性质。他们强调了一个名为Music AI孵化器的集体,其中包括艺术家、词曲作者和制作人积极为改进人工智能工具做出贡献。他们的参与意味着探索人工智能的边界并提升创作过程的动力。 虽然Dream Track的发布范围有限,但Music AI工具的更广泛应用将在今年晚些时候推出。DeepMind令人兴奋地暗示了这些工具的功能,其中包括基于指定乐器或哼唱来创作音乐,从简单的MIDI键盘输入组合创作乐团,以及创作与现有人声线伴奏的器乐曲目。 Google进军人工智能生成音乐的探索并非孤立的。Meta的开源AI音乐生成器以及Stability AI和Riffusion等初创公司的其他创举,突显了音乐行业加速向 embrace AI 驱动的创新迈进的趋势。在这些进展下,这个行业正处于转型之中。 随着人工智能与创造力交叉,令人关注的问题是:人工智能创作是否将成为音乐的新常态?尽管存在不确定性,DeepMind和YouTube之间的合作表明了一种共同努力,旨在确保人工智能生成的音乐在保持可信度的同时与人类创造力相辅相成。 在技术和艺术交汇的领域,DeepMind和YouTube在人工智能音乐生成方面的努力预示着一个充满希望的未来,一个创新和艺术表达协调一致地重新定义音乐创作本质的未来。 本文来自谷歌DeepMind和YouTube研究人员宣布Lyria:先进的人工智能音乐生成模型,首发于MarkTechPost。

Leave a Comment

遇见谷歌的Open Se Cura项目:一个开源框架,加速开发安全、可扩展、透明和高效的人工智能系统

随着人工智能的发展,它已经被应用于生活的各个方面。其应用正在各个领域中显现。人工智能的应用已经扩展到医疗保健、教育、交通、制造业、零售业、金融等各个领域。 然而,随着人工智能(AI)越来越多地融入我们的日常生活,建立强大和有效的计算系统对于可靠和安全的人工智能体验是必要的。但是问题是:硬件突破必须跟上机器学习(ML)模型和软件开发的进展。这种不平衡使得构建完整和安全的全栈系统变得困难。此外,尽管电池技术在发展,但小型设备市场正在超过这些发展,这限制了人工智能系统的潜在强度和使用。 因此,谷歌推出了开源框架Project Open Se Cura,旨在加速安全、可扩展、透明和高效的人工智能系统的开发。这个项目在谷歌内部以Project Sparrow的名字存在。Project Open Se Cura凸显了谷歌对开源开发的承诺。该倡议涉及创建开源设计工具和知识产权(IP)库,以加速全栈系统处理机器学习工作负载的增长。协作共同设计和开发流程旨在增强系统设计,侧重于安全、效率和可扩展性,并助力下一代人工智能体验。 这个项目与VeriSilicon、Antmicro和lowRISC等重要合作伙伴密切合作开发。研究人员强调每个合作伙伴都提供了对开发过程至关重要的知识和资源。例如,lowRISC为项目提供了清晰的信任根、开发和集成工具,确保了安全的基础。Antmicro在开源系统级软件和使用Renode的系统仿真工具方面提供了专业知识。VeriSilicon在商业化、BSP(板支持包)开发、IP设计和硅设计方面提供了专业知识。这些工具使得通过在IP库中添加安全的机器学习功能,能够开发出低功耗的人工智能系统概念验证。 研究人员表示,他们期待进一步开放地增强和发展Open Se Cura。他们正在积极寻求与剑桥大学(用于CHERI创新)和密歇根大学(用于低功耗和生成型人工智能)等机构的合作伙伴关系。 谷歌对通过这些新工具探索可能性感到兴奋,并鼓励广大开源社区加入并做出贡献。这个协作努力旨在推动创新,创建安全、可扩展和高效的新型人工智能体验。研究人员预计与开源社区的合作引领人工智能进步的新时代。 本文翻译自:Meet Google’s Project Open Se Cura: An Open-Source Framework to…

Leave a Comment

Shutterstock 推出TRUST:道德人工智能和客户保护的指导框架

“`html 在快节奏的创意资源行业中,先进系统能够自动创建图像和媒体,开启了令人兴奋的可能性,并引发了版权、表达和虚假信息等问题。在这个行业中的重要参与者之一,Shutterstock通过引入TRUST框架来解决这些问题。 在TRUST框架推出之前,创意资源行业面临使用无版权数据训练AI系统所带来的潜在问题。这引发了版权侵权和对为开发这些强大算法做出贡献的创作者是否得到公平补偿等问题。针对这些挑战,Shutterstock推出了TRUST框架,该框架明确了公司将遵循的五项关键道德AI原则。 为了解决无版权数据的问题,TRUST框架的“训练”原则确保只使用正确许可的数据来训练AI系统。这有助于避免版权相关问题,为负责任的AI开发奠定了基础。此外,“版税”原则强调对创作者的公平补偿,Shutterstock承诺通过版税基金向创作者支付使用其作品在训练AI模型中的费用。 表达和多样性是任何AI系统的重要方面。“提升”原则在TRUST框架中促进AI系统的多样性和包容性。这确保生成的内容反映了广泛的观点,并避免在训练数据中加强偏见。 保护客户和控制AI内容风险是TRUST框架所解决的另两个优先事项。“保障”原则旨在通过采取措施防止问题AI内容,保护客户的利益。其中包括对系统输出进行人工审查,以识别和解决潜在问题。 开放性在建立对AI生成内容的信任方面起着重要作用。TRUST框架中的“透明度”原则要求清晰标注AI生成作品,并支持溯源跟踪。这确保用户在遇到由AI创建的内容时得到告知,促进对这些技术使用的透明度。 为了展示其对负责任的AI采用的承诺,Shutterstock还推出了其他措施,包括对版权、商标和其他与AI生成内容相关的潜在风险提供的赔偿。此赔偿为向审核提交其AI生成图像的客户提供了法律保护,确保他们获得与传统授权库照片相同的支持和保障。 总之,Shutterstock的TRUST框架是解决创造性AI技术在创意资源行业中带来的道德挑战的重要进展。通过实施优先考虑负责任训练、公平补偿、多样性、客户保护和透明度的原则,Shutterstock致力于引领该领域中道德AI发展的道路。随着行业的发展,TRUST框架为希望采用道德AI实践的其他公司提供了一个模型。它确保AI技术的承诺能以负责任的方式造福创作者和客户。 文章来源:Shutterstock Introduces TRUST: A Guiding Framework for Ethical AI and Customer Protection(来源:MarkTechPost)。 “`

Leave a Comment

麻省理工学院和NVIDIA的研究人员开发出了两种互补技术,可以显著提高对机器学习任务的速度和性能

来自MIT和NVIDIA的研究人员提出了两种加速稀疏张量处理的技术(张量是机器学习模型中的基本数据结构,是组织和存储数据的多维数组)。这两种新技术的目标都是有效利用张量中的零值。可以对这些张量进行处理而不处理零值,从而节省内存和计算资源。例如,任何与零相乘的操作都会得到零,因此可以跳过该操作。此外,它还可以压缩张量,因为不需要保留零值,这样可以在芯片内存中存储更多数据。 当通过将一些值替换为零来删除不必要的元素时,张量中的稀疏性就会出现,这个过程称为修剪。非零值的位置和稀疏度的程度在不同的模型中可能不同。为了方便在大型模型中定位非零值,研究人员经常限制非零值的位置。硬件加速器的适应性受到限制,因为它们通常针对特定的稀疏模式设计。 研究团队开发了一种名为HighLight的硬件加速器,它能够高效处理各种稀疏模式。研究人员利用分层结构的稀疏性来有效表示由简单模式组成的不同类型的稀疏模式。在这种方法中,将一组数分解为较小的组,每个组都遵循一个简单的模式。然后将这些较小的组合并成较大的组,形成一个层次结构。每个组合集也遵循一个简单的模式(例如,在具有四个组的一级中,一个组有零值,而其他三个组没有)。这个过程在较大的层次中继续进行,但在每个步骤中模式都保持简单。 这种简单性使得HighLight能够更高效地查找和跳过零值,从而充分利用切除多余计算的机会。与其他方法相比,他们的加速器设计的能耗时延乘积(与能源效率相关的度量)提高了大约6倍。 研究人员还可以利用稀疏性更高效地移动和处理计算机芯片上的数据。由于张量通常比芯片上的内存缓冲区能够存储的要大,芯片每次只能抓取和处理张量的一个块,这些块称为tiles。为了最大化缓冲区的容量并最小化芯片访问外部内存的频率。 为了最大化缓冲区的容量并减少芯片需要访问外部内存的次数(这可能会耗费大量能源并使处理速度变慢),研究人员旨在使用适合缓冲区的最大可能tile尺寸。 由于许多数据值是零,相较于其原始容量可能暗示的,较大的tile可以适应缓冲区,因为不需要存储零值。然而,零值的数量在数据的不同部分可能不同,因此对于每个tile也可能不同。 为了处理这个问题,研究小组建议使用过高预订(overbooking)技术来允许tile尺寸的增加。在稀疏数据集中,可以选择一个tile尺寸,使得大部分tile具有足够的零值以适应缓冲区。偶尔,某个tile的非零值可能超过缓冲区的容量。在这种情况下,这些多余的数据将被推出缓冲区。 研究小组使硬件能够只检索被移出缓冲区的数据,而不需要重新获取和处理整个tile。他们通过修改缓冲区的“尾端”来实现这一点,因此这种技术被称为Tailors。 此外,他们还开发了一种名为Swiftiles的方法,可以高效确定tile尺寸,并充分利用过高预订的优势。Swiftiles减少了硬件必须检查张量以寻找最佳tile尺寸的频率,从而节省了计算资源。 Tailors和Swiftiles的结合提供了性能提升,将速度提高了一倍,同时仅需现有不能处理过高预订的硬件加速器的一半能耗。 根据研究人员的说法,Swiftiles可以在不需要多次迭代来优化估计值的情况下估计出最佳的tile尺寸。这个过程可以实现是因为它支持过高预订。即使存在较大的估计误差,也可以因为非零值的特定分布而实现显著的加速。

Leave a Comment

未来无忧:在AI的企业进军中培养下一代实习生

在我在新加坡充满活力的亚太ESSEC管理硕士的授课过程中,我们深入讨论了AI和可持续性的交叉点。在这个论坛上,我们揭示了将技术解密以真正了解AI能力的必要性-只是这些,没有其他。 考虑一下哈佛商学院的Karim Lakhani的见解:“人类般的回应是一种统计幻觉。”拉卡尼揭开了外表,揭示了表面上的有知觉互动实际上只是“一种统计或计算幻觉”,一种通过消化我们的人文文本和视频而产生的模仿[1]。这与我的长期观点相吻合:当AI与技巧结合时,它不是取代角色,而是人类能力的有力盟友[2]。 然而,我们必须小心谨慎。让我们未经检查地承诺提升的进步可能对未来一代的蓬勃发展产生重大影响。我们现在要做的不是回避这些潜力巨大的工具,而是要智能地与它们接触,确保我们将AI的舵向人类潜力的提升,而不是削弱它。 随着数字时代的加速发展,AI在业务中的日益重要的角色揭示出对实习生和初级培训的彻底重新设想的迫切需求。大型语言模型(LLMs)的出现给我们敲响了警钟-让我们不要让我们的实习生过时了。想想这个:这些LLMs,虚拟世界中的年轻实习生,已经接管了曾经是新手的人类任务。它们起草备忘录,打扮演示文稿,丝毫不休息,又只消耗计算资源的“代币费用”。它们在效率上令人眼花缭乱,但必须明确一点:它们无法取代人类智慧-逻辑、推理和创造力,只有人类才能提供。 在企业增长的繁忙生态系统中,培养新手就像在一片高耸的橡树森林中培育娇嫩的树苗一样重要。实习生的角色是至关重要的。他们是海绵,吸收的不仅仅是技术知识,还有企业文化微妙的舞蹈。正是在这些早期职业生涯中,他们的专业之旅的基础被奠定,塑造了他们的成长轨迹。 然而,这种不可或缺的入门面临来自AI的威胁,它可以轻松自动化曾经为初学者所保留的差事甚至分析工作。如果能模仿简・奥斯汀(Jane Austen)小说主人公般自如地进行人机对话的LLMs能够承担曾经是实习生证明自己的地方,我们该怎么办?谷歌及其同类已经开创了试图弥合差距的培训计划,但真正的转变在于将最初的职业年改造为一个实战练习班——一个“执行教室”,在这里,学习是通过实践来完成,实践带来学习。 这里的关键是:技术作为工作崩溃的先兆的叙述并不完全准确。担心AI将取代人类角色的恐惧就像认为LLMs拥有无尽的智慧一样。虽然它们确实可以生成与人类闲聊惊人相似的回答,但事实是它们擅长将词语拼凑在一起,仅此而已。它们不是硅谷的圣贤,它们是算法幻术师,能够让数据跳舞,但仍然无法达到人类智慧的水平。 这使我们陷入了期望的两难境地。我们把在机器上施加了阿西莫夫第一条机器人定律的高标准-不造成伤害-同时却原谅了LLMs的错误,对它们的对话技巧感到迷醉。我们嘲笑了自主车辆的少有的失误,但对于聊天机器人的有缺陷的诗句则会哈哈大笑。 那么,行动的号召是什么?在将AI融入我们的业务中时,我们必须重新审视实习生的手册。我们必须注入人性化的培训,培养耐心,并提供一系列的经验,任何算法都无法复制。我们的目标是给我们的实习生武装技能,使他们能够与AI一起取得成功,确保随着公司阶梯的变革,它仍然是通往启示的攀登,而不是陷入无关紧要的滑坡。 总的来说,在我的讲座中,我揭穿了关于人工智能的神话,明确表示LLMs虽然复杂,但并不完美,人工智能是一种增强工具,而不是替代品。我强调一个更深层次的信息。我们必须发展我们的企业教育,不是对技术的一种反射动作,而是将其战略性地融入其中,确保我们的年轻人成为未来企业的有韧性的建筑师,而不是它的牺牲品。机器人可以负责拿咖啡,但是董事会的席位呢?让我们留给那些学会与机器共舞的人类。 参考资料 [1] Lakhani, Karim. “AI Won’t Replace Humans — But Humans With AI…

Leave a Comment

“Phind的新人工智能模型在编码方面表现优于GPT-4,在速度上类似于GPT-3.5,并具备16k的上下文”

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-08-at-8.11.55-PM-1024×520.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-08-at-8.11.55-PM-150×150.png”/><p>在编码和技术问题解决中,速度和准确性之间的权衡一直是一个挑战,当寻找复杂问题的答案时,开发人员经常需要快速可靠的帮助。</p><p>GPT-4经常面临较慢的响应时间问题。获得答案的延迟可能会影响生产力。</p><p>Phind的v7模型超过了GPT-4的编码能力,而且速度非常快。Phind模型的响应时间提高了5倍,只需10秒钟即可提供高质量的技术问题答案,相比其前身需要50秒的等待时间,有了显著的改进。</p><p>Phind模型现在已经进入第7代,该模型是基于CodeLlama-34B优化而建立的,是第一个在HumanEval得分中超过GPT-4的模型。这个新模型经过了700亿个高质量代码和推理问题的令人印象深刻的优化。虽然它获得了显著的HumanEval分数达到了74.7%,但值得注意的是,真实世界中的有用性往往超越这些指标。通过全面的反馈收集和用户体验,Phind模型已经证明了在实际编码场景中,能够始终达到或超过GPT-4的效用。</p><p>Phind模型的一大亮点是其速度。通过利用NVIDIA的H100s和TensorRT-LLM库的强大功能,它可以在单个流中每秒处理100个标记,为需要帮助的用户提供快速的协助。</p><p>此外,Phind模型在响应中提供了广泛的上下文支持,支持高达16,000个标记。目前,该模型允许在网站上输入最多12,000个标记,其余4,000个用于基于网络的结果。</p><p>尽管Phind模型提供了实质性的好处,在某些方面仍需要改进。一个值得注意的挑战是一致性,特别是处理复杂问题时。在这些情况下,Phind模型可能需要更多的迭代才能得出正确答案,而GPT-4则不同。</p><p>总之,Phind模型是解决高效可靠编码辅助的持续问题的一种有希望的解决方案。它集合了卓越的编码能力,显著的速度和广泛的上下文支持,为用户提供了真实世界的帮助。随着这个模型的不断发展和解决剩余的挑战,它有潜力在回答技术问题的方式上实现革命性的改变,为开发人员和技术爱好者提供更高效和生产力的编码体验。</p><p>本文发表在<a href=”https://www.xiaozhuai.com/chinese-ai-researchers-have-proposed-4k4d-a-4d-point-cloud-representation-that-enables-hardware.html”>xiaozhuai.com</a>上,原文标题《Phind的新AI模型在编码方面超越了GPT-4,速度和16k上下文类似于GPT-3.5》。</p><p>本文首发于<a href=”/?s=MarkTechPost”>MarkTechPost</a>。</p>

Leave a Comment

Middleware.io引入生成式AI驱动的云可观察性平台

云原生应用领域出现了一个紧迫的挑战——即需要观测性。随着云计算的快速崛起和微服务的大量使用,现代应用变得复杂起来,分布在全球各地的服务器上,并每天处理大量数据。这种复杂性增加了企业应对观测性在实现核心目标上的关键重要性。即使短暂中断,也会导致收入损失并损害公司的声誉。这是许多组织今天面临的困境。 虽然对观测性的需求是清楚的,但现有解决方案往往必须及时提供对云原生应用程序复杂性的洞察。这种差距使得组织在寻求更高效的故障排除和主动问题管理时陷入困境。快节奏的数字领域要求迅速行动,因此实时识别和解决问题至关重要。 中间件介绍了一种有希望的解决方案来解决这个观测性难题,这是一款颠覆性的云原生观测性平台,利用先进的人工智能技术。该平台利用基于AI驱动的异常检测和解决方案,其中关键工具是AI顾问。该顾问指出基础设施和应用程序问题,并提供有效的解决方案来解决问题。该平台的独特之处在于它的预测能力,可以根据数据趋势预测即将发生的错误。这种主动的问题管理方法对于寻求降低不断演变的数字领域风险的组织来说是一个改变者。 这个创新平台最令人信服的方面之一是它强大的实时监控功能。通过用户友好的仪表板,组织可直观地访问关键指标、日志、追踪和事件,从而极大地增强了对技术栈的可见性。该平台的AI驱动功能将问题分类为三类——关键问题、VoAGI和低问题,使组织能够有效地优先处理并解决它们。AI顾问提供有关问题的详细信息,包括受影响的资源和详细解决方案,使用户能够快速修复。 这项革命性的解决方案来临之际,对观测性的需求达到了历史最高水平,有86%的组织认识到它是实现核心业务目标的重要推动因素。AI的引入,尤其是GPT-4,有可能彻底改变组织管理和故障排除云原生应用程序的方式。通过最近获得的650万美元种子资金注入,该平台正处于扩张、团队增长和进一步AI功能开发的阶段,为云原生时代的观测性带来了光明的前景。 总之,云原生应用程序带来的复杂性以及数字时代需要快速故障排除的需求催生了新的创新解决方案。这个借助先进AI技术赋能的观测性平台是组织在有效应对云原生应用程序挑战时的希望之光。其实时监控、预测能力和用户友好的仪表板使其成为一个引人注目的选择,在每一秒都至关重要的世界中。观测性的未来似乎比以往任何时候都更加积极和有希望。 这篇文章《Middleware.io推出基于生成式AI技术的云原生可观测性平台》最初出现在MarkTechPost上。

Leave a Comment

解锁神经网络中的系统组合性:基于元学习的组合性突破(MLC)方法

人工智能和机器学习的领域越来越普遍。这些领域中的一个主要问题是机器是否能够复制人类认知和语言的复杂性。问题仍然存在,即机器是否真正有能力复制人类语言和认知的系统性组成特征。 系统性学习是人们获得新思想并有条理地将其与既有思想相结合的能力。系统性组成性是人类语言和智力的一项杰出能力。这个想法类似于解代数方程,因为它需要生成和理解熟知元素的新组合的能力。 尽管在这一领域取得了实质性进展,神经网络在系统性方面的问题尚未得到解决。这带来了Fodor和Pylyshyn提出的一个著名主张,即人工神经网络作为人类思维模型是不充分的,因为它们无法具备这种能力。作为对此的回应,一个研究团队最近展示了神经网络如何通过使用一种名为元学习组成性(MLC)的新技术来实现类似人类的系统性。 使用这种方法,研究团队训练了一系列动态编排问题的神经网络。该研究采用了指令学习范式来进行行为学研究,以比较人类和机器的表现。MLC在系统性组成性方面使人类和机器之间的差距缩小。该方法通过高级指导和人类示例指导神经网络的学习过程,而不是依赖人工构建的内部表示或归纳偏见。它能够帮助网络获得适当的学习能力。 研究团队表示,他们进行了一些人类行为实验来评估这种方法。他们使用指令学习范式评估了七种不同的模型,以了解哪种模型可以最好地平衡类似人类的泛化的两个关键组成部分:灵活性和系统性。结果非常令人印象深刻,因为MLC是唯一一个能够模仿系统性和灵活性的受试模型,这对于复制类似人类的泛化是必要的。它既不依赖过于灵活但非系统性的神经网络,也不强加不灵活但完全系统性而刻板的概率符号模型。 MLC技术之所以令人印象深刻,是因为它不需要复杂或专门的神经网络拓扑结构。相反,它优化了普通神经网络的组合技能。在这次面对面的比较中,基于MLC的网络在系统性泛化方面与人类的表现非常相符。 总之,MLC为人们证明机器可以在语言和推理方面实现类似人类的系统性打开了大量的用途。它展示了机器学习系统如何模拟人类认知的系统性,可能提高人类在一系列认知活动中的能力,如问题解决、创造性思维和自然语言处理。这一突破无疑有能力将人工智能领域带入新的革命,使人类能够更接近那些不仅可以模仿,而且真正理解和复制人类思维系统性特征的机器。

Leave a Comment

14% 转化率增长故事:揭开 JOE & THE JUICE 与 Pixis AI 的动态合作

2002年,JOE & THE JUICE作为丹麦的城市绿洲崭露头角,以其有机、本地原料的果汁和咖啡吸引了关注健康的消费者。迅速扩张到250个欧洲地点,JOE & THE JUICE现在正在以通用大西洋和瓦雷多合作伙伴等大型投资者的支持下在美国和中东留下自己的印记。 随着JOE & THE JUICE的人气飙升和客户群体的扩大,明确需要一个强大而用户友好的技术解决方案来简化营销工作变得显而易见。他们的使命是:赋予团队有效地定位受众,监控跨地理区域的营销活动,并提高广告支出的回报。 JOE & THE JUICE的数字营销主管Miguel Martin指出:“优化各个地区的表现一直是一个持续的挑战。我们寻求一种能够处理大量的广告活动数据并降低每次安装成本(CPI)的系统或技术。这就是我们发现Pixis的原因。” 释放Pixis人工智能基础设施的潜力 JOE & THE JUICE将无代码人工智能解决方案Pixis整合到他们的多地点广告活动中。该品牌利用Pixis的定位人工智能引擎迅速分析品牌的营销渠道上的成千上万个数据点,以确定表现出色的受众和最佳定位参数。通过部署自然语言处理模型(NLP),人工智能根据行为、喜好和参与模式等各种标准创建用户群集。这些基于人工智能的群集使JOE & THE JUICE能够自动发现行为洞察力,便捷地精确定位高意愿的受众,从而将转化率推至新的高度。 Joe…

Leave a Comment

谷歌DeepMind提出了一个社会和伦理人工智能风险评估的人工智能框架

生成式人工智能系统在不同领域中越来越普遍,它们可以创建各种格式的内容。这些系统被应用于医学、新闻、政治和社交互动等多个领域,提供伴侣式的体验。通过使用自然语言输出,这些系统能够生成单一格式的信息,如文本或图形。为了使生成式人工智能系统更具适应性,目前有一个趋势是改进它们以支持额外的格式,如音频(包括语音和音乐)和视频。 生成式人工智能系统的广泛使用凸显了评估其部署所涉及潜在风险的重要性。随着这些技术变得越来越普遍并集成到各种应用中,人们对公共安全的担忧也日益增加。因此,评估生成式人工智能系统可能存在的潜在风险正在成为人工智能开发人员、决策者、监管机构和公民社会的优先事项。 这些系统的不断增长的使用凸显了评估实施生成式人工智能系统所涉及潜在危险的必要性。因此,评估生成式人工智能系统可能带来的潜在威胁对于人工智能开发人员、监管机构和公民社会而言变得越来越重要。具有可能传播虚假信息的人工智能的发展引发了关于这种技术会如何影响社会的道德问题。 因此,谷歌DeepMind的研究人员最近进行了一项研究,提供了一种全面评估人工智能系统在多个背景层面上的社会和道德风险的方法。DeepMind的框架系统地评估三个不同层次上的风险:系统的能力,人与技术的互动,以及它可能产生的更广泛的系统性影响。 研究人员强调,重要的是要认识到,即使是高度能力的系统,如果在特定背景下使用有问题,可能只会造成伤害。此外,该框架还考虑了人与人工智能系统的真实世界互动。这包括考虑诸如谁使用技术以及它是否按预期运行等因素。 最后,该框架检查了当广泛采用人工智能时可能出现的风险。这种评估考虑到技术对较大的社会系统和机构的影响。研究人员强调了确定人工智能的风险程度时上下文的重要性。该框架的每个层面都充满了上下文关注,强调了了解谁将使用人工智能以及为什么这一点的重要性。例如,即使一个人工智能系统能够产生事实准确的输出,用户对这些输出的解读和随后的传播可能在特定的上下文限制下产生意想不到的后果。 研究人员提供了一个以错误信息为重点的案例研究,以展示这种策略。评估包括评估人工智能系统的事实错误倾向,观察用户与系统的互动,并测量任何随后的后果,如错误信息的传播。模型行为与特定上下文中实际伤害的相互作用将产生可行的见解。 DeepMind的基于上下文的方法强调了超越孤立模型指标的重要性。它强调了在复杂的社会环境中评估人工智能系统如何运作的迫切需求。这种全面的评估对于发挥人工智能的好处并将相关风险降至最低至关重要。

Leave a Comment