Press "Enter" to skip to content

四海吧 Posts

NVIDIA Studio系列增加了搭载RTX显卡的Microsoft Surface Laptop Studio 2

编辑注:本文是我们每周的NVIDIA Studio系列文章的一部分,该系列文章致力于展示特色艺术家、提供创意技巧,并展示NVIDIA Studio技术如何改进创意工作流程。 NVIDIA Studio笔记本电脑系列迎来了新的微软Surface Laptop Studio 2,搭载GeForce RTX 4060、GeForce RTX 4050或NVIDIA RTX 2000 Ada Generation笔记本GPU,为创作者提供强大的性能和多功能性。 微软Surface Laptop Studio 2。 由NVIDIA Studio平台支持,今天宣布的Surface Laptop Studio 2提供了预装的Studio驱动程序,以及加速专业和创意工作流程的独家工具,确保最大的稳定性。…

Leave a Comment

Python中的质数程序

几十年来,数学家们一直被质数所吸引 – 那些只能被1和自身整除的神秘整数。除了它们的理论重要性,质数对于当代技术、密码学和算法优化至关重要。在本文中,我们探讨了Python中质数程序的基本思想,它们的识别,开发有效的质数检查例程,提高质数生成能力,并深入实际应用。 确定质数 大于1的质数具有仅有两个不同约数的特殊特征:自身和1。 您必须确保一个数除了这两个正整数之外不能被任何其他正整数整除,以确定它是否是质数。在这个关键过程中,大于2的偶数不被视为质数,并且可除性规则简化了识别过程。 还阅读:Python在现实世界中的十大应用示例 检查质数的基本原理 质数的基本概念 – 一个大于1的正整数,恰好有两个不同的正约数1和自身,为检查质数的基本方法奠定了基础。 必须考虑一个数的可除性来确定它是否是质数。这意味着确定一个数除了1和自身之外的任何正整数之外,是否可以等量地被其他正整数整除。 质数的可除性规则 以下表总结了鉴别质数和合数的关键标准和方法: 标准 描述 示例 可被2或3整除 检查数字是否可被2或3整除。如果是,则不是质数。 6(可被2和3整除) 以5或0结尾的数字 任何以5或0结尾的数字(除了5本身)都不是质数。这些数字可被5整除。 25不是质数,因为它可以被5整除(25 ÷ 5…

Leave a Comment

将LLaMa放入您的口袋的诀窍:结识OmniQuant,一种将LLM的效率和性能完美结合的人工智能方法

大型语言模型(LLMs),如臭名昭著的ChatGPT,在各种自然语言处理任务中取得了令人印象深刻的表现,如机器翻译、文本摘要和问答。它们改变了我们与计算机的交流方式和任务处理方式。 LLMs已经成为具有变革性的实体,推动了自然语言理解和生成的界限。其中,ChatGPT是一个显著的例子,代表了一类设计用于在对话环境中与用户进行交互的LLM。这些模型是在极大的文本数据集上进行了广泛训练的结果。这使它们具备了理解和生成类似人类文本的能力。 然而,这些模型在计算和内存方面非常消耗资源,限制了它们的实际应用。顾名思义,这些模型是庞大的;当我们说庞大时,我们是指真的很大。最近的开源LLM,来自Meta的LLaMa2,包含大约700亿个参数。 减少这些要求是使它们更实用的重要一步。量化是减少LLMs计算和内存开销的一种有希望的技术。有两种主要的量化方式——训练后量化(PTQ)和量化感知训练(QAT)。虽然QAT在准确性方面具有竞争力,但在计算和时间方面代价太高。因此,对于许多量化工作来说,PTQ已经成为首选方法。 现有的PTQ技术,如仅权重和权重-激活量化,已经在内存消耗和计算开销方面取得了显著的降低。然而,它们在低位量化方面往往存在困难,而这对于高效部署至关重要。低位量化中的性能下降主要是由于依赖手工量化参数,导致结果不够优化。 让我们见识一下OmniQuant。它是一种用于LLMs的新型量化技术,在各种量化场景中实现了最先进的性能,特别是在低位设置中,同时保留了PTQ的时间和数据效率。 OmniQuant在LLaMa系列上的特性。来源:https://arxiv.org/pdf/2308.13137.pdf OmniQuant采用了一种独特的方法,冻结原始的全精度权重,并结合一组有限的可学习量化参数。与繁琐的权重优化相比,OmniQuant侧重于逐层量化过程中的每个单独层。这使得可以使用简单的算法进行高效的优化。 OmniQuant由两个关键组件组成——可学习权重剪裁(LWC)和可学习等效变换(LET)。LWC优化剪裁阈值,调节极端权重值,而LET通过学习变换来处理激活的离群值。这些组件使得全精度的权重和激活更适合量化。 OmniQuant的灵活性体现在其适用于仅权重和权重-激活量化的多样性。最好的部分是,OmniQuant对于量化模型没有额外的计算负担或参数,因为量化参数可以融合到量化权重中。 OmniQuant概览。来源:https://arxiv.org/pdf/2308.13137.pdf 与LLM中的所有参数进行联合优化不同,OmniQuant在移动到下一层之前依次量化一层的参数。这使得OmniQuant能够使用简单的随机梯度下降(SGD)算法高效地进行优化。 它是一个实用的模型,因为即使在单个GPU上也很容易实现。您可以在16小时内训练自己的LLM,这使得它们在各种实际应用中非常易于使用。此外,OmniQuant在性能上优于先前的基于PTQ的方法。 然而,尽管它是一种相对较新的方法,但它的性能还是有一些限制的。例如,它有时可能会产生比全精度模型稍差的结果。然而,这只是OmniQuant的一个小不便,因为它仍然是一种用于高效部署LLM的有前途的技术。

Leave a Comment

农业中的视觉变压器 | 收获创新

介绍 农业一直是人类文明的基石,为全球数十亿人提供食物和生计。随着科技的进步,我们发现了增强农业实践的新颖方法。其中一项进展是使用视觉转换器(ViTs)来对作物的叶病进行分类。在本博客中,我们将探讨视觉转换器在农业中的革命性,通过提供一种高效准确的解决方案来识别和缓解作物病害。 木薯,又称木薯或椰菜,是一种多用途的作物,可用于提供日常主食和工业应用。它的耐寒能力和抗逆性使其成为在环境条件艰苦的地区必不可少的作物。然而,木薯植株容易受到各种病害的侵袭,其中CMD和CBSD是最具破坏性的病害之一。 CMD是由白蝗传播的病毒复合体引起的,导致木薯叶片出现严重的驳斑症状。而CBSD则是由两种相关病毒引起的,主要影响储存根,使其无法食用。及早识别这些病害对于防止作物大面积损害和确保粮食安全至关重要。视觉转换器是转换器架构的进化版本,最初设计用于自然语言处理(NLP),在处理视觉数据方面表现出高度有效性。这些模型将图像作为补丁的序列进行处理,使用自注意机制来捕捉数据中的复杂模式和关系。在木薯叶病分类的背景下,ViTs通过分析感染木薯叶子的图像来训练以识别CMD和CBSD。 学习成果 了解视觉转换器及其在农业中的应用,特别是叶病分类方面。 了解转换器架构的基本概念,包括自注意机制,以及如何将其适应于视觉数据处理。 了解视觉转换器(ViTs)在农业中的创新应用,特别是对木薯叶病早期检测的应用。 深入了解视觉转换器的优势,如可扩展性和全局上下文,以及它们面临的挑战,包括计算要求和数据效率。 本文是作为“数据科学博文马拉松”的一部分发表的。 视觉转换器的崛起 近年来,由于卷积神经网络(CNNs)的发展,计算机视觉取得了巨大的进步。CNNs一直是各种与图像相关的任务的首选架构,从图像分类到目标检测。然而,视觉转换器作为一种强大的替代方案崭露头角,提供了一种新颖的处理视觉信息的方法。Google Research的研究人员在2020年发布了一篇具有开创性的论文,题为“图像价值16×16个单词:大规模图像识别的转换器”。他们将最初设计用于自然语言处理(NLP)的转换器架构应用于计算机视觉领域。这种适应为该领域带来了新的可能性和挑战。 使用ViTs相对于传统方法具有几个优势,包括: 高准确性:ViTs在准确性方面表现出色,可以可靠地检测和区分叶病。 高效性:经过训练后,ViTs可以快速处理图像,适用于实时病害检测。 可扩展性:ViTs可以处理不同大小的数据集,适应不同的农业环境。 泛化能力:ViTs可以泛化到不同的木薯品种和病害类型,减少针对每种情况的特定模型的需求。 转换器架构简介 在深入了解视觉转换器之前,了解转换器架构的核心概念是至关重要的。转换器最初为NLP而设计,革新了语言处理任务。转换器的关键特点是自注意机制和并行化,可以更全面地理解上下文并加快训练速度。 转换器的核心是自注意机制,它使模型在进行预测时可以权衡不同输入元素的重要性。这种机制与多头注意力层结合使用,可以捕捉数据中的复杂关系。 那么,视觉转换器如何将转换器架构应用于计算机视觉领域呢?视觉转换器的基本思想是将图像视为补丁的序列,就像NLP任务将文本视为单词的序列一样。然后,转换器层通过将图像中的每个补丁嵌入向量来处理它。 Vision Transformer的关键组件 图像切片嵌入:将图像分为固定大小的非重叠切片,通常为16×16像素。然后将每个切片线性嵌入到较低维度的向量中。…

Leave a Comment

这篇AI研究介绍了Owl:一种新的用于IT运营的大型语言模型

在自然语言处理(NLP)和人工智能(AI)不断发展的领域中,大型语言模型(LLMs)已经成为强大的工具,在各种NLP任务中展示出了卓越的能力。然而,当前模型中存在一个重要的差距,即缺乏专门为IT运营设计的大型语言模型(LLMs)。由于IT运营领域具有独特的术语、程序和语境复杂性,这个差距带来了挑战。因此,迫切需要创建专门的LLMs,以有效地应对IT运营中的复杂性。 在IT领域内,NLP和LLM技术的重要性日益增长。与信息安全、系统架构和其他IT运营相关的任务需要领域特定的知识和术语。传统的NLP模型往往难以解读IT运营的复杂细微差别,从而需要专门的语言模型。 为了解决这一挑战,一个研究团队推出了一个名为“Owl”的大型语言模型,专门针对IT运营进行了定制。这个专门的LLM是在一个被称为“Owl-Instruct”的精心策划的数据集上进行训练的,该数据集涵盖了广泛的IT相关领域,包括信息安全、系统架构等等。目标是为Owl提供在IT相关任务中取得优异表现所需的领域特定知识。 研究人员采用自我教导策略,在Owl-Instruct数据集上训练了Owl。这种方法可以使模型生成多样的指令,涵盖单轮和多轮场景。为了评估模型的性能,团队引入了“Owl-Bench”基准数据集,其中包括九个不同的IT运营领域。 他们提出了一种“适配器混合”策略,允许针对不同输入的任务特定和领域特定表示,通过促进有监督微调来进一步提高模型的性能。TopK(·)是用来计算所有LoRA适配器的选择概率并选择服从概率分布的前k个LoRA专家的选择函数。适配器混合策略是通过激活前k个专家来学习不同输入句子的语言敏感表示。 尽管Owl缺乏训练数据,但在RandIndex指标和最佳F1得分(0.894)上取得了可比较的性能(0.886)。在RandIndex比较中,与在域内日志上进行了广泛训练的LogStamp相比,Owl仅表现出微小的性能下降。在细粒度F1比较领域中,Owl明显优于其他基线,能够准确识别以前未见的日志中的变量。值得一提的是,logPrompt的基础模型是ChatGPT。与在相同基本设置下的ChatGPT相比,Owl在这个任务中表现出更优异的性能,突显了我们的大型模型在运营和维护方面的强大泛化能力。 总之,Owl代表了IT运营领域的一项突破性进展。它是一个精心训练并在IT相关基准上进行严格评估的专门的大型语言模型。这个专门的LLM革新了IT运营的管理和理解方式。研究人员的工作不仅解决了领域特定LLMs的需求,还为高效的IT数据管理和分析开辟了新的途径,最终推动了IT运营管理领域的发展。

Leave a Comment

“大型语言模型(LLMs)调研”

介绍 技术进步的格局已经被大型语言模型(LLMs)的出现所彻底改变,这是人工智能创新分支的一个创新。这些模型以复杂的机器学习算法和大量的计算能力为驱动,代表了我们理解、生成和操纵人类语言能力的飞跃。LLMs展现出了解释微妙之处、构建连贯叙述甚至进行与人类交流相似的对话的非凡能力。当我们深入探索LLMs时,我们面临的是它们对各个行业、沟通范式和人机交互未来的深远影响。 然而,在这令人敬畏的潜力之中,存在着一个复杂的挑战网络。虽然LLMs在能力上有所承诺,但它们也不免受到偏见、伦理关切和潜在滥用的影响。这些模型从大量数据集中学习的能力引发了有关数据来源和可能存在的隐藏偏见的问题。此外,随着LLMs越来越多地融入我们的日常生活,隐私、安全和透明度问题变得至关重要。此外,围绕LLMs的内容生成和在决策过程中的作用的伦理考虑也需要仔细研究。 在这个探索LLMs领域的旅程中,我们将深入研究它们的功能复杂性、创新潜力、所带来的挑战以及指导其负责任发展的伦理框架。通过以思考的方式导航这些方面,我们可以利用LLMs的潜力,同时解决它们的局限性,最终塑造人类和机器在语言理解和生成方面和谐合作的未来。 学习目标 理解LLM基础知识:建立对大型语言模型(LLMs)的基础理解,包括它们的架构、组件和基本技术。了解LLMs如何处理和生成人类语言。 探索LLM应用:探索LLMs在各个行业中的多样化应用,从自然语言理解和内容生成到语言翻译和专家辅助。了解LLMs如何改变各个行业。 认识伦理考虑:深入研究围绕LLMs的伦理考虑,包括偏见、错误信息和隐私问题。学习如何应对这些挑战,确保LLMs的负责任和伦理使用。 分析LLM的影响:研究LLMs在沟通、教育和行业领域对社会和经济的影响。评估将LLMs整合到生活各个方面可能带来的潜在益处和挑战。 未来趋势和创新:探索LLMs的不断发展的格局,包括在对话能力、个性化体验和跨学科应用方面的预期进展。思考这些发展对技术和社会的影响。 实际应用:通过探索LLMs的实际用例,如内容创作、语言翻译和数据分析,应用你的知识。获得利用LLMs进行各种任务的实际经验。 本文是作为数据科学博客马拉松的一部分发表的。 语言模型的演变 语言模型的轨迹见证了近期显著进展的动态演变。在语言处理领域的这一进化之旅在大型语言模型(LLMs)的出现中达到了顶点,标志着自然语言处理(NLP)能力的一次范式转变。 旅程始于为后续创新铺平道路的基础语言模型。最初,语言模型的范围有限,难以捕捉人类语言的复杂性。随着技术的进步,这些模型的复杂性也在增加。早期的迭代版本采用基本语言规则和统计方法生成文本,尽管在上下文和连贯性方面存在限制。 然而,转换器的出现,一种神经网络架构,标志着一个重大的飞跃。转换器有助于理解整个句子和段落之间的上下文关系。这一突破为大型语言模型奠定了基础。这些模型,如GPT-3,拥有海量的参数,使它们能够处理和生成无与伦比的文本质量。 大型语言模型理解上下文并展现出与人类类似的文本生成能力。它们擅长把握复杂微妙之处,产生连贯、具有上下文相关的语言,可以媲美人类的创作能力。这些模型超越了简单的模仿,以惊人的熟练度从事翻译、摘要和创造性写作等任务。 LLMs的演变标志着语言洞察、机器学习进步和计算资源的重大飞跃的融合。这一轨迹还在继续展开,未来有望实现更为复杂的语言理解和生成能力。 探索大型语言模型 深入了解大型语言模型(LLM)的世界,让我们踏上了一段从一个基本问题开始的旅程:“第一个大型语言模型是什么?” 这个问题是打开LLM在自然语言处理(NLP)中深远影响和变革潜力的门户。 LLM的诞生对NLP是一次革命性的飞跃,它源于首个大型语言模型的出现。这个开创性的模型证明了不断提升语言处理能力的不懈追求。它标志着数据、计算能力和创新的神经网络架构的融合形成了一个巨大的成就。 这个开创性的模型打破了早期模型在捕捉上下文、连贯性和语言细节方面的限制。深度学习技术和大规模数据集的利用相结合,为性能带来了显著的飞跃。这个模型奠定了后续LLM的基础,展示了利用大量数据来增强语言理解和生成能力的潜力。 这个初始大型语言模型的影响在各种NLP应用中回响。它强调了自动化任务的可行性,这些任务曾经需要类似人类的语言能力。包括文本生成、翻译、情感分析和摘要等任务都得到了显著的改进。 大型语言模型的类型…

Leave a Comment

无需编码,训练自己的LLM

介绍 生成式人工智能是一个引人入胜的领域,它承诺改变我们与技术互动和生成内容的方式,并已席卷全球。在本文中,我们将探索大型语言模型(LLMs)的迷人领域,它们的构建模块,封闭源LLMs带来的挑战以及开源模型的出现。我们还将深入探讨H2O的LLM生态系统,包括h2oGPT和LLM DataStudio等工具和框架,使个人能够在没有深入编码技能的情况下训练LLMs。 学习目标: 了解大型语言模型(LLMs)的生成式人工智能的概念和应用。 认识封闭源LLMs的挑战和开源模型的优势。 探索H2O的LLM生态系统,以实现无需深入编码技能的人工智能训练。 LLMs的构建模块:基础模型和微调 在我们深入研究LLMs的细节之前,让我们先了解生成式人工智能的概念。在以预测性人工智能为主,基于历史数据模式进行预测的同时,生成式人工智能则颠覆了这一模式。它赋予了机器从现有数据集中创建新信息的能力。 想象一下,一个机器学习模型不仅能够预测,还能生成文本、概括内容、分类信息等,这一切都来自于一个模型。这就是大型语言模型(LLMs)的作用。 LLMs采用多步骤的过程,首先是一个基础模型。这个模型需要一个庞大的数据集进行训练,通常是以TB或PB为单位的数据。这些基础模型通过预测序列中的下一个单词来学习,目的是理解数据内部的模式。 一旦建立了基础模型,下一步是微调。在此阶段,使用经过精心策划的数据集进行有监督微调,将模型塑造成所需的行为。这可能涉及训练模型执行特定任务,例如多选题选择、分类等。 第三步是强化学习与人类反馈,进一步提升模型的性能。通过使用基于人类反馈的奖励模型,模型微调其预测,使其更加贴近人类的偏好。这有助于减少噪音并提高响应的质量。 这个过程中的每一步都有助于提高模型的性能并减少不确定性。值得注意的是,基础模型、数据集和微调策略的选择取决于具体的用例。 封闭源LLMs的挑战和开源模型的崛起 封闭源LLMs,如ChatGPT、Google Bard等,已经证明了它们的有效性。然而,它们也带来了一些挑战。这些挑战包括数据隐私问题、定制和控制能力有限、高运营成本以及偶尔的不可用性。 组织和研究人员已经认识到需要更易于访问和定制的LLMs。为此,他们开始开发开源模型。这些模型具有成本效益、灵活性,并可以根据特定要求进行定制。它们也消除了将敏感数据发送到外部服务器的担忧。 开源LLMs使用户能够训练自己的模型并访问算法的内部工作原理。这个开放的生态系统提供了更多的控制和透明度,为各种应用提供了一个有希望的解决方案。 H2O的LLM生态系统:无需编码的LLM训练工具和框架 H2O是机器学习领域的一家重要参与者,他们开发了一个强大的LLM生态系统。他们的工具和框架可以在无需深入编码专业知识的情况下进行LLM训练。让我们来探索其中的一些组件。 h2oGPT h2oGPT是一个可以在自己的数据上进行训练的经过微调的LLM。最棒的部分是,它完全免费使用。通过h2oGPT,您可以尝试使用LLMs,甚至商业应用。这个开源模型使您能够探索LLMs的能力,而无需面对财务障碍。 部署工具 H2O.ai…

Leave a Comment

推进图像修复:通过这种新颖的AI修复神经辐射场,弥合了2D和3D操作之间的差距

对于图像的处理一直存在持久的兴趣,因为它在内容创作中有着广泛的应用。其中最广泛研究的处理之一是对象的移除和插入,通常被称为图像修复任务。虽然当前的修复模型能够生成与周围图像无缝融合的视觉上令人信服的内容,但它们的适用性传统上仅限于单个2D图像输入。然而,一些研究人员正在尝试将这些模型的应用推进到对完整3D场景的处理。 神经辐射场(NeRFs)的出现使将真实的2D照片转换为逼真的3D表示更加容易。随着算法的不断改进和计算需求的降低,这些3D表示可能会变得普遍。因此,该研究旨在实现对3D NeRF的类似处理,如同对2D图像的处理一样,并特别关注修复功能。 修复3D对象存在独特的挑战,包括3D数据的稀缺性以及必须同时考虑3D几何和外观。使用NeRF作为场景表示引入了额外的复杂性。神经表示的隐式性质使得基于几何理解直接修改底层数据结构变得不切实际。此外,由于NeRF是从图像训练的,对多个视角的一致性的保持带来了挑战。对各个组成图像的独立修复可能导致视角不一致和视觉上不真实的输出。 已经尝试了各种方法来解决这些挑战。例如,一些方法旨在事后解决不一致性,如NeRF-In,通过像素损失结合视角,或者SPIn-NeRF,利用感知损失。然而,当修复的视角存在显著的感知差异或涉及复杂外观时,这些方法可能会遇到困难。 另外,还探索了单参考修复方法,通过仅使用一个修复的视角避免视角不一致。然而,这种方法引入了一些挑战,包括非参考视角的视觉质量降低、缺乏视角相关效果以及不连续问题。 考虑到上述限制,已经开发了一种新方法,实现了对3D对象的修复。 系统的输入是N个来自不同视角的图像,以及它们的相应摄像机变换矩阵和蒙版,用于标记不需要的区域。此外,还需要一个与输入图像相关的修复参考视角,该视角提供了用户期望从3D场景的修复中获取的信息。这个参考视角可以是一个简单的替代蒙版的对象的文本描述。 https://ashmrz.github.io/reference-guided-3d/paper_lq.pdf 在上述示例中,可以通过使用单图像文本条件修复器来获得“橡皮鸭”或“花盆”参考。这样,任何用户都可以控制和驱动生成具有所需编辑的3D场景。 通过专注于视角相关效果(VDEs)的模块,作者试图考虑场景中的视角相关变化(例如镜面反射和非朗伯效应)。出于这个原因,他们通过将VDEs添加到非参考视角的蒙版区域,通过校正参考颜色以匹配其他视角的周围环境,来修复蒙版区域。 此外,他们引入了单目深度估计器,根据参考图像的深度来引导修复区域的几何形状。由于不是所有蒙版目标像素在参考图像中都是可见的,因此设计了一种方法来通过额外的修复来监督这些未遮挡的像素。 下面是所提出方法的新视角渲染与最先进的SPIn-NeRF-Lama的视觉比较。 https://ashmrz.github.io/reference-guided-3d/paper_lq.pdf 这是一个关于参考引导可控补全神经辐射场的新型AI框架的摘要。如果您对此感兴趣并且想要了解更多信息,请随时参考下面引用的链接。

Leave a Comment

在多云环境中使用亚马逊SageMaker训练和部署机器学习模型

在本文中,我们展示了在多云环境中利用AWS最广泛、最深入的人工智能/机器学习能力的众多选项之一我们展示了如何在AWS中构建和训练一个机器学习模型,并在另一个平台上部署该模型我们使用Amazon SageMaker训练模型,将模型工件存储在Amazon Simple Storage Service(Amazon S3)中,并在Azure中部署和运行该模型

Leave a Comment

前20个数据工程项目创意[附源代码]

数据工程在广阔的数据生态系统中扮演着关键角色,通过收集、转换和传递数据,为分析、报告和机器学习提供必要的数据。有志于成为数据工程师的人常常寻求真实世界的项目,以获得实践经验并展示他们的专业知识。本文介绍了前 20 个数据工程项目创意及其源代码。无论您是初学者、中级工程师还是高级从业者,这些项目都为您提供了一个优秀的机会来提升您的数据工程技能。 初学者的数据工程项目 1. 智能物联网基础设施 目标 该项目的主要目标是建立一个可靠的数据管道,用于收集和分析物联网设备的数据。网络摄像头、温度传感器、运动探测器和其他物联网设备都会产生大量数据。您希望设计一个系统,能够有效地消耗、存储、处理和分析这些数据。通过这样做,基于物联网数据的实时监控和决策成为可能。 解决方案 利用 Apache Kafka 或 MQTT 等技术,从物联网设备高效地摄取数据。这些技术支持高吞吐量的数据流。 使用 Apache Cassandra 或 MongoDB 等可扩展数据库来存储传入的物联网数据。这些 NoSQL 数据库能够处理大量和多样化的物联网数据。 使用 Apache…

Leave a Comment