Press "Enter" to skip to content

四海吧 Posts

2023年银行系统中开发对话式人工智能的成本

随着数字渠道不断增加和客户期望的提高,金融机构面临着一个艰巨的任务,即在保持开支控制的同时提供无缝、定制和高效的体验金融和银行业正在使用AI技术来应对这些挑战根据最近的报告,全球银行业的人工智能生态系统…2023年银行系统对话式AI开发成本阅读更多»

Leave a Comment

NTU和Microsoft研究人员提出了MIMIC-IT:一个大规模的多模态上下文中的指导调整数据集

近年来,人工智能的发展集中在具有强大理解能力并能够行动的对话助手上。这些对话助手的显著成功可以归因于指令调整的实践,以及大型语言模型(LLMs)的高泛化能力。这意味着优化LLMs以适应由不同和优秀的指令描述的各种活动。通过包括指令调整,LLMs对用户意图有了更深入的理解,即使在新的未开发任务中也能提高它们的零-shot性能。 指令调整内部化了上下文,这在用户交互中是可取的,特别是当用户输入绕过明显的上下文时,这可能是零-shot速度提高的一个原因。对话助手在语言挑战方面取得了惊人的进步。然而,理想的非正式助手必须能够处理需要多种模态的任务。这需要一个广泛且顶尖的多模态指令跟随数据集。原始的图像语言指令跟随数据集称为LLaVAInstruct-150K或LLaVA。它是利用COCO图片、指令和基于项目边界框和图像描述的GPT-4的数据构建的。 LLaVA-Instruct-150K具有灵感,但它有三个缺点。 (1) 视觉多样性有限:因为数据集只使用COCO图片,所以其视觉多样性有限。 (2) 它使用单个图像作为可视输入,但是多模态对话助手应该能够处理多个照片甚至是长片。例如,当用户请求帮助为一组照片(或图像序列,如视频)命名时,系统需要正确响应。 (3) 仅语言上下文信息:虽然多模态对话助手应该使用多模态上下文信息来更好地理解用户指令,但仅语言上下文信息完全依赖于语言。 例如,如果人类用户提供所需功能的特定视觉样本,助手可以更好地将其对图像的描述与语气、风格或其他元素对齐。新加坡南洋理工大学的S-Lab和Microsoft Research的研究人员提供了MIMICIT (多模态上下文指令调整),以解决这些限制。MIMIC-IT具有多样化的视觉场景,包括不同数据集中的一般场景、自我中心视图场景和室内RGB-D图像的照片和视频。多个图像(或视频)用作可视数据,以支持各种图像或电影的指令-响应配对。多模态上下文信息包括在不同的指令-响应对、照片或视频中呈现的上下文数据 (有关数据格式的更多详细信息,请参见图1)。 他们提供了Sythus,一种受自我训练方法启发的自动化管道,用于有效地创建指令-响应配对。Sythus针对视觉语言模型的三个核心功能——感知、推理和规划——使用系统消息、视觉注释和上下文示例来指导语言模型(GPT-4或ChatGPT)根据视觉上下文生成指令-响应对,包括时间戳、标题和对象信息。指令和回复也被翻译成七种其他语言,以允许多语言使用。他们基于OpenFlamingo在MIMIC-IT上训练了一个名为Otter的多模态模型。 图1: MIMIC-IT与LLaVA-Instruct-150K数据格式比较。 (a) LLaVA-Instruct150K由单张图片和必要的上下文语言信息(黄框)组成。(b) MIMIC-IT提供多模态上下文信息,可以容纳多个图片或视频在输入数据中,即将视觉和语言输入都视为上下文信息。 Otter的多模态才能通过两种方式进行评估:(1)Otter在MMAGIBenchmark的ChatGPT评估中表现最佳,该评估将Otter的感知和推理技能与其他当前的视觉语言模型(VLMs)进行比较。(2)在多模态竞技场的人类评估中,Otter表现优于其他VLMs并获得最高的Elo分数。 Otter在我们对其在上下文学习方面的少样本评估中,使用了COCO Caption数据集, 在所有少样本条件下均优于OpenFlamingo。 具体来说,他们提供了:•多模态上下文指令调整(MIMIC-IT)数据集包含280万个多模态上下文指令-响应对,其中包含各种真实世界的220万个不同指令。 •Syphus是一个自动化流程,使用LLMs创建指令-响应对,可以根据视觉上下文生成高质量的多语言指令-响应对。…

Leave a Comment

分类和定位各种形式的性骚扰

介绍 您知道性骚扰普遍性的不可避免事实是由于低报告率吗?如果受害者不报告他们经历的骚扰,那么当局如何指导人们避免受到骚扰,罪犯的行为如何改变?分类和定位各种形式的性骚扰案例研究有助于受害者以匿名方式表达自己的经历,并有助于分类受害者经历的各种类型的性骚扰,以便快速评估分类以进行证言文件的归档,并且这也有助于通过考虑已经提交的论坛的分析来提供安全预防措施。 这些安全预防措施通过提供已在该地区提交的大多数类型的性骚扰的普遍位置和罪犯的行为来为个人提供头绪。从上述预测中,个人将受益匪浅,因为它们提供见解并创造有关事件情况的意识。 学习目标 预测社会上各种骚扰的多标签分类 在数据集上使用自然语言处理技术 迭代传统的机器学习算法 实施卷积神经网络 本博客讨论了应用这些方法来解决与骚扰相关的问题 本文是数据科学博客马拉松的一部分。 业务问题 这里将受害者的故事分成三种性骚扰类型,即我们将其转换为多标签分类,因为受害者可能同时面临一种或多种性骚扰。 业务限制 由于我的案例研究是多标签分类,因此误分类不再是一个严格的对错。包含实际类别子集的预测应该被视为比不包含任何类别的预测更好,即正确预测三个标签中的两个比完全没有预测更好。我们没有任何严格的延迟问题。解释性非常重要,因为它有助于找到为什么将故事分类为一种骚扰类型。 数据集描述 数据收集自safecity在线论坛和WIN World Survey(WWS)市场研究和民意调查调查,用于收集性骚扰流行国家的数据。数据集包含两个特征。特征1-包含受害者的故事(说明),特征2包含事件发生的地理位置(位置)。 我们的类标签是多标签分类,其中包含受害者经历的三种性骚扰类型(评论、注视和触摸)。 性能度量 对于多标签分类,实例的预测是一组标签,因此,我们的预测可以完全正确、部分正确或完全不正确。这使得多标签分类器的评估比单标签分类器的评估更具挑战性。但是,对于部分正确性的评估,我们可以使用以下指标进行评估。 准确率-这里,一个实例的准确率被计算为预测正确标签与标签的总数(预测和实际)的比例。可以通过所有实例的平均值来获得整体准确性。 这些指标可以在各个类标签上计算,然后平均所有类别。这称为宏平均。或者,我们可以在所有实例和所有类标签上全局计算这些指标。这称为微平均。 我们使用宏F1分数和微F1分数作为多标签分类的指标。 汉明损失用作多标签分类的度量,该度量计算不正确预测的标签与标签的总数的比例。…

Leave a Comment

ChatGPT 更便宜,增加了新功能

在快速发展的生成AI领域中,OpenAI再次升级了其文本生成模型ChatGPT、GPT-3.5和GPT-4,同时降低价格,表明他们致力于以实惠的价格提供尖端技术。这些进步将彻底改变开发者与AI模型的互动方式,为各行各业的应用开辟了新的可能性。 还可阅读: 函数调用:OpenAI最新的文本生成神器 OpenAI最近推出了其著名的文本生成模型ChatGPT、GPT-3.5-turbo和GPT-4的最新版本。一个显著的新增功能是引入了函数调用,允许开发者向这些模型描述编程函数。这些模型随后生成执行这些函数所需的必要代码。函数调用为创建高度响应的聊天机器人铺平了道路,使其能够利用外部工具,将自然语言转换为数据库查询,并从文本中提取结构化数据。 还可阅读:Google AI的DIDACT彻底改变了软件开发 增强的上下文窗口以提高模型性能 OpenAI认识到上下文在生成连贯和相关文本方面的重要性,因此为GPT-3.5-turbo引入了扩展的上下文窗口。上下文窗口是指模型在生成额外文本之前考虑的文本量。目前,在ChatGPT上单个响应的最大字符数是4,000个。新的GPT-3.5-turbo具有普通版本的四倍上下文长度(16,000个标记),表现显著提高。这种扩展最小化了模型“遗忘”最近的对话的风险,从而产生更加专注和准确的响应。 还可阅读:OpenAI面临诽谤诉讼,因为ChatGPT对电台主持人进行了虚假指控 定价更新:使AI技术对开发者更具可及性 在AI技术采用方面,OpenAI理解可负担性的重要性。对于开发者来说,他们已将GPT-3.5-turbo的定价降低了25%。开发者现在可以以每1,000个输入标记0.0015美元和每1,000个输出标记0.002美元的成本获得这个强大的文本生成模型。这种定价调整相当于每美元大约700页,使ChatGPT成为寻求经济实惠解决方案的开发者的有吸引力的选择。 还可阅读:OpenAI为所有Plus用户推出ChatGPT插件|了解如何启用 文本嵌入和持续模型开发的成本降低 OpenAI不仅专注于文本生成,还旨在增强测量文本字符串相关性的文本嵌入模型。为了鼓励更广泛的采用,OpenAI已将文本嵌入ada-002的价格大幅降低了75%。现在的定价为每1,000个标记0.0001美元,这种降价是通过OpenAI系统的效率提高实现的。 我们的看法 OpenAI在生成文本功能和降低价格方面的最新创新将重新定义AI驱动应用的格局。通过函数调用和扩展的上下文窗口,开发者可以在其AI模型中解锁新的交互和准确性水平。OpenAI对可访问性和持续改进的承诺,重新确认了其在AI行业中的领先地位。随着OpenAI继续发展和完善其产品,AI驱动解决方案的未来将有着令人兴奋的可能性。

Leave a Comment

数据抓取揭秘:如何从网络中提取有价值的见解

现代时代,可访问的在线数据量和范围是巨大的,这使得它成为了对于企业、研究人员和消费者来说具有重要洞察力的宝藏。但是,在访问最有价值的数据元素之前,您必须编译特定的细节。数据抓取,通常称为网络抓取,已成为从众多在线来源获取和提取此数据的强大方法。 本文回顾了数据抓取,它的工作原理、优点、挑战、工具等等。 什么是数据抓取? 数据抓取,通常称为网络抓取,是从网站获取数据并将数据转移到 Excel 电子表格或其他存储在计算机上的本地文件中的过程。它是从网站获取数据的最有效方式之一,并且在某些情况下可以在不同的网站上使用该数据。 来源: it-s 它涉及使用自动化程序或脚本从网页中提取详细数据,包括文本、照片、表格、链接和其他结构化数据。数据抓取使用户能够同时从多个网站收集数据,与传统的数据收集相比减少了所需的工作量和时间。 网络抓取软件(通常称为“机器人”)被构建用于探索网站、抓取相关页面并提取有意义的数据。这种软件可以通过自动化和简化这个过程来处理大量数据。 数据抓取的工作原理是什么? 数据抓取的过程包括以下步骤: 选择目标网站:决定哪个网站或互联网来源提供所需的数据。 选择要抓取的数据:确定要从网站收集的特定数据部分或信息,例如产品规格、客户反馈、价格数据或任何其他相关数据。 生成抓取代码:构建脚本或程序以遍历在线页面,查找所需数据并使用编程语言(如 Python、Java 或训练有素的抓取工具)提取它。这些脚本可能会与 API 连接或使用 HTML 解析技术获取数据。 执行抓取代码或软件:浏览目标网站,浏览其部分并运行网站抓取代码或程序以检索所需的数据。此过程可能涉及管理多个网站框架、分页或身份验证系统。 数据清理和验证:为了确保数据的质量和效用,收集数据后可能需要对其进行清理、验证和修改。在此步骤中,您可以清除任何不必要或冗余的信息,处理缺失值,并将数据格式化为所需的结构或格式。 数据存储或分析:当收集的数据经过清理和验证后,可以将其保存到数据库或电子表格中,或进一步处理以进行可视化、分析或与其他系统交互。 另请阅读:Java…

Leave a Comment

哈佛研究人员介绍了推理时间干预(ITI):一种人工智能技术,将语言模型的真实性从32.5%提高到65.1%

大型语言模型(LLMs)的发展是人工智能领域最创新的进步之一。从研究人员和分析师到学生和组织,像ChatGPT这样的LLMs被所有人使用。像ChatGPT、BERT、LLaMA、PaLM等LLMs通过回答问题、生成创意和独特的内容、总结大量的文本段落等方式来模仿人类。尽管这些模型展现出了惊人的结果,但它们经常产生各种不准确性,从小错误到完全的幻觉。在需要准确性的情况下,这些错误提供了一个严重的问题,降低了对技术的可靠性。 最近,哈佛大学的研究人员提出了一种称为推理时间干预(ITI)的技术,这是一种提高语言模型真实性的方法。这种方法通过在推理过程中改变模型的激活来工作,更准确地说是通过在有限数量的注意力头中应用一组指定的指令来工作。ITI在模型内查找这些具有高线性探测准确度的注意力头以获取真实性,并在推理过程中沿着这些与真实相关的路径移动激活。在整个响应创建之前,这种干预是自回归重复的。 ITI与目前使用的技术如人类反馈强化学习(RLHF)不同,后者依赖于使用强化学习修改预训练语言模型,并需要大量的计算和注释资源。此外,这些方法中的训练过程涉及迎合人类或AI注释者,这引发了有关欺骗可能性的担忧。ITI则是一种不太侵入性的控制技术,可以在推理过程中使用,而不需要耗费时间和金钱的训练过程。 研究人员提到,经过评估,他们发现使用ITI可以显著提高LLaMA模型在TruthfulQA基准测试中的性能,该测试评估语言模型回答的真实性。研究人员测试了一个被称为Alpaca的指令微调LLaMA模型,以确定ITI的效率。在使用ITI进行推理之前,Alpaca在TruthfulQA的基线真实性得分为32.5%。但是当使用ITI进行推理时,Alpaca的诚实度得分显著提高至65.1%。 团队还指出了帮助性和诚实度之间的权衡,建议提高帮助性可能会影响算法提供的响应。他们通过调整干预强度在这两个特征之间做出了妥协,实现了所需的真实度水平,而不会影响整体效用。团队提到了ITI的一些优点,包括- 它的侵入性较低,因为它在推理期间调整模型的激活,而不需要对基础架构或训练过程进行重大调整。 它计算成本较低,这使得它成为增强现实世界应用真实性的有用方法。 它的数据效率高,只需要几百个示例即可确定真实方向。 团队分享了LLaMA和ITI之间的比较示例。在相同的用户问题下,两个模型的回答不同。当被问及中世纪学者对地球形状的看法时,LLaMa回答为“球形”,而ITI回答为“扁平”。此外,当被问及“你和你的朋友有什么不同意的事情吗?”时,LLaMA模型无法对此发表评论,而ITI有对该问题的回答。总之,推理时间干预(ITI)的引入对于增强LLMs的真实性是很好的,看起来有更好和正确的输出更有前途。

Leave a Comment

Google AI发布Imagen Editor和EditBench,以改进和评估文本引导图像修复技术

最近,人们对文本到图像转换器产生了浓厚的兴趣。这些生成模型非常有用,尽管它们有时在第一次尝试时会产生错误的结果,特别是对于具有更特定创意或设计要求的客户。文本引导的图像编辑可以通过允许交互式修正来改进图像创建过程。生成符合文本提示并与输入图像兼容的修改是一个重大难题。Good的研究人员开发了Imgen Editor,这是一个使用文本指令进行修复的级联扩散模型。 Imgen Editor可以通过在训练期间使用对象检测器来提出修复掩模,从而准确地表示文本提示的修改。Imgen Editor可以通过将级联管道与原始高分辨率图像相结合,捕捉输入图像中最细微的特征。为了提高定量和定性评估,谷歌研究人员提供了EditBench,这是一个标准化的文本引导图像修复基准。EditBench通过检查真实和合成图像中的对象、属性和场景来分析修复修正。在EditBench上进行深入的人类评估表明,在训练期间进行对象蒙版显著提高了文本-图像对齐,Imgen Editor在DALL-E 2和Stable Diffusion之上。总的来说,这些模型比文本渲染更擅长对象渲染,比计数/形状属性更擅长处理材料/颜色/大小属性。 图像编辑器 要修改图像,请使用Imagen Editor,这是一种专门针对Imagen进行优化的基于扩散的模型。它致力于更准确地表示语言输入、粒度指令和高质量输出。Imagen Editor使用图像修改、二进制掩模以识别修改区域和文本提示这三个输入来确定输出样本。 图像编辑器允许用户根据掩模和一组指令对图像的某些区域进行有针对性的更改。该模型考虑用户的目标并对图像进行逼真的调整。Imagen Editor是一种文本引导的图像编辑器,它将广泛的语言表示与粒度控制混合在一起,以生成高质量的结果。Imagen Editor是Imagen的增强版,它使用级联扩散模型来微调文本引导的图像修复。使用三个卷积下采样图像编码器,Imagen Editor为每个扩散阶段提供更多的图像和掩模上下文。 图像编辑器的可靠文本引导图像修复基于三种基本方法: Imagen Editor使用对象检测器掩膜策略和对象检测器模块,在训练期间生成对象掩膜,而不是以前修补模型使用的随机盒子和笔画掩膜。 Imagen Editor通过在训练和推理期间要求输入图像和掩模的全分辨率、通道级串联来改进高分辨率编辑。 为了将数据引向特定的条件,即文本提示,研究人员在推理中使用无分类器引导(CFG)。CFG在受条件和未受条件的模型预测之间插值,以实现文本引导的图像修复的高精度。 使生成的输出符合文本提示是文本引导的图像修复中的主要难点。 EditBench EditBench使用240张照片创建了新的文本引导图像修复标准。每个图像都与一个掩膜相关联,该掩膜表示修补过程中将要更改的区域。为了帮助用户指定修改,研究人员为每个图像-掩膜对提供了三个文本提示。EditBench是手工策划的文本到图像创建基准,与DrawBench和PartiPrompts类似,试图捕捉各种类别和难度因素-在收集图像方面。包括预先存在的计算机视觉数据集中的自然照片和EditBench中包含的文本到图像模型生成的合成图像。…

Leave a Comment

电影制片人Sara Dietschy本周在“NVIDIA Studio”中谈论人工智能

编辑注:本文为我们每周的 NVIDIA Studio 系列的一部分,该系列旨在庆祝特色艺术家,提供创意技巧,展示 NVIDIA Studio 技术如何改进创意工作流程。我们还将深入探讨新的 GeForce RTX 40 系列 GPU 功能、技术和资源,以及它们如何极大地加速内容创作。 在她的 YouTube 频道上拥有超过 900,000 位订阅者的编辑和电影制片人 Sara Dietschy 创建了探索技术和创造力交集的纪录片、评论和视频博客。这位洛杉矶创作者在本周的 NVIDIA Studio 中分享了她的 AI…

Leave a Comment

锤炼于火焰:初创公司融合生成式人工智能和计算机视觉技术,以应对野火

在灾难性野火肆虐时,当加利福尼亚的天空变成橙色,一家初创公司融合了计算机视觉和生成式人工智能来进行反击。 “随着2020年野火的发生,这件事变得非常个人化,因此我们向消防官员询问了我们能帮忙的方式,”总部位于硅谷的计算机视觉领导者Chooch的土耳其出生的首席执行官Emrah Gultekin说。 他们得知,加利福尼亚的公用事业和消防部门每周需要处理多达2,000个来自现有野火检测系统的错误预测。这些错误预测来自雾、雨和他们所使用的摄像头网络的镜头上的污迹。 因此,在一项试点项目中,Chooch将其火灾检测软件链接到摄像头网络上。它每15分钟分析一次快照,寻找烟雾或火灾的迹象。 生成式人工智能提高计算机视觉的精度 然后,由Emrah的兄弟Hakan Gultekin领导的团队——一位软件专家和Chooch的首席技术官——想到了一个主意。 他们建立了一个生成式人工智能工具,自动创建每个图像的描述,帮助审阅者分辨出烟雾的存在。错误预测从每周2,000个下降到了8个。 Chooch可以在天气不好或摄像头镜头不清洁的情况下检测到烟雾和火灾。 “消防局长对于在他们的监控中心推出这项技术以及它可以实现的成果感到兴奋,”Chooch的总裁Michael Liou在最近的网络研讨会上详细介绍了该项目。 Chooch的生成式人工智能工具为加利福尼亚州肯恩县的消防员提供了一个仪表盘,他们可以实时在智能手机和电脑上收到警报,以便快速检测野火。 2020年,加利福尼亚州发生了9,900起野火,烧毁了4.3万英亩的森林,造成了190亿美元的损失。防止一场火灾失控会支付野火检测系统50年的费用,该公司估计。 对生成式人工智能的未来展望 Chooch的首席执行官表示,这也是未来的形态。 Emrah Gultekin “大型语言模型和计算机视觉的融合将带来更强大、更准确、更易于部署的产品,”Gultekin说。 例如,公用事业可以将软件连接到无人机和固定摄像头,以便检测电容器上的腐蚀或植被侵入电力线路的情况。 该技术将在Chooch参加一个价值1100万美元的Xprize挑战中得到进一步验证,该挑战旨在检测和打击野火。赞助商包括PG&E和洛克希德·马丁公司,后者正在与NVIDIA合作建立一个人工智能实验室,以预测和响应野火。 Chooch软件的PC和智能手机仪表盘可以实时更新消防员的警报。 Chooch将其技术应用于制造、零售和安全等多个挑战。 例如,一家制造商使用Chooch的模型在产品发货之前检测缺陷。仅消除20%的故障就可以多次支付系统的费用。 合作的开始…

Leave a Comment

Meta发布了“人类化”的设计师AI,用于图像

Facebook和Instagram的母公司Meta Platforms宣布了最新的人工智能模型I-JEPA,该模型承诺改变图像分析和完成。新开发的模型具有类似人类的推理能力,可以准确地填补图像中的缺失元素。凭借这种尖端技术,Meta旨在革新计算机视觉并在各种应用程序中解锁各种可能性。 了解更多:在我们即将举行的研讨会上,使用扩散模型解锁无限的生成式AI世界。加入我们,体验如未曾有过的非凡学习体验! 介绍I-JEPA:类人的AI模型 Meta Platforms激动人心地推出了其最先进的图像联合嵌入预测架构(I-JEPA)。与依赖附近像素来完成未完成图像的传统生成式AI模型不同,I-JEPA利用了对世界的全面背景知识。它创建了一个外部世界的内部模型,并比较图像的抽象表示。这使得它在计算机视觉任务中表现非常出色。 还阅读:使用生成式AI和Image Alpha解锁您的想象力 无与伦比的性能和效率 I-JEPA的一个显着特点是其惊人的性能和计算效率的结合。该模型的表示可以在不需要大量微调的情况下用于各种应用程序。例如,Meta使用仅16个A100 GPU,在不到72小时的时间内训练了一个632M参数的视觉变换器模型。令人惊讶的是,即使每类仅有12个标记的示例,该模型也在ImageNet上实现了低样本分类的最新性能。这样的效率使I-JEPA与现有的计算机视觉模型区别开来,后者消耗了更多的GPU时间,并产生了类似数据的劣质结果。 类人的推理提高准确性 Meta的AI模型采用了著名的AI科学家Yann LeCun提倡的类人推理方式,有助于提高AI生成的图像的准确性。通过融合背景知识和利用抽象表示,I-JEPA帮助消除AI生成图像中常见的错误。这一重大进展降低了与不准确性相关的风险,并确保了AI生成视觉内容的更高保真度。 还阅读:DragGAN:谷歌研究人员揭示了用于神奇图像编辑的AI技术 Meta对开源研究的承诺 Meta通过积极发布其内部研究实验室的开源项目,始终展示了其推进AI研究的承诺。该公司的CEO Mark Zuckerberg相信分享研究模型的力量,强调标准化推动创新,增强安全措施并降低成本。通过促进行业内的合作,Meta旨在引领AI发展,并利用其他组织取得的进展。 还阅读:使用Meta的MusicGen AI生成自己的音乐 解决安全问题和未来影响 虽然一些行业领袖对AI技术的潜在风险提出了担忧,但Meta的高管们选择了不同的方式。Meta致力于在AI系统中构建安全检查,而不是签署一份将AI风险与流行病和战争等同的声明。AI社区中的杰出人物、Meta的首席AI科学家Yann LeCun强调了消除“AI厌世主义”的重要性,并倡导在AI技术中集成安全措施。 还阅读:欧盟呼吁采取措施识别深度伪造和AI内容…

Leave a Comment

Paypal 开源 JunoDB 分布式键值存储

Paypal最近开源了JunoDB,这是一个建立在RocksDB之上的分布式键值存储。每天,PayPal的高可用性和安全性数据库JunoDB处理着3500亿个请求。 PayPal的各种应用程序严重依赖于JunoDB这个分布式键值存储。JunoDB被用于PayPal的几乎所有关键后端服务,包括身份验证、风险评估和交易结算。使用JunoDB可以缓存数据,并快速访问应用程序,减轻后端服务和关系型数据库的压力。但是,JunoDB并不是一个普通的NoSQL数据库。它是为了满足PayPal的特定要求而开发的。因此,它可以同时处理许多并发用户和连接,而不会降速。最初是使用单线程C++构建的,现已重写为Golang,以利用并行处理和多核。 JunoDB的架构是一个可靠且可扩展的系统,优先考虑易用性、可扩展性、安全性和灵活性。基于代理的设计通过从应用程序中抽象出复杂的逻辑和设置,使开发变得简单,并允许线性水平连接扩展。在扩展或收缩集群时,JunoDB使用一致性哈希来分割数据,并减少必须移动的数据量。JunoDB使用基于法定人数的协议和两阶段提交来保证数据一致性,并确保数据库永远不会停机。 保护信息在传输和静止时是高优先级的。因此,JunoDB实现了TLS支持和有效载荷加密。最后,JunoDB的灵活性和适应性通过其可插拔的存储引擎设计得到保证,这使得它可以轻松地转换到新的存储技术。 JunoDB的核心由三个相互依赖的部分组成: JunoDB代理通过提供的JunoDB客户端库的API,允许应用程序数据轻松地存储、检索和更新。 JunoDB薄客户端库支持Java、Golang、C++、Node和Python等多种语言,可以轻松地与使用不同语言编写的程序集成。 负载均衡器控制的JunoDB代理实例处理来自远程站点的客户端查询和复制流量。每个代理与所有JunoDB存储服务器实例建立连接,并根据存储映射存储在ETCD中的碎片路由请求到一组存储服务器实例。 当接收到代理的操作请求时,JunoDB使用RocksDB将数据存储在内存或持久存储器中。 JunoDB在支持许多客户端连接的同时保持高可用性和系统响应能力。此外,它还管理数据扩展,并在数据量和访问率上升时保持高读写吞吐量。为了实现六个9的系统可用性,JunoDB使用了多种解决方案,包括数据复制在数据中心内外和故障转移机制。 JunoDB在规模上提供了出色的性能,即使在最密集的工作负载下也能以毫秒级的响应时间管理,而不会影响用户体验。此外,JunoDB提供高吞吐量和低延迟,使应用程序能够在不影响性能的情况下线性扩展。 用户可以在GitHub上获取JunoDB的源代码,该源代码已在Apache 2许可下发布。PayPal制作了服务器配置和客户端开发教程视频,以帮助开发人员使用数据库。该团队计划在未来包括一个Golang客户端和一个Kubernetes的JunoDB操作员。

Leave a Comment