Press "Enter" to skip to content

四海吧 Posts

“Doctran和LLMs:分析消费者投诉的强大组合”

引言 在如今竞争激烈的市场中,企业努力理解并有效解决消费者投诉。消费者投诉可以揭示各种问题,包括产品缺陷、差劲的客户服务、计费错误和安全问题。它们在企业和客户之间的反馈(关于产品、服务或体验)循环中发挥着关键作用。分析和理解这些投诉可以为产品或服务改进、客户满意度和整体业务增长提供宝贵的见解。在本文中,我们将探讨如何利用Doctran Python库来分析消费者投诉,提取见解并做出数据驱动的决策。 学习目标 在本文中,您将: 了解Doctran Python库及其主要功能 了解Doctran和LLMs在文档转换和分析中的作用 探索Doctran支持的六种文档转换类型,包括提取、删除、询问、精炼、总结和翻译 全面了解将消费者投诉的原始文本数据转化为可行动见解的方法 了解Doctran的文档数据结构,使用ExtractProperty类来定义提取属性的模式 本文作为数据科学博客马拉松的一部分发布。 Doctran Doctran是一种先进的Python库,用于文档转换和分析。它提供了一组函数来预处理文本数据,提取关键信息,分类,询问,总结信息,并将文本翻译成其他语言。Doctran利用OpenAI GPT型模型和开源NLP库等LLMs(大型语言模型)对文本数据进行解析。 它支持以下六种类型的文档转换: 提取:从文档中提取有用的特征/属性。 删除:在将数据发送给OpenAI之前,从文档中删除个人可识别信息(PII),如姓名、电子邮件地址、电话号码等。它在内部使用spaCy库删除敏感信息。 询问:将文档转换为问答格式。 精炼:从文档中消除与预定义主题无关的任何内容。 总结:将文档表示为简洁、全面且有意义的摘要。 翻译:将文档翻译成其他语言。 该集成还可在LangChain框架的document_transformers模块中使用。LangChain是一个先进的构建LLM支持应用程序的框架。 LangChain提供了灵活性,可以探索和利用各种开源和闭源的LLM模型。它无缝连接到多样化的外部数据源,如PDF、文本文件、Excel电子表格、PPT等。它还支持尝试不同的提示,进行提示工程,利用内置的链式和代理,等等。 在Langchain的document_transformers模块中,有三种实现:DoctranPropertyExtractor、DoctranQATransformer和DoctranTextTranslator。它们分别用于提取、询问和翻译文档转换。…

Leave a Comment

快速嵌入:一款快速且轻量级的文本嵌入生成的Python库

词语和短语可以通过嵌入来在高维空间中有效地表示,这使得它们成为自然语言处理(NLP)领域中的一种关键工具。机器翻译、文本分类和问答只是一些可以从这种表示能力中受益的众多应用之一,因为它可以捕捉单词之间的语义连接。 然而,处理大型数据集时,生成嵌入所需的计算需求可能令人望而生畏。这主要是因为构建一个大型共现矩阵是传统嵌入方法如Word2Vec和GloVe的先决条件。对于非常大的文档或词汇规模,这个矩阵可能会变得无法处理。 为了解决嵌入生成速度慢的挑战,Python社区开发了FastEmbed。FastEmbed旨在实现速度快、资源使用最小化和精度。这是通过其前沿的嵌入生成方法实现的,该方法消除了共现矩阵的需求。 FastEmbed不仅仅是将词汇映射到高维空间中,它还采用了一种随机投影的技术。通过利用随机投影的降维方法,可以在保留其基本特征的同时,减少数据集的维数。 FastEmbed将词汇随机投影到一个空间中,这个空间中的词汇很可能与具有类似意义的其他词汇靠近。这个过程是通过随机投影矩阵来实现的,该矩阵旨在保留词汇的含义。 一旦词汇被映射到高维空间中,FastEmbed通过一个简单的线性变换来学习每个词汇的嵌入。这个线性变换是通过最小化损失函数来学习的,这个损失函数旨在捕捉词汇之间的语义连接。 已经证明,FastEmbed比标准嵌入方法快得多,同时保持了很高的准确性。FastEmbed还可以用于为大规模数据集创建嵌入,同时保持相对轻量级。 FastEmbed的优势 速度:与其他流行的嵌入方法如Word2Vec和GloVe相比,FastEmbed提供了显著的速度提升。 FastEmbed是一个在大型数据库中生成嵌入的紧凑而强大的库。 FastEmbed与其他嵌入方法一样准确,甚至更准确。 FastEmbed的应用 机器翻译 文本分类 回答问题和摘要文件 信息检索和摘要 FastEmbed是一个高效、轻量级和精确的生成文本嵌入的工具包。如果你需要为大规模数据集创建嵌入,FastEmbed是一个不可或缺的工具。

Leave a Comment

Google AI 提出了 PaLI-3:一个更小、更快、更强大的视觉语言模型(VLM),与大小为其10倍的类似模型相比,具有更好的性能

视觉语言模型(VLM)是一种先进的人工智能系统,将自然语言理解与图像识别能力相结合。与OpenAI的CLIP和Google的BigGAN一样,VLM能够理解文本描述并解释图像,实现在计算机视觉、内容生成和人机交互等领域的各种应用。它们在理解和生成与视觉内容相关的文本方面展示出了令人印象深刻的能力,使其成为人工智能领域的关键技术。 来自Google Research、Google DeepMind和Google Cloud的研究人员对使用分类和对比目标预训练的视觉变换器(ViT)模型进行了对比,对比预训练模型,特别是基于SigLIP的PaLI,在多模态任务中表现出色,尤其是在定位和文本理解方面。研究人员将SigLIP图像编码器扩展到20亿个参数,实现了新的多语言跨模态检索技术的最新水平。他们的研究主张将视觉编码器的预训练应用于网络规模的图像-文本数据,而不是分类样式的数据。他们的方法揭示了通过PaLI-X在大型视觉语言模型中扩展分类预训练图像编码器的好处。 他们的研究深入探讨了缩放VLM的同时强调了小规模模型在实际应用和高效研究中的重要性。他们介绍了PaLI-3,一个具有50亿个参数并具有竞争力的VLM。PaLI-3的训练过程包括对图像编码器在网络规模数据上进行对比预训练、改进的数据集混合和更高分辨率的训练。他们还介绍了一个包含20亿参数的多语言对比视觉模型。消融研究证实了对比式预训练模型的优越性,尤其是与定位和视觉环境的文本理解相关的任务。 他们的方法采用预训练的ViT模型作为图像编码器,具体是ViT-G14,使用SigLIP的训练方法。ViT-G14具有大约20亿个参数,作为PaLI-3的视觉骨干。对比式预训练包括分别嵌入图像和文本,并对它们的对应关系进行分类。来自ViT输出的视觉记号被投影并与文本记号相结合。然后,这些输入由一个30亿个参数的UL2编码器-解码器语言模型进行处理,用于文本生成,通常由特定任务提示(如VQA问题)驱动。 与较大的模型相比,PaLI-3在定位和视觉环境的文本理解方面表现出色。基于SigLIP的PaLI模型,在对比图像编码器预训练的基础上,建立了一个新的多语言跨模态检索技术的最新水平。完整的PaLI-3模型在指代表达分割方面胜过现有技术,并在检测任务的子组中保持了低错误率。对比式预训练在定位任务中表现更加有效。PaLI-3的ViT-G图像编码器在多个分类和跨模态检索任务中表现出色。 总之,他们的研究强调了对比式预训练的好处,以SigLIP方法为例,以增强和提高VLM的效率。较小的50亿参数的基于SigLIP的PaLI-3模型在定位和文本理解方面表现出色,胜过了多样化多模态基准测试中的较大模型。在PaLI-3中,对图像编码器进行对比式预训练还实现了新的多语言跨模态检索技术的最新水平。他们的研究强调了对VLM训练的各个方面进行全面调查的必要性,超出图像编码器预训练,以进一步提高模型性能。

Leave a Comment

UCSD和微软研究员推出ColDeco:一种用于计算列的无代码检查工具

在《COLDECO:用于AI生成代码的终端用户电子表格检查工具》一文中,来自UCSD和Microsoft的研究人员团队介绍了一种创新工具,旨在解决由大型语言模型(LLMs)为表格数据任务生成的代码的准确性和信任度的挑战。当前的问题是LLMs可以生成复杂且潜在不正确的代码,这对依赖这些模型处理电子表格数据任务的非程序员构成了重要的挑战。 该领域目前的方法通常要求专业程序员评估和修复LLMs生成的代码,这限制了这些工具的可访问性。COLDECO致力于通过提供终端用户检查功能来弥合这一差距,以增强用户对LLM生成的表格数据任务的代码的理解和信任。 COLDECO在其基于网格的界面中提供了两个关键功能。首先,它允许用户将生成的解决方案分解为中间辅助列,使他们能够逐步理解问题的解决过程。这个功能实际上将复杂的代码分解为更易管理的组件。其次,用户可以与一张过滤后的摘要行表格进行交互,该表格突出显示程序中的有趣案例,更容易识别问题和异常情况。 在涉及24名参与者的用户研究中,COLDECO的功能被证明对理解和验证由LLM生成的代码非常有价值。用户发现辅助列和摘要行两者对于理解代码非常有帮助,他们更倾向于同时使用这些功能。然而,参与者表示希望了解摘要行生成的更多透明度,这将进一步增强他们信任和理解代码的能力。 总而言之,COLDECO是一个有希望建立在电子表格中使用AI生成的代码的非程序员工具,提供了有价值的代码检查和验证功能。它解决了LLM生成代码准确性方面透明度和信任的紧迫需求,最终使得编程对更广泛的用户群体更加可访问。

Leave a Comment

如何专业地使用ChatGPT 4Vision的7种方法

介绍 人工智能的世界不断发展,推动着人机交互的可能性。在这个不断扩展的领域中,开放AI(OpenAI)的ChatGPT 4Vision作为一个开创性模型出现了,彻底改变了我们与人工智能互动的方式。ChatGPT 4Vision是ChatGPT的最新版本,旨在无缝地连接文本和视觉内容,为各种应用打开了无限的可能。 正如其名所示,ChatGPT 4Vision是一个突破性的人工智能模型,通过其处理和生成文本回应的能力,同时解释和与图像等视觉内容进行互动,带来了新的对话维度。文本和视觉的融合为ChatGPT 4Vision带来了各种潜在的用例,使其成为各行业和用途中一种多功能且宝贵的工具。 本文将探讨ChatGPT 4Vision的主要特点和功能,并深入介绍七个不同的用例,展示这个人工智能模型的巨大潜力。 什么是ChatGPT 4Vision? ChatGPT 4Vision是由OpenAI开发的ChatGPT人工智能模型的最新版本。该版本以其与视觉和多模态交互相关的增强功能而著称。ChatGPT 4Vision可以处理和生成基于文本的回应,并解释和与图像等视觉内容进行互动。 ChatGPT 4Vision的主要功能 多模态理解:ChatGPT 4Vision可以处理文本和视觉输入,使其成为各种应用的多功能工具。 图像识别:它可以识别和解释图像,提供描述和洞察。 视觉内容互动:用户可以就图像内容与ChatGPT 4Vision进行对话,使其成为协作和解决问题的强大工具。 内容生成:它可以根据视觉提示生成文本,实现更加引人入胜和全面的内容创作。 可访问性:ChatGPT 4Vision可以提供图像的详细描述,确保视障人士的可访问性。 ChatGPT…

Leave a Comment

揭秘生成人工智能:深入探究扩散模型和视觉计算演进

通过结合计算机生成的视觉图像或从图片中推断场景的物理特征,计算机图形学和3D计算机视觉团体已经致力于创建几十年来的物理真实模型。这个方法包括渲染、模拟、几何处理和摄影测量等,涉及到包括视觉效果、游戏、图像和视频处理、计算机辅助设计、虚拟和增强现实、数据可视化、机器人、自动驾驶车辆和遥感等几个行业。伴随着生成式人工智能(AI)的兴起,视觉计算的全新思维方式已经出现。仅凭书面提示或高水平人类指令作为输入,生成式AI系统可以创建和操纵逼真而有风格的照片、电影或3D物体。 这些技术自动化了以前只有专业领域知识专家才能完成的许多耗时任务。稳定扩散、ImaGen、Midjourney或DALL-E 2和DALL-E 3等视觉计算的基础模型为生成式AI带来了无与伦比的力量。这些模型在数亿到数十亿个文本-图像对中进行训练,它们非常庞大,只有几十亿个可学习的参数。这些模型是上述生成式AI工具的基础,并在强大的图形处理单元(GPU)云中进行了训练。 基于卷积神经网络(CNN)的扩散模型经常用于生成图像、视频和3D对象,它们以多模态的方式集成了使用transformer架构(如CLIP)计算的文本。尽管有资金支持的行业参与者在为二维图像生成开发和训练基础模型时使用了大量资源,但学术界仍有机会为图形和视觉工具的发展做出重要贡献。例如,如何调整目前的图像基础模型以在其他更高维度领域中使用,如视频和3D场景创建,仍需明确。 这主要是由于需要更具体类型的训练数据。例如,网络上有许多低质量和通用的二维照片示例,而高质量和多样化的三维对象或场景却相对较少。此外,将二维图像生成系统扩展到更高维度,以适应视频、三维场景或四维多视角一致场景合成的需求,不是立即明显的。目前的限制之一是计算问题:尽管庞大的(未标记的)视频数据在网络上可用,但当前网络架构往往过于低效,无法在合理的时间或计算资源上进行训练。这导致扩散模型在推理时间上相对较慢。这是由于它们网络的庞大尺寸和迭代性质造成的。 图1:该前沿论文介绍了视觉计算的扩散模型的理论和应用。最近,这些模型已成为在3D和4D中创建和修改图像、视频和对象的公认标准。 尽管存在一些未解决的问题,但过去一年中视觉计算的扩散模型数量大幅增加(详见图1中的示例)。该报告由多所大学的研究人员开发,其目标是对最近关注于扩散模型在视觉计算中应用的众多最新出版物进行整理评述,介绍扩散模型的原理,并识别出突出的问题。

Leave a Comment

利用机器学习改革材料研究

在材料科学领域,研究人员面临着破解原子尺度下物质复杂行为的巨大挑战。类似非弹性中子散射或X射线散射的技术提供了非常宝贵的见解,但资源密集且复杂。中子源的有限可用性,以及对数据解释的一丝不苟的需求,一直是该领域进展的瓶颈。虽然以前曾经使用机器学习来提高数据准确性,但美国能源部SLAC国家加速器实验室的团队揭示了一种突破性的方法,使用神经隐式表示,超越传统方法。 以往在材料研究中利用机器学习的尝试主要依赖于基于图像的数据表示。然而,这个团队使用神经隐式表示的新方法走了一条与众不同的道路。它使用坐标作为输入,类似于地图上的点,根据它们的空间位置预测属性。这种方法为解释数据提供了一种配方,允许进行详细的预测,甚至在数据点之间。这种创新在捕捉量子材料数据中细微差别方面非常有效,为该领域的研究提供了一个有前途的途径。 该团队的动力很明确:揭示受审查的材料的潜在物理特性。研究人员强调了在中子散射产生的大量数据集中筛选出仅有的相关数据的挑战。经过数千次模拟的改进的机器学习模型可以识别出对人眼来说可能不易察觉的数据曲线上微小的差异。这种突破性方法不仅加快了对数据的理解,还为研究人员在收集数据时提供了即时帮助,这在以前是不可能的。 这种创新的关键指标在于其能够进行连续实时分析的能力。这种能力可以改变像SLAC的Linac相干光源(LCLS)这样的设施中的实验进行方式。传统上,研究人员依靠直觉、模拟和实验后分析来指导他们的下一步。通过新方法,研究人员可以精确地确定何时积累足够的数据来得出一个实验的结论,从而简化整个过程。 这种名为“坐标网络”的模型的适应性证明了其在涉及能量和动量数据的各种散射测量中的潜在影响。这种灵活性为材料科学领域的各种研究提供了新的研究途径。该团队恰当地强调了这种前沿的机器学习方法在加快进步和简化实验方面的潜力,并为材料研究开辟了令人兴奋的新前景。 总而言之,神经隐式表示和机器学习技术的整合为材料研究带来了一个新时代。能够迅速准确地从实验数据中提取未知参数,减少人为干预的能力,是一个重要的改变者。通过提供实时指导和连续分析,这种方法有望改变实验的进行方式,可能加快材料科学中的发现速度。凭借其在各种散射测量中的适应性,材料研究的未来看起来异常有希望。

Leave a Comment

Metaverse (元宇宙):一种虚拟现实世界,被视为类似现实世界的拓展 Nightmare (恶梦):一种令人感到恐惧或不愉快的梦境或经历 AI (人工智能):人工智能技术的简称,指指能够模仿、学习和执行类似人类智能行为的系统 翻译结果:从元宇宙恶梦到人工智能的成功

虽然标题的第一部分不言自明,但第二部分则不太明显我认为(并在下文中进行了解释),Meta在人工智能领域采取的非传统路径至少很有意思,并且…

Leave a Comment

“将生成式人工智能和强化学习融合实现自我改进”

介绍 在人工智能不断发展的领域中,两个关键角色联手合作,打开了新的局面:生成式人工智能和强化学习。这些尖端技术有潜力创造自我改进的人工智能系统,使我们离实现机器自主学习和适应的梦想更近了一步。这些工具为能够改进自己的人工智能系统铺平了道路,使得机器能够自主学习和自适应的想法更加接近。 近年来,人工智能在理解人类语言、帮助计算机观察和解释周围世界方面取得了巨大成就。像GPT-3这样的生成式人工智能模型和Deep Q-Networks这样的强化学习算法站在这一进展的前沿。尽管这些技术在单独使用时已经具有了革命性的影响力,但它们的融合打开了人工智能能力的新维度,并将世界的边界推向了更舒适的境地。 学习目标 获取关于强化学习及其算法、奖励结构、强化学习的一般框架和状态-动作策略的必要和深入的知识,以了解代理机构如何做出决策。 探索这两个领域如何共生地结合在一起,以在决策情景中创建更具适应性和智能性的系统。 研究和分析各种案例研究,展示将生成式人工智能与强化学习在医疗保健、自主车辆和内容创作等领域进行整合的有效性和适应性。 熟悉Python库,如TensorFlow、PyTorch、OpenAI’s Gym和Google’s TF-Agents,以在实施这些技术时获得实际的编程经验。 本文作为数据科学博文马拉松的一部分发表。 生成式人工智能:赋予机器创造力 生成式人工智能模型,如OpenAI的GPT-3,旨在生成内容,无论是自然语言、图像还是音乐。这些模型的工作原理是预测在给定上下文中接下来会发生什么。它们已经被用于自动化内容生成和能够模仿人类对话的聊天机器人等方面。生成式人工智能的特点是能够从学习到的模式中创造出新的东西。 强化学习:教会人工智能做出决策 来源–Analytics Vidhya 强化学习(RL)是另一个开创性的领域。它是让人工智能像人类一样通过试错学习的技术。它已经被用于教授人工智能玩复杂的游戏,如Dota 2和围棋。强化学习代理通过接收行为的奖励或惩罚来学习,并利用这些反馈来不断改进。从某种意义上讲,强化学习使人工智能获得了一种自治形式,使其能够在动态环境中做出决策。 强化学习的框架 在本节中,我们将揭示强化学习的关键框架: 行为实体:代理机构 在人工智能和机器学习领域,术语“代理机构”指的是任务是与指定的外部环境进行交互的计算模型。它的主要角色是做出决策和采取行动,以实现既定目标或在一系列步骤中累积最大奖励。 周围的世界:环境 “环境”指的是代理人操作的外部背景或系统。实质上,它构成了超出代理人控制范围但可以观察到的每一个因素。这可以是虚拟游戏界面,也可以是机器人在迷宫中导航的现实世界环境。环境是评估代理人表现的“真实基准”。…

Leave a Comment

扩展规模下的机器学习生命周期管理,第一部分:使用Amazon SageMaker设计机器学习工作负载的框架

每个规模和行业的客户都在AWS上通过将机器学习(ML)融入其产品和服务来进行创新生成式AI模型的最新发展进一步加快了各行业对于采用ML的需求然而,实施安全、数据隐私和治理控制仍然是客户在实施ML时面临的主要挑战

Leave a Comment

“欧里卡!NVIDIA研究的突破性发现为机器人学习带来了新的转变”

由NVIDIA研究开发的新型人工智能代理能够教会机器人复杂的技能,现已训练出机器手以与人类一样轻松地完成快速旋笔技巧。 在上面的视频中展示的惊人表现是机器人通过Eureka学会的近30项任务之一,Eureka自主编写奖励算法以训练机器人。 Eureka还教会了机器人如何打开抽屉和橱柜、抛接球和操作剪刀等任务。 今天发布的Eureka研究包括一篇论文和项目的人工智能算法,开发者可以使用NVIDIA Isaac Gym进行实验,这是一个用于强化学习研究的物理模拟参考应用程序。Isaac Gym建立在NVIDIA Omniverse上,这是一个基于OpenUSD框架构建3D工具和应用程序的开发平台。Eureka本身由GPT-4大型语言模型驱动。 NVIDIA高级AI研究主管Anima Anandkumar表示:“在过去的十年中,强化学习取得了令人瞩目的成就,但仍存在许多挑战,例如奖励设计仍然是一个试错过程。Eureka是开发整合生成和强化学习方法解决难题的新算法的第一步。” AI训练机器人 根据论文,Eureka生成的奖励程序——用于机器人的试错学习——在超过80%的任务上都优于由专家编写的奖励程序,这使得机器人的平均性能提高了50%以上。 https://blogs.nvidia.com/wp-content/uploads/2023/10/franka_cabinet.mp4 由Eureka教会的机器臂打开抽屉。 这个AI代理使用GPT-4 LLM和生成AI来编写奖励机器人进行强化学习的软件代码。它不需要具体的任务提示或预定义的奖励模板,并且可以根据人类的反馈快速调整奖励以更准确地实现开发者的愿景。 在Isaac Gym的GPU加速模拟中,Eureka可以快速评估大量奖励候选项的质量,从而实现更高效的训练。 Eureka随后构建了关于训练结果的关键统计数据的摘要,并指导LLM改进奖励函数的生成。通过这种方式,人工智能实现了自我提升。它教会了各种各样的机器人,包括四足、两足、四旋翼、灵巧手臂、协作机械臂等完成各种任务。 研究论文对20项Eureka训练任务进行了详细评估,基于需要机器手展示各种复杂操纵技能的开源灵巧性基准。 来自九个Isaac Gym环境的结果通过使用NVIDIA Omniverse生成的可视化展示。 https://blogs.nvidia.com/wp-content/uploads/2023/10/humanoid.mp4 人形机器人通过Eureka学会奔跑步态。…

Leave a Comment

供全世界看到:非营利组织采用 GPU 强化模拟器培训视力保护手术的医护人员

利用由GPU驅動的手術模擬設備,每年有超過2,000名醫生在低收入國家接受培訓,以治療白內障盲症,這是世界上最主要的致盲原因之一,感謝非營利組織HelpMeSee。 儘管白內障手術的成功率約為99%,但由於眼科醫生嚴重短缺,許多低收入和中等收入國家的患者缺乏接受常見手術的機會。據估計,受白內障相關視覺障礙或失明影響的1億人中,有90%位於這些地區。 通過培訓更多的醫療保健提供者—包括那些沒有眼科專業的人—以治療白內障,HelpMeSee改善了患者的生活質量,比如一位來自孟買附近比瓦迪的兩個年幼兒童的母親,她的雙眼被白內障致盲。 “手術後,她的視力顯著提高,她能夠找到工作,改變了她整個家庭的命運,”HelpMeSee在印度的首席教官和專業人士Dr. Chetan Ahiwalay表示。“她和她的丈夫現在幸福地養育他們的孩子,過著健康的生活。這些就是支持我們作為醫生的動力。” HelpMeSee的模擬器設備使用NVIDIA RTX GPU進行高質量視覺渲染,為醫生提供更真實的培訓環境,以磨練其手術技巧。為了進一步改善學員的體驗,NVIDIA的專家正在與HelpMeSee團隊合作,提高渲染性能,增加視覺逼真度,並結合實時光線追蹤和人工智能等下一代技術來改進模擬器。 通過可接觸的培訓解決可治療的失明問題 高收入國家每百萬居民擁有的眼科醫生數量比低收入國家多18倍。這種差距在某些國家更大,使得那些資源匱乏地區的人更難接受可避免的失明治療。 HelpMeSee的設備可以使用受航空業啟發的沉浸式工具培訓醫生進行多種眼科手術。該團隊在印度、中國、馬達加斯加、墨西哥和美國等國家培訓醫生,每年為新手術推出多語言培訓。 眼科手術模擬器提供逼真的3D視覺效果、觸覺反饋、性能評分和多次嘗試手術步驟的機會,直到學員達到熟練程度。像Dr. Ahiwalay這樣的合格教師會前往鄉村和城區進行結構化課程的培訓,并幫助外科醫生從模擬器過渡到實際手術。 培訓課程中醫生學習進行手動小切口白內障手術。 “我們正在降低醫療從業者學習這些具體技能的門檻,這將對患者產生深遠的影響,”位於紐約的HelpMeSee的首席執行官Dr. Bonnie An Henderson表示。“基於模擬的培訓將提高手術技能,同時保障患者的安全。” <b展望ai和高級渲染技術</b展望ai和高級渲染技術 HelpMeSee與位於瑞典哥德堡的醫療虛擬現實模擬器供應商Surgical Science合作,開發其設備的3D模型和實時渲染技術。其他合作夥伴,例如法國斯特拉斯堡的InSimo和印度普內的Harman Connected Services,則分別開發基於物理的模擬和用戶界面。 “由于在眼科手术中存在许多关键的视觉线索,模拟需要高度的真实性,”…

Leave a Comment