Press "Enter" to skip to content

80 search results for "原文"

Microsoft的Azure AI模型目录以突破性的人工智能模型扩展

“`html Microsoft已经发布了Azure AI模型目录的重大扩展,其中包括一系列基础和生成型AI模型。这一举措标志着人工智能领域的重大进步,将不同的创新技术汇集在一起。 AI目录的多样增加 Azure AI模型目录现在包括40个新模型,引入了4种新模式,包括文本到图像和图像嵌入功能。主要增加的模型有: 稳定扩散模型:由Stability AI和CompVis开发,这些模型在文本到图像和图像修复任务中表现出色,为创意内容生成提供了稳健且一致的输出。 TII的Falcon模型:Falcon模型具有70亿和400亿参数,针对推断进行了优化,在性能上超过了许多开源模型。 Meta的Code Llama:一系列用于辅助编码任务的生成型文本模型,参数从70亿到340亿不等。 NVIDIA Nemotron:这款来自NVIDIA的80亿参数模型提供了各种功能,包括聊天和问答,与NVIDIA NeMo框架兼容。 Meta的SAM(Segment Anything Model):一种能够从简单的输入提示中创建高质量对象掩码的图像分割工具。 模型即服务(MaaS) 在战略上,微软还引入了模型即服务(MaaS)的概念。该服务将使专业开发人员能够将来自Meta的Llama 2、Cohere的Command、G42的Jais以及Mistral的高级模型作为API端点集成到其应用程序中。这种集成过程简化了开发人员资源供应和托管管理的复杂性。 创新型模型亮点 Jais:G42开发的具有130亿参数的模型,经过了包含1160亿阿拉伯语标记的数据集的训练。Jais是阿拉伯世界在人工智能方面的重要进步。 Mistral:拥有73亿参数的大型语言模型,由于具有分组查询注意力和滑动窗口注意力特征,因此其推断速度更快且响应序列更长。 Phi模型:包括Phi-1-5和Phi-2,这些变压器展示了改进的推理能力和安全措施,适用于从写作到逻辑推理的各个领域的应用。 面向未来的创新…

Leave a Comment

每个数据科学家都应该了解的图像嵌入的前10个预训练模型

计算机视觉的快速发展——图像分类的用例得益于迁移学习的出现而进一步加快在大型图像数据集上训练计算机视觉神经网络模型需要大量的计算资源和时间幸运的是,通过迁移学习,这些时间和资源可以减少

Leave a Comment

认识CodeGPT:AI社区中掀起风潮的全新代码生成工具

在AI代码生成工具中,CodeGPT是程序员的最爱之一。它是用于Visual Studio Code的附加组件,利用GPT-3语言模型生成代码、翻译语言、撰写各种类型的内容和回答问题。 CodeGPT目前还在开发中,但它有潜力改变开发人员编码的方式。CodeGPT能够理解自然语言是与其他AI代码生成工具不同的特点之一。这意味着开发人员可以用自然语言编写描述来指示CodeGPT构建代码,而不是使用正式的编程术语。对于学习新语言或框架的开发人员来说,这样节省的时间可能是很大的。 CodeGPT的另一个优点是它能够生成高效和惯用的代码。CodeGPT之所以具有这个优势,是因为它经过大量实际项目的代码训练。这意味着CodeGPT精通每种编程语言的规范和标准。 最后,CodeGPT经常发布更新和增强功能。CodeGPT团队定期更新软件,修复可能出现的问题。这意味着CodeGPT在代码生成、语言翻译、内容创建和问题回答等各种任务中不断改进。 CodeGPT的应用领域: CodeGPT可以自动完成不完整或不清楚的代码片段。特别是在处理庞大而复杂的代码库时,这对工程师来说是一个巨大的时间节省。 使用CodeGPT可以生成函数、类甚至整个程序。这可以帮助快速生成基本代码或开发新概念。 CodeGPT可以帮助程序员重构代码,推荐更清晰、更惯用的代码结构。它还可以帮助程序员发现和修复代码中常见的安全漏洞。 在调试代码方面,CodeGPT是一个有用的工具,因为它提供可能导致错误的原因,并提供修复建议。 查找错误:CodeGPT可以帮助开发人员通过识别潜在问题和提供测试来发现代码中的错误。 如果使用正确,CodeGPT是一个强大的工具,可以提高程序员编写代码的速度、效率和质量。 您可以在这里获取CodeGPT:https://marketplace.visualstudio.com/items?itemName=DanielSanVoAGI.dscodegpt&ssr=false 您可以在这里下载并使用Mistral:https://docs.codegpt.co/docs/tutorial-ai-providers/ollama Introducing CodeGPT, running the @MistralAI 7B model locally in VSCode…

Leave a Comment

“Phind的新人工智能模型在编码方面表现优于GPT-4,在速度上类似于GPT-3.5,并具备16k的上下文”

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-08-at-8.11.55-PM-1024×520.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-08-at-8.11.55-PM-150×150.png”/><p>在编码和技术问题解决中,速度和准确性之间的权衡一直是一个挑战,当寻找复杂问题的答案时,开发人员经常需要快速可靠的帮助。</p><p>GPT-4经常面临较慢的响应时间问题。获得答案的延迟可能会影响生产力。</p><p>Phind的v7模型超过了GPT-4的编码能力,而且速度非常快。Phind模型的响应时间提高了5倍,只需10秒钟即可提供高质量的技术问题答案,相比其前身需要50秒的等待时间,有了显著的改进。</p><p>Phind模型现在已经进入第7代,该模型是基于CodeLlama-34B优化而建立的,是第一个在HumanEval得分中超过GPT-4的模型。这个新模型经过了700亿个高质量代码和推理问题的令人印象深刻的优化。虽然它获得了显著的HumanEval分数达到了74.7%,但值得注意的是,真实世界中的有用性往往超越这些指标。通过全面的反馈收集和用户体验,Phind模型已经证明了在实际编码场景中,能够始终达到或超过GPT-4的效用。</p><p>Phind模型的一大亮点是其速度。通过利用NVIDIA的H100s和TensorRT-LLM库的强大功能,它可以在单个流中每秒处理100个标记,为需要帮助的用户提供快速的协助。</p><p>此外,Phind模型在响应中提供了广泛的上下文支持,支持高达16,000个标记。目前,该模型允许在网站上输入最多12,000个标记,其余4,000个用于基于网络的结果。</p><p>尽管Phind模型提供了实质性的好处,在某些方面仍需要改进。一个值得注意的挑战是一致性,特别是处理复杂问题时。在这些情况下,Phind模型可能需要更多的迭代才能得出正确答案,而GPT-4则不同。</p><p>总之,Phind模型是解决高效可靠编码辅助的持续问题的一种有希望的解决方案。它集合了卓越的编码能力,显著的速度和广泛的上下文支持,为用户提供了真实世界的帮助。随着这个模型的不断发展和解决剩余的挑战,它有潜力在回答技术问题的方式上实现革命性的改变,为开发人员和技术爱好者提供更高效和生产力的编码体验。</p><p>本文发表在<a href=”https://www.xiaozhuai.com/chinese-ai-researchers-have-proposed-4k4d-a-4d-point-cloud-representation-that-enables-hardware.html”>xiaozhuai.com</a>上,原文标题《Phind的新AI模型在编码方面超越了GPT-4,速度和16k上下文类似于GPT-3.5》。</p><p>本文首发于<a href=”/?s=MarkTechPost”>MarkTechPost</a>。</p>

Leave a Comment

使用AutoGPTQ和transformers来使LLMs更轻量

大型语言模型展示了在理解和生成类似人类文本方面的出色能力,彻底改变了各个领域的应用。然而,它们对于训练和部署的消费者硬件的需求变得越来越具有挑战性。 🤗 Hugging Face的核心使命是普及良好的机器学习,这包括尽可能使大型模型对所有人都可访问。在与bitsandbytes合作的同样精神下,我们刚刚在Transformers中集成了AutoGPTQ库,使用户能够使用GPTQ算法(Frantar等人,2023年)将模型量化为8、4、3甚至2位精度并运行。4位量化的准确度几乎没有下降,并且在小批量大小的推理速度上与fp16基准相当。请注意,GPTQ方法与bitsandbytes提出的事后训练量化方法略有不同,因为它需要通过校准数据集。 这个集成适用于Nvidia GPU和RoCm-powered AMD GPU。 目录 资源 GPTQ论文的简要摘要 AutoGPTQ库 – 用于高效利用GPTQ的一站式库 🤗 Transformers中对GPTQ模型的本机支持 使用Optimum库对模型进行量化 通过文本生成推理运行GPTQ模型 使用PEFT对量化模型进行微调 改进的空间 支持的模型 结论和最后的话 致谢 资源 这篇博文和发布附带了一些资源,帮助您开始使用GPTQ量化:…

Leave a Comment

转变AI互动:LLaVAR在视觉和基于文本的理解方面表现出色,标志着多模态指令跟踪模型的新时代

通过将多个活动合并为一条指令,指令调整增强了对新任务的泛化能力。这种对开放式问题的回应能力为最近的聊天机器人爆发做出了贡献,因为ChatGPT 2。最近,像CLIP-ViT这样的视觉编码器已经作为视觉指令调整模型的一部分添加到会话代理中,从而可以基于图片进行人-代理交互。然而,它们需要帮助理解图片中的文本,可能是由于训练数据中自然图像的占主导地位(例如,Conceptual Captions和COCO)。然而,阅读理解对人类的日常视觉感知至关重要。幸运的是,OCR技术使得能够从照片中识别出文字。 通过将识别到的文本添加到视觉指令调整模型的输入中(较大的上下文长度),可以(天真地)增加计算量,而不完全利用视觉编码器的编码能力。为了做到这一点,他们建议收集需要理解图片中的文字的指令遵循数据,以改进视觉指令调整模型的端到端性能。通过将手动给定的指示(例如,“识别提供的图像中可见的任何文本。”)与OCR结果相结合,他们首先使用文本丰富的图像收集了422K条嘈杂的指令遵循数据。 这些大规模的嘈杂对齐数据显著增强了语言解码器和视觉特征之间的特征对齐。此外,他们要求仅使用OCR结果和图像标题作为如何遵循指令的高质量示例,让纯文本GPT-4生成16K个对话。每个对话可能包含多轮的问答对。为了根据输入产生复杂的指令,这种方法要求GPT-4对OCR数据进行去噪,并创建独特的问题(图1)。他们使用获得的数据评估了LLaVA的预训练和微调阶段,分别使用嘈杂和高质量的示例来评估数据的有效性。 图1显示了如何收集关于遵循指令的准确统计数据。| https://arxiv.org/pdf/2306.17107.pdf 来自乔治亚理工学院、Adobe研究和斯坦福大学的研究人员开发了LLaVAR,即能够阅读的大型语言和视觉助手。为了更好地编码细微的文本特征,他们在原始LLaVA的基础上将输入分辨率从2242提高到3362进行了实验。根据评估技术,他们与四个基于文本的VQA数据集以及ScienceQA微调结果一起给出了研究结果。此外,他们在基于GPT-4的指令遵循评估中使用了来自LAION的50张文本丰富图片和来自COCO的30张自然图片。此外,他们还提供了定性分析,以衡量更复杂的指令遵循能力(例如海报、网站截图和推文)。 总之,他们的贡献包括: • 他们收集了16K条高质量和422K条嘈杂的指令遵循数据。两者都被证明可以改善视觉指令调整。这种改进的能力使得他们的模型LLaVAR能够基于多样的在线材料(包括文本和图片)进行端到端交互,同时仅在自然照片上略微提高模型的性能。 • 训练和评估数据以及模型里程碑都已公开提供。 这篇文章的英文原文发表在MarkTechPost网站上。

Leave a Comment

Can't find what you're looking for? Try refining your search: