Press "Enter" to skip to content

36 search results for "Poe"

如何使用Github?逐步指南

在GitHub上注册的六个步骤 步骤 1:注册GitHub账号 访问他们的网站并点击注册按钮。 填写相关信息,包括您的用户名、电子邮件和密码。 完成后,验证您的电子邮件,您将拥有一个免费的GitHub账号,可用于代码存储库和协作。 https://docs.github.com/en/get-started/quickstart/hello-world 步骤 2:在GitHub上创建一个代码库 在GitHub上创建一个代码库 要为您的项目创建GitHub代码库,请按照以下简单的步骤进行: 1. 在任何GitHub页面的右上角点击“+”符号,然后选择“新建代码库”。 2. 在“代码库名称”框中为您的代码库命名。 3. 在“描述”框中添加简短的描述。 4. 选择您的代码库是公开还是私人。 5. 选中“添加README文件”的选项。 6. 点击“创建代码库”按钮。 此代码库可以用于组织和存储文件、与他人进行协作,并在GitHub上展示您的项目。 https://docs.github.com/en/get-started/quickstart/hello-world…

Leave a Comment

「前40+个创造性AI工具(2023年12月)」

ChatGPT – GPT-4 GPT-4是OpenAI最新的LLM,比之前的版本更有创意、准确和安全。它还具有多模态能力,即能够处理图像、PDF、CSV等格式文件。通过引入代码解释器,GPT-4现在可以运行自己的代码,避免产生幻觉并提供准确的答案。 Bing AI Bing AI由OpenAI的GPT-4模型推动,可以遍历网络提供准确答案。它还具有根据用户提示生成图像的功能。 GitHub Copilot GitHub Copilot是一款分析代码并提供即时反馈和相关代码建议的AI代码补全工具。 DALL-E 2 DALL-E 2是由OpenAI开发的文本到图像生成工具,根据用户的提示创建原创图像。它被设计用于拒绝不恰当的用户请求。 Cohere Generate Cohere Generate利用人工智能的潜力提升业务运营。它为电子邮件、落地页、产品描述和其他各种需求提供个性化内容。 AlphaCode AlphaCode由DeepMind开发,能以竞争水平编写计算机程序。 Adobe Firefly Firefly是一款图像生成和编辑工具,以其基于提示生成准确性而闻名。它包括广泛的图像修改功能,包括内容类型、颜色、音调、光照和构图工具。…

Leave a Comment

学习数据科学需要多久时间?

介绍 数据科学已经成为技术市场上最有价值的技能之一。在数据科学革命之前,处理数百万个测试用例的数据需要花费长达11-12年的时间。但现在,只需几个月,有时甚至只需要几个星期!那么,学习数据科学需要多长时间?令人惊讶的是,你只需要一年就可以成为一名数据科学家。这取决于你的学习速度和持续性。让我们看看成为数据科学家需要多长时间,以及为什么你应该成为一名数据科学家。 为什么选择数据科学职业? 机器学习和人工智能正在征服世界,得益于不断发展的技术世界。根据预测,到2026年,数据科学市场收入预计将达到$3229亿美元。技术、大数据和机器学习算法在企业中的快速应用导致了数据科学的快速增长。 根据劳动统计局的数据,数据科学家平均年薪约为$100,000。有许多职业机会可供选择,你可以成为数据分析师、数据科学家等,拥有高薪水,符合你的技能。 成为数据科学家需要多长时间? 每个人成为数据科学家的道路可能不同。如果我们将每个月分为特定的主题,你可以在12个月内学习数据科学。只要保持持续的努力和学习的热情,任何人都可以在一年内掌握数据科学的艺术。 然而,学习曲线取决于你的持续性和学习数据科学的时间。由于之前对数据科学具有基础知识,有些人可以较短时间内掌握数据科学。 跟随并在12个月内学习数据科学的基础和复杂概念。让我们看看每个月的内容蓝图,了解学习数据科学需要多长时间。 第1个月:数据科学工具包 让我们以基本的数据科学工具开启你成为数据科学家的旅程。通过学习常见但重要的数据科学工具,如Python及其库NumPy、Pandas、Matplotlib和Seaborn,可以为接下来几个月打下坚实的基础。 第2个月:数据可视化 在打下坚实基础之后,我们进入成为数据科学家的下一个阶段,掌握数据可视化的艺术。熟悉数据可视化工具,如Tableau,掌握绘制图表、分布地图等技术。本月还将开始学习SQL。 第3个月:数据探索 第三个月重点介绍如何利用隐藏数据进行数据探索。数据探索是指将信息型数据以关键洞察的形式展示出来。本月将教你如何使用探索性数据分析(EDA)探索数据。你可以学习成为一名数据科学家所需的统计学基础知识。 第4个月:机器学习基础与讲故事的艺术 本月将开始你的机器学习奇妙之旅。你将学习机器学习的基础知识,并熟悉技术术语和技巧。通过结构化思维,你将掌握讲故事的艺术。 第5个月:高级机器学习 从第五个月开始,事情将变得严肃起来,因为您将学习高级机器学习算法来提升您的技能。在这个月里,您可以期望学习特征工程以及如何处理文本和图像。 第六个月:无监督机器学习 在这个月里,学会处理非结构化和无标签的数据。学习如何使用无监督机器学习算法处理非结构化数据,例如PCA、聚类、K-Means、异常检测等。您将终于开始进行项目。 第七个月:推荐引擎 推荐系统是Netflix、YouTube、Zomato等准确推荐背后的支撑。在第七个月,学习不同推荐技术背后的逻辑以及如何构建推荐引擎。同时,进一步实施令人兴奋的项目。 第八个月:处理时间序列数据 全球许多组织依赖时间序列数据观察数据集随时间的重复测量。在这个月里,学习如何处理时间序列数据,以及解决时间序列问题的有效技术。…

Leave a Comment

这篇人工智能论文介绍了JudgeLM:一种用于在开放式场景中进行大规模语言模型可扩展评估的新方法

近期,大型语言模型(LLM)因其出色的遵循指令能力和处理广泛的开放式场景的能力而受到了广泛关注。通过指令微调,研究人员提供了许多与人类偏好相一致的技术,这些技术基于开源LLM,如FlanT5、OPT、LLaMA和Pythia等。这些对齐的LLM显示出对人类命令的理解能力提高,并产生更合乎逻辑的回复。然而,当前的基准和传统的测量方法需要充分评估LLM在开放式场景中的能力。 因此,需要一种新的基准方法,可以全面评估LLM在开放式活动中的能力。同时,正在进行研究来探索不同的方法来确定LLM的性能。Arena格式技术利用众包平台获取匿名LLM竞赛结果。人类评估可靠,但也需要花费金钱和大量的努力。一些方法使用GPT-4作为仲裁者。然而,这些方法需要API模型转换的可变性和可能的数据泄露,可能会危及仲裁者的重复性。PandaLM致力于改进用于回答评估的开源LLM。 图1(a):JudgeLM的数据生成流程。首先收集105K个种子任务作为问题。然后从11个LLM中提取答案,并随机选择两个答案。最后,输入任务、样本答案对和(如有需要)GPT-4的回复。这样可以得到评分和对仲裁者的详细解释。 然而,这种精细模型在司法岗位上的实用性受到模型大小、训练数据质量和内在LLM偏见的限制。北京市人工智能研究院和华中科技大学的研究人员建议在这项研究中使用优化的开源LLM来评估LLM,这些LLM作为可扩展的仲裁者(JudgeLM)与指导仲裁者达成足够好的一致性。他们的技术将用于训练和评估仲裁者模型的高质量数据集与作为可扩展的仲裁者在开放式任务中担任评估者。他们修改开源LLM以在他们的框架内作为仲裁者,并检查它们在模型大小(7B至33B)和训练数据量(3.5K至100K)方面的扩展能力。 图1(b):JudgeLM的不同特征和微调示例。为了改善LLM作为可扩展仲裁者的性能,他们使用生成的仲裁者样本。他们还建议使用参考答案删除、参考支持和交换增强来微调LLM作为仲裁者,以分别克服格式、知识和位置偏见。 如图1a所示,他们策划的数据集包括105K个种子问题、LLM答案对和教员仲裁者GPT-4的判断。注意,对于每个种子挑战,学生们提出了两个决策——一个带有参考答案,一个没有参考答案。这个数据集的划分是将100K个种子问题用于训练(比PandaLM大2倍),并将剩下的问题用于验证(比PandaLM大29倍)。当LLM作为仲裁者时,位置偏见(偏爱特定情况下的回答)、知识偏见(过度依赖预先训练的信息)和格式偏见(仅在特定提示形式下的最佳性能)等偏见总会出现。 他们提供了处理它们的方法。此外,如图1b所示,他们的JudgeLM系统具有扩展功能,如多轮对话、对单个回复评分以及评判多个答案,除了多模型。相比竞技场格式的方法,他们的解决方案更快捷且经济实惠。例如,JudgeLM-7B是一种模型,可以在3分钟内评估5000对回应,并且只需8个A100 GPU。JudgeLM的隐私保护和可重复性比闭源LLM评委更多。他们的方法研究了LLM微调的扩展能力和偏见,与并发的开源LLM评委相比。 此外,他们提供的数据集是最全面和出色的,将极大地帮助未来的评估模型分析研究。以下简要描述了他们的主要贡献: • 他们提出了JudgeLM,一种可扩展的语言模型评委,用于评估开放式场景下的LLM。 • 他们引入了一个高质量、大规模的数据集,用于评估模型,丰富了不同的种子任务、LLM生成的答案以及来自GPT-4的详细判断,为未来评估LLM的研究奠定了基础。它超过了人对人的一致性,达到90%以上。此外,它的JudgeLM具有处理长时间作业的广泛能力。 • 他们研究了LLM中存在的偏见、评委微调,并提出了几种解决方案。他们的技术极大地提高了模型在各种场景下的一致性,提高了JudgeLM的可靠性和适应性。

Leave a Comment

2023年9月最佳40+个生成式人工智能工具

ChatGPT – GPT-4 GPT-4是OpenAI的最新LLM,比其前身更有创造力、准确性和安全性。它还具有多模态能力,即它能够处理图像、PDF、CSV等。通过引入代码解释器,GPT-4现在可以运行自己的代码,以避免幻觉并提供准确的答案。 Bing AI Bing AI由OpenAI的GPT-4模型提供动力,可以遍历网络提供准确的答案。它还具有根据用户提示生成图像的能力。 GitHub Copilot GitHub Copilot是一个AI代码补全工具,它分析代码并提供即时反馈和相关的代码建议。 DALL-E 2 DALL-E 2是OpenAI开发的文本到图像生成工具,它根据用户的提示创建原始图像。它被设计为拒绝不适当的用户请求。 Cohere Generate Cohere Generate利用AI的潜力来增强业务运营。它为电子邮件、落地页、产品描述和其他各种需求提供个性化内容。 AlphaCode AlphaCode由DeepMind开发,能够以竞争水平编写计算机程序。 Adobe Firefly Firefly是一款以提示为图像输出准确性而闻名的图像生成和编辑工具。它包括各种图像修改功能,包括内容类型、颜色、色调、光照和构图工具。…

Leave a Comment

新加坡国立大学(NTU)的研究人员推出了ResShift:一种新的上采样模型,它利用残差位移技术,相比其他方法更快地实现图像超分辨率

低级视觉中的一个基本问题是图像超分辨率(SR),其目标是从低分辨率(LR)图像恢复高分辨率(HR)图像。由于现实环境中降级模型的复杂性和不可知性,这个问题需要解决。扩散模型是一种最近开发的生成模型,在创建图像方面取得了非凡的成功。它还在解决一些下游低级视觉问题方面显示出了显著的潜力,如图像编辑、图像修补和图像上色。此外,研究人员仍在努力确定扩散模型在困难且耗时的SR任务中的表现如何。 一个典型的方法是从头开始,将LR图像引入当前扩散模型(如DDPM)的输入后,使用SR的训练数据重新训练模型。另一种常见方法是在生成所需的HR图像之前,修改无条件预训练扩散模型的反向路径。不幸的是,这两种算法都继承了支撑DDPM的马尔可夫链,可能在推理中效率低下,有时需要几百甚至几千个采样步骤。尽管已经提出了几种加速方法来压缩推理中的采样阶段,但这些策略通常会导致性能显著降低和结果过于平滑。 图1比较了近年来包括BSRGAN、RealESRGAN、SwinIR、DASR和LDM在内的最新技术的质量。对于LDM和他们的方法,他们使用公式“LDM(或我们的)-A”来表示可视化的采样步骤数量,其中“A”是总的采样步骤数。请放大以获得更清晰的查看。 必须创建一种新颖的用于SR的扩散模型,以实现效率和性能的统一,而不会牺牲其中任何一项。让我们回顾一下用于图像生成的扩散模型。在正向过程中,通过许多步骤在观测数据上逐渐构建马尔可夫链,将其转化为预先指定的先验分布,通常是传统的高斯分布。然后,可以通过从先验分布中采样噪声图像并将其输入到马尔可夫链的反向路径中来生成图像。尽管高斯先验对于图像生成是一个不错的选择,但对于SR来说可能不是最佳选择,因为LR图像已经可用。 根据他们在这项研究中的论证,用于SR的适当扩散模型应该以基于LR图像的先验分布为基础,从而实现从LR图像到HR图像的迭代恢复,而不是基于高斯白噪声。这样的设计还可以减少采样所需的扩散步骤数量,提高推理的效率。南洋理工大学的研究人员提出了一种有效的扩散模型,它使用较短的马尔可夫链在HR图像和其等效的LR图像之间进行切换。马尔可夫链的初始状态近似于HR图像的分布,而其结束状态近似于LR图像的分布。 他们精心设计了一个过渡核,逐步调整它们之间的残差,以实现这一目标。残差信息可以在多个阶段中快速传递,使该技术比当前基于扩散的SR方法更加高效。此外,他们的体系结构使得可以以清晰、分析的方式表达证据的下限,简化训练优化目标的归纳过程。他们基于这个构建的扩散核心创建了一个高度灵活的噪声调度,调节残差的移动速率和每个步骤中的噪声水平。 通过调整其超参数,该调度方案可以在检索结果的保真度和真实性之间进行权衡。简而言之,以下是本研究的重要贡献: • 他们为SR提供了一种有效的扩散模型,通过在推理过程中移动两者之间的残差,允许从不理想的LR图像到期望的HR图像的迭代采样过程。广泛的研究表明,他们的方法在效率方面具有优势,只需要15个简单步骤即可获得理想的结果,超过或至少与现有的基于扩散的SR技术相等,后者需要一个冗长的采样过程。图1显示了他们的检索结果与现有技术的对比。 • 对于建议的扩散模型,他们开发了一个高度可变的噪声调度,可以更准确地控制过渡过程中的残差和噪声水平的变化。

Leave a Comment

2023年最佳40个生成式人工智能工具

ChatGPT – GPT-4 GPT-4 是 OpenAI 的最新 LLM,比其前身更具创造性、准确性和安全性。它还具备多模态能力,即能够处理图像、PDF、CSV等文件。通过引入代码解释器,GPT-4 现在可以运行自己的代码,避免产生幻觉并提供准确的答案。 Bing AI Bing AI 使用 OpenAI 的 GPT-4 模型,能够遍历网络提供准确的回答。它还具有根据用户提示生成图像的能力。 GitHub Copilot GitHub Copilot 是一种 AI 代码补全工具,可以分析代码并提供即时反馈和相关的代码建议。…

Leave a Comment

2023年最佳50多款AI编码助手工具

ChatGPT ChatGPT能够在不依赖现有代码参考的情况下编写代码。此外,它能够高效地调试用户的代码。通过引入代码解释器,ChatGPT扩展了其功能,包括自我测试自身代码的能力。 Bard Google的Bard和ChatGPT一样,能够以对话方式进行交互,适用于编写和调试代码。 GitHub Copilot GitHub Copilot是一种由人工智能驱动的代码补全工具,它分析上下文代码并通过建议相关的代码片段提供实时反馈和推荐。 Tabnine Tabnine是一种基于人工智能的代码补全工具,它为GitHub Copilot提供了一种替代方案。它在提供全功能的人工智能代码补全能力方面独具专长。 Code Snippets AI Code Snippets允许用户将问题转化为代码。它是一个集成了代码解释、代码片段库等功能的多合一工具。 MutableAI MutableAI是开发人员经常使用模板代码并希望具有高效自动完成能力的理想选择。它提供代码补全功能以及将代码整理和归类到逻辑组中的能力。 Cogram Cogram是一种SQL代码生成工具,允许用户使用自然语言编写高效的SQL查询。 Amazon CodeWhisperer CodeWhisperer也是由AWS开发的代码补全工具,它可以根据注释和现有代码进行智能补全。 Replit Replit是一个以浏览器为基础的在线编码平台。它的一个功能是Ghostwriter,根据上下文提供相关的代码建议。…

Leave a Comment

释放创造力:探索生成式AI艺术应用

介绍 生成式人工智能(Generative AI)是人工智能的一个分支,为艺术创作开辟了新的可能性。通过利用机器学习算法,生成式人工智能可以生成独特而引人入胜的艺术作品,从而革新了创作过程。我们将深入探讨生成式人工智能在各种艺术领域的应用,展示它如何改变传统方法并释放出无与伦比的创造力。 本文是作为“数据科学博文马拉松”(Data Science Blogathon)的一部分发表的。 音乐创作 生成式人工智能在音乐创作方面取得了重要的进展,能够生成原创的旋律、和声和节奏。使用循环神经网络(RNNs)或变换器模型,生成式人工智能算法从现有的音乐作品中分析模式和风格,创作出全新的音乐作品。这种创新的方法使音乐家可以探索新的音乐领域,尝试独特的声音,并创作出超越传统流派的作品。 下面的代码片段演示了使用Python库“magenta”进行音乐生成算法的简化示例。 import magenta # 载入预训练的音乐生成模型 model = magenta.models.melody_rnn.MelodyRnnModel() # 生成新的旋律 generated_melody = model.generate() # 播放或保存生成的旋律 generated_melody.play() generated_melody.save(‘generated_melody.mid’)…

Leave a Comment

来自谷歌、康奈尔大学和加州大学伯克利分校的研究团队提出了OmniMotion:一种革命性的人工智能方法,用于视频中密集和长距离运动估计

稀疏特征跟踪或密集光流一直是运动估计算法中使用的两种主要方法。这两种方法在各自的应用中都取得了成功。然而,这两种方法都不能完全捕捉视频的运动情况:稀疏跟踪不能描述所有像素的运动。相反,成对光流不能捕捉跨越大时序帧的运动轨迹。为了缩小这种差距,许多方法已被用于预测视频中的密集和长程像素轨迹。这些方法从简单的两帧光流场链接技术到直接预测经过多个帧的每个像素轨迹的更高级算法。  然而,所有这些方法在计算速度时都忽略了当前时间或地理上下文的信息。这种本地化可能会导致运动估计在时空上存在不一致性,并在扩展轨迹上积累错误。即使以前的技术考虑了长程上下文,它们也是在2D域中这样做的,这导致了在遮挡情况下的跟踪丢失。创建密集和长程轨迹仍然存在一些问题,包括跟踪遮挡点,保持空间和时间的一致性以及在长时间内保持准确的跟踪。在这项研究中,康奈尔大学、谷歌研究和加州大学伯克利分校的研究人员提供了一种全面的方法,通过使用所有可用的视频数据,为电影中的每个像素估计全长运动轨迹。  他们的方法称为OmniMotion,使用准3D表示,其中一组本地-规范双射将规范3D体积映射到每个帧的本地体积。这些双射将相机和场景运动的组合描述为动态多视角几何的灵活松弛。它们可以监视所有像素,即使是被遮挡的像素,其表示确保周期一致性(“Everything, Everywhere”)。为了联合解决整个视频的运动,“All at Once”,他们为每个视频优化了他们的表示。优化后,电影中的任何连续坐标都可以查询其表示以获得跨越整个物体的运动轨迹。 总之,他们提供了一种可以处理任何相机和场景运动组合的野外电影的方法: 为整个视频中的所有点生成全局一致的全长运动轨迹。 可以跟踪穿过遮挡的点。 可以跟踪穿过遮挡的点。 他们在TAP视频跟踪基准测试中统计说明了这些优势,其中他们获得了最先进的性能,并大大超过了所有以前的技术。他们在其网站上发布了几个演示视频,并计划很快发布代码。 https://omnimotion.github.io/ 从上面的运动路线可以看出,他们提供了一种新颖的技术,用于计算电影中每个帧中每个像素的全长运动轨迹。尽管我们的技术计算了所有像素的运动,但他们仅显示前景对象的稀疏轨迹以保持清晰度。他们的方法即使对于快速移动的物体也能产生精确、连贯的长程运动,并可靠地跨越遮挡,例如狗和秋千的示例。移动物品在第二行中的不同时间点显示,以提供上下文。

Leave a Comment

Can't find what you're looking for? Try refining your search: