在快节奏的人工智能(AI)和机器学习领域,及时了解最新的趋势、突破和讨论至关重要。作为互联网的首页,Reddit成为专家和爱好者的中心。这是我们精心挑选的2023年关注的顶级AI和机器学习相关subreddit列表,让您始终保持关注。 r/MachineLearning 这个subreddit专注于机器学习,定期发布技术和引人入胜的帖子和讨论。对于这个拥有超过250万成员的群体来说,有几个基本的行为规则。这是机器学习爱好者必加的群组。 r/artificial r/artificial是最大的专门讨论人工智能或AI相关问题的subreddit。拥有超过16.7万成员,人们可以在这里找到最新的新闻,实际应用中的AI示例,以及那些从事AI工作或研究的人们的讨论和问题。AI是一个广阔的领域,涉及许多学科和子领域。许多这些子领域也有专门的subreddit。r/artificial涵盖了所有这些内容。它是一个平台,供任何对AI以任何形式进行智能和尊重的讨论感兴趣的人。 r/ArtificialInteligence r/ArtificialInteligence是最流行的AI subreddit之一,您不需要选择内容标签。这个subreddit拥有超过8.8万成员。您可以加入这个subreddit,了解最新的AI动态。 r/Machinelearningnews r/machinelearningnews是一个机器学习爱好者/研究者/记者/作者的社区,他们分享有关AI应用的有趣新闻和文章。因为这些内容每天都会发布,并且经过高度审核以避免任何垃圾信息,所以您不会错过任何关于ML/AI/CV/NLP领域的更新。 r/Automate 这个subreddit有超过7.5万成员参与讨论和帖子,专注于自动化。在r/Automate subreddit上可以找到关于自动化、增材制造、机器人、AI以及其他我们开发的技术的讨论。 r/singularity 这个subreddit致力于对一个假设时期的深思研究,即人工智能发展到超越人类的卓越智能程度,从而从根本上改变文明。拥有超过16.1万成员,这个subreddit上的帖子质量和相关性都很高。它涵盖了技术奇点和相关主题的所有方面,比如人工智能(AI)、人类增强等。 r/agi 这个subreddit拥有约1.25万成员,专注于人工通用智能。人工通用智能(AGI)是指能够完成任何人类可以完成的智力工作的机器。这里的帖子定期发布,内容丰富,讨论富有创意。 r/compsci 任何对计算机科学家们发现的信息感到着迷并愿意分享和讨论的人都应该访问r/compsci subreddit。其中包含了许多关于人工智能的帖子。作为成员,有几个简单的规则需要遵守。这个subreddit拥有超过210万成员。 r/AIethics 伦理在AI中是基础。r/AIethics上有关于如何使用和创造各种AI工具的最新内容。规则很简单。它拥有超过3.2k成员。这个subreddit讨论了人工智能代理应该如何行为以及我们应该如何对待它们。 r/cogsci 尽管认知科学是一个庞大的领域,但这个subreddit的帖子在某种程度上与从科学角度研究心智有关,同时也涉及最新的人工智能。它涵盖了跨学科研究心智和智能的领域,包括哲学、心理学、人工智能、神经科学、语言学和人类学。作为用户,有几个广泛的行为准则需要遵守,它拥有超过10.7万成员。 r/computervision…
Leave a CommentTag: Causal AI
特洛伊战争是著名的,阿喀琉斯通过一次次战胜赫克托尔王子,永远地铭刻了他的名字在历史上,但是如今,在人工智能快速发展的领域中,利用上下文提高学习和理解能力的探索已经成为主角。两个竞争者,prefixLM和causalLM,已经进入战场,进行上下文学习的较量。在这两个语言模型巨头之间的战斗中,它们处理上下文的方式将决定机器学习的学习结果。 挑战者和征服者 prefixLM和causalLM都装备了独特的理论框架进入战场。PrefixLM穿戴着无限制的注意力盔甲,允许所有上下文样本自由交流。它将每个样本视为前缀,并在战斗中对前n个位置进行全面关注。 在战场的另一边,causalLM持有自回归注意力的武器,这是一种限制上下文样本与其未来对应物相互作用的机制。这种策略保持了线性的学习轨迹,防止未来的情节影响学习过程。这是一种专注的方法,但它是否真正捕捉到了上下文的本质呢?它能否战胜PrefixLM对于ICL的强大方法? 战斗开始 为了将理论与实践分开,一系列的合成数值任务成为证明场地,依赖于softmax变换器。线性回归、非线性回归和多类分类构成了prefixLM和causalLM交锋的战场。当尘埃落定时,结果回声着经验证据的声音。 在线性回归任务中,两个模型的训练误差都呈现线性衰减率,这证明了它们的学习能力。然而,当测试误差浮出水面时,局势发生了变化。CausalLM的测试误差明显较大,引起了观众的疑虑。罪魁祸首是什么?CausalLM自回归的性质限制了上下文示例之间的相互关注,导致了次优结果。 冠军从灰烬中崛起 根据经验结果指引的路径,PrefixLM成为上下文学习的冠军。它开放式的方法,使得多样化的上下文样本能够交流,似乎是关键所在。无论是线性回归、非线性回归还是多类分类,PrefixLM始终展示了其优越性,证明了它的上下文能力不可否认。 当这场巨人之间的战斗落幕时,PrefixLM高耸而立,挥舞着全面理解上下文的旗帜。CausalLM虽然勇敢,但也许需要重新审视在上下文领域的策略。这场战斗凸显了PrefixLM确实是今天的冠军,未来将迎来新的挑战者在人工智能的战斗中。 要以更数学的方式深入分析PrefixLM的胜利,请参阅研究论文。
Leave a Comment