Press "Enter" to skip to content

一份完整的资源清单,用于掌握大型语言模型

一份完整的资源清单,用于掌握大型语言模型 四海 第1张

在人工智能这个广阔的领域中,一种名为大型语言模型(LLMS)的革命性力量崛起了。它不仅仅是一个流行词,更是我们的未来。它们理解和生成类似人类的文本的能力使它们成为聚光灯下的焦点,现在它已成为研究的最热门领域之一。想象一下,一个聊天机器人能够像你和朋友聊天一样回应你,或者设想一个内容生成系统,你很难区分它是由人类还是由人工智能写成的。如果这些事情引起了您的兴趣,并且您想深入了解LLMs的核心,那么您来对地方了。我已经收集了一份包括信息文章、课程、GitHub存储库以及相关研究论文的全面资源清单,可以帮助您更好地理解它们。不再拖延,让我们开始我们在LLMs世界中的惊人旅程吧。

1. 基础课程

一份完整的资源清单,用于掌握大型语言模型 四海 第2张

1. 深度学习专项课程 – Coursera

链接: 深度学习专项课程

描述: 深度学习是LLMs的支柱。这门由Andrew Ng教授的综合性课程涵盖了神经网络、计算机视觉和自然语言处理的基础知识,以及如何构建机器学习项目。

2. Stanford CS224N: 深度学习中的自然语言处理 – YouTube

链接: Stanford CS224N: 深度学习中的自然语言处理

描述: 这是一项知识宝藏,为深度学习在自然语言处理领域的尖端研究提供了全面的介绍。

3. HuggingFace Transformers 课程 – HuggingFace

链接: HuggingFace Transformers 课程

描述: 这门课程使用HuggingFace生态系统的库来教授自然语言处理。它涵盖了以下HuggingFace的库的内部工作原理和用途:

  • Transformers
  • Tokenizers
  • Datasets
  • Accelerate

4. ChatGPT开发者提示工程 – Coursera

链接: ChatGPT提示工程课程

描述: ChatGPT是一种流行的LLM,该课程分享了编写有效提示以获得更好回应生成的最佳实践和基本原则。

2. LLM专项课程

一份完整的资源清单,用于掌握大型语言模型 四海 第3张

1. LLM大学 – Cohere

链接: LLM大学

描述: Cohere提供专门的课程来掌握LLMs。他们的连续轨迹详细介绍了自然语言处理(NLP)、LLMs及其架构的理论方面,面向初学者。他们的非连续路径适合于有经验的人士,他们更关注这些强大模型的实际应用和用例,而不是其内部运行方式。

 

2. 斯坦福CS324:大型语言模型 – 斯坦福网站

 

链接: 斯坦福CS324:大型语言模型

描述: 该课程更深入地探讨了这些模型的复杂性。您将探索这些模型的基础知识、理论、伦理和实际方面,同时获得一些实践经验。

 

3. 普林斯顿COS597G:理解大型语言模型 – 普林斯顿网站

 

链接: 理解大型语言模型

描述: 这是一门研究生级的课程,提供全面的课程设置,非常适合深入学习。您将探索BERT、GPT、T5模型、专家混合模型、基于检索的模型等模型的技术基础、能力和限制。

 

4. ETH苏黎世:大型语言模型(LLMs)- RycoLab

 

链接: ETH苏黎世:大型语言模型

描述: 这门新设计的课程全面探索LLMs。深入研究概率基础、神经网络建模、训练过程、扩展技术以及安全性和潜在滥用问题的重要讨论。

 

5. 全栈LLM Bootcamp – The Full Stack

 

链接: 全栈LLM Bootcamp

描述: 全栈LLM bootcamp是一个与行业相关的课程,涵盖了提示工程技术、LLM基础知识、部署策略和用户界面设计等主题,确保参与者能够为LLM应用程序的构建和部署做好充分准备。

 

6. 微调大型语言模型 – Coursera

 

链接: 微调大型语言模型

描述: 微调是一种使LLMs适应特定需求的技术。通过完成这门课程,您将了解何时应用微调、微调的数据准备以及如何训练LLM并评估其性能。

 

3. 文章/书籍

 

一份完整的资源清单,用于掌握大型语言模型 四海 第4张

 

1. ChatGPT在做什么,为什么有效?- 斯蒂芬·沃尔夫勒姆

 

链接: ChatGPT在做什么,为什么有效?

描述:这本短篇小书是由著名科学家Steven Wolfram编写的。他讨论了ChatGPT的基本方面,以及它在神经网络、变形器、注意力机制和自然语言处理方面的进展。对于想要探索LLMs的能力和限制的人来说,这是一本很好的读物。

 

2. 理解大型语言模型:变革性阅读列表 – Sebastian Raschka

 

链接: 理解大型语言模型:变革性阅读列表

描述:它包含了一系列重要的研究论文,并提供了一个从循环神经网络(RNNs)早期论文到具有影响力的BERT模型等的时间顺序阅读列表。对于研究人员和实践者来说,这是一个宝贵的资源,用于研究自然语言处理和LLMs的演变。

 

3. 文章系列:大型语言模型 – Jay Alammar

 

链接: 文章系列:大型语言模型

描述: Jay Alammar的博客是研究大型语言模型(LLMs)和变形器的人的知识宝库。他的博客以其独特的可视化、直观的解释和对主题的全面涵盖而脱颖而出。

 

4. 构建用于生产的LLM应用程序 – Chip Huyen

 

链接: 构建用于生产的LLM应用程序

描述:本文讨论了在生产中使用LLMs的挑战。它提供了有关任务组合性的见解,并展示了有前景的使用案例。对于对实际LLMs感兴趣的任何人,它都非常有价值。

 

4. Github存储库

 

一份完整的资源清单,用于掌握大型语言模型 四海 第5张

 

1. Awesome-LLM(9k ⭐)

 

链接: Awesome-LLM

描述:这是一个精选的集合,包括大型语言模型(LLMs)的论文、框架、工具、课程、教程和资源,特别强调ChatGPT。

 

2. LLMsPracticalGuide(6.9k ⭐)

 

链接: 大型语言模型实用指南

描述:它帮助实践者在LLMs广阔的领域中进行导航。它基于题为在实践中利用LLMs的力量:ChatGPT及更多的调查博客。

 

3. LLMSurvey(6.1k ⭐)

 

链接: LLMSurvey

描述:这是一份基于论文《大型语言模型综述》的调查论文和资源集合。它还包含了GPT系列模型技术演进的插图以及在LLaMA上进行的研究工作的进化图。

 

4. 令人敬畏的Graph-LLM ( 637 ⭐ )

 

链接:  Awesome-Graph-LLM

描述:对于对图形技术与LLMs相交感兴趣的人来说,这是一个宝贵的资源。它提供了一系列研究论文、数据集、基准测试、调查和工具,深入探讨了这个新兴领域。

 

5. 令人敬畏的Langchain ( 5.4k ⭐ )

 

链接:  awesome-langchain

描述:LangChain是LLM项目的快速高效框架,而这个仓库是追踪与LangChain生态系统相关的倡议和项目的中心。

 

5. 其他资源 – 研究和调查论文

 

  1. 在人工智能生成内容时ChatGPT的综述“  – 这是LLMs初学者的绝佳起点。它全面介绍了ChatGPT的基础技术、应用和挑战。
  2. 大型语言模型综述” – 它涵盖了LLMs的最新进展,特别是在预训练、适应调整、利用和容量评估这四个主要方面。
  3. 大型语言模型的挑战和应用” – 讨论了LLMs的挑战以及LLMs的成功应用领域。
  4. 注意力就是一切” – Transformer是GPT和其他LLMs的基石,这篇论文介绍了Transformer的架构。
  5. 注释版Transformer” – 这是哈佛大学的资源,提供了详细的、注释说明的Transformer架构,它是许多LLMs的基础。
  6. 插图版Transformer” – 这是一个视觉指南,帮助您深入了解Transformer的架构,使复杂的概念更易理解。
  7. BERT:用于语言理解的深度双向Transformer的预训练” – 这篇论文介绍了BERT,它是一种高度有影响力的LLM,为众多自然语言处理(NLP)任务设置了新的基准。

 

总结

 

在本文中,我为掌握大型语言模型(LLMs)提供了一个广泛的资源列表。然而,学习是一个动态的过程,而知识的分享正是其中的核心。如果您有其他资源,认为它们应该包含在这个详尽的列表中,请毫不犹豫地在评论区分享。您的贡献对于其他人的学习之旅可能是无价的,为知识丰富创造了一个互动和协作的空间。

[Kanwal Mehreen](https://www.linkedin.com/in/kanwal-mehreen1/) 是一个有志成为软件开发人员的人,对数据科学和人工智能在医学中的应用有浓厚的兴趣。Kanwal被选为2022年亚太地区的Google Generation Scholar。Kanwal喜欢通过撰写关于热门话题的文章来分享技术知识,并热衷于改善科技行业中女性的代表性。

Leave a Reply

Your email address will not be published. Required fields are marked *