解释神经网络如何使用PyTorch手动和编码方式“训练”和“学习”数据中的模式

背景
在我的过去两篇文章中,我们深入探讨了神经网络的起源,从一个单一的感知器到一个大规模相互连接(多层感知器)非线性优化引擎。如果您对感知器、多层感知器和激活函数不熟悉,我强烈推荐您查看我的之前的文章,因为我们在本文中将讨论相当多的内容:
介绍、感知器和体系结构:神经网络101
神经网络及其构建模块简介
levelup.gitconnected.com
激活函数和非线性:神经网络101
解释为什么神经网络能学习(几乎)任何事物
towardsdatascience.com
现在是时候了解这些神经网络如何“训练”和“学习”您输入其中的数据中的模式了。有两个关键组成部分:前向传播和反向传播。让我们深入研究一下!
架构
让我们快速回顾一下神经网络的一般结构:

每个隐藏神经元执行以下过程:

- 输入:这些是我们数据的特征。
- 权重:我们将输入乘以的一些系数。算法的目标是找到最优权重。
- 线性加权和:将输入和权重的乘积相加,并加上一个偏差/偏移项b。
- 隐藏层:这是存储学习数据模式的多个神经元的地方。上标表示…