Press "Enter" to skip to content

前向传递和反向传播:神经网络101

解释神经网络如何使用PyTorch手动和编码方式“训练”和“学习”数据中的模式

图片由juicy_fish从Flaticon获得。作者已获得Flaticon的许可来使用图片。

背景

在我的过去两篇文章中,我们深入探讨了神经网络的起源,从一个单一的感知器到一个大规模相互连接(多层感知器)非线性优化引擎。如果您对感知器、多层感知器和激活函数不熟悉,我强烈推荐您查看我的之前的文章,因为我们在本文中将讨论相当多的内容:

介绍、感知器和体系结构:神经网络101

神经网络及其构建模块简介

levelup.gitconnected.com

激活函数和非线性:神经网络101

解释为什么神经网络能学习(几乎)任何事物

towardsdatascience.com

现在是时候了解这些神经网络如何“训练”和“学习”您输入其中的数据中的模式了。有两个关键组成部分:前向传播和反向传播。让我们深入研究一下!

架构

让我们快速回顾一下神经网络的一般结构:

一个基本的两个隐藏层的多层感知器。图由作者提供。

每个隐藏神经元执行以下过程:

每个神经元内部执行的过程。图由作者提供。的。
  • 输入:这些是我们数据的特征。
  • 权重:我们将输入乘以的一些系数。算法的目标是找到最优权重。
  • 线性加权和:将输入和权重的乘积相加,并加上一个偏差/偏移项b。
  • 隐藏层:这是存储学习数据模式的多个神经元的地方。上标表示…
Leave a Reply

Your email address will not be published. Required fields are marked *