什么是 神经网络?

神经网络是一种受人脑生物神经网络启发的计算模型,由分层组织的相互连接的节点(神经元)组成,使用连接主义方法处理信息。

快速了解

全称人工神经网络
创建时间1943 年由 Warren McCulloch 和 Walter Pitts 提出
规范文档官方规范

工作原理

神经网络由输入层、一个或多个隐藏层和输出层组成。每个神经元接收输入,对其应用权重,将加权输入与偏置相加,然后通过激活函数产生输出。在训练过程中,网络通过反向传播调整权重和偏置,以最小化预测输出与实际输出之间的差异。这种学习过程使神经网络能够识别模式、分类数据,并对复杂的非线性问题进行预测。

主要特点

  • 模拟生物神经元的并行分布式处理架构
  • 无需显式编程即可从训练数据中学习和泛化
  • 通过激活函数实现非线性映射能力
  • 具有容错性,神经元故障时可优雅降级
  • 通过反向传播的权重调整实现自适应学习

常见用途

  1. 图像识别和计算机视觉应用
  2. 自然语言处理和机器翻译
  3. 语音识别和语音合成系统
  4. 推荐系统和个性化引擎
  5. 自动驾驶车辆和机器人控制

示例

loading...
Loading code...

常见问题

神经网络是如何工作的?

神经网络通过模拟生物神经元的工作方式处理信息。每个神经元接收输入,乘以权重后求和,加上偏置,然后通过激活函数产生输出。训练时,网络通过反向传播算法调整权重,使预测结果逐渐接近真实值。多层神经元组成的网络可以学习复杂的非线性关系。

神经网络有哪些常见类型?

常见的神经网络类型包括:1) 前馈神经网络(FNN)- 最基本的类型;2) 卷积神经网络(CNN)- 擅长图像处理;3) 循环神经网络(RNN)- 处理序列数据;4) 长短期记忆网络(LSTM)- 改进的 RNN;5) Transformer - 现代大语言模型的基础;6) 生成对抗网络(GAN)- 用于生成任务。

什么是激活函数?有哪些常用的?

激活函数为神经网络引入非线性,使其能够学习复杂模式。常用的激活函数:1) ReLU - max(0, x),最常用;2) Sigmoid - 输出 0-1 之间,用于二分类;3) Tanh - 输出 -1 到 1 之间;4) Softmax - 用于多分类输出概率;5) GELU - Transformer 中常用。选择取决于任务和网络结构。

什么是反向传播?

反向传播(Backpropagation)是训练神经网络的核心算法。它的工作流程:1) 前向传播计算预测输出;2) 计算预测与真实值的误差(损失);3) 从输出层向输入层反向计算每个权重对误差的贡献(梯度);4) 使用梯度下降更新权重。这个过程反复进行直到模型收敛。

深度学习和神经网络有什么关系?

深度学习是使用深层(多隐藏层)神经网络的机器学习方法。传统神经网络通常只有 1-2 个隐藏层,而深度神经网络可能有几十甚至上百层。深度使网络能够学习更抽象、更复杂的特征表示。现代深度学习的成功得益于大数据、GPU 计算和算法改进(如 ReLU、Batch Normalization)。

相关工具

相关术语

相关文章