什么是 卷积神经网络?

卷积神经网络(CNN,Convolutional Neural Network)是一类专门用于处理图像等结构化网格数据的深度神经网络,通过卷积层使用可学习的滤波器自动学习空间层次特征,从而检测边缘、纹理和复杂对象等模式。

快速了解

创建时间1989 年由 Yann LeCun 等人提出(LeNet)
规范文档官方规范

工作原理

卷积神经网络的设计灵感来源于生物视觉皮层,彻底革新了计算机视觉领域。其架构通常由三种主要类型的层组成:用于提取特征的卷积层、用于降低空间维度同时保留重要信息的池化层,以及用于执行高级推理和分类的全连接层。CNN 的关键创新在于通过卷积核实现参数共享,这大大减少了与全连接网络相比的参数数量,同时保持了检测输入中任意位置特征的能力。这种平移不变性使 CNN 在图像相关任务中特别有效。

主要特点

  • 局部感受野能够捕获输入数据中的空间关系
  • 通过卷积核实现参数共享,降低模型复杂度
  • 平移不变性使特征检测不受位置影响
  • 从低级边缘到高级对象的层次化特征提取
  • 池化操作提供空间不变性和降维功能
  • 稀疏连接相比全连接网络减少过拟合风险

常见用途

  1. 图像分类与识别(ImageNet、CIFAR-10)
  2. 目标检测与定位(YOLO、Faster R-CNN)
  3. 人脸识别与验证系统
  4. 医学图像分析(肿瘤检测、X 光诊断)
  5. 自动驾驶车辆感知与场景理解

示例

loading...
Loading code...

常见问题

什么是深度学习中的 CNN?

CNN(卷积神经网络)是一种专为处理图像等网格状数据设计的深度学习架构。它使用带有可学习滤波器的卷积层自动提取边缘、纹理和复杂对象等空间特征,以层次化的方式进行学习。

CNN 是如何工作的?

CNN 通过三种主要层类型工作:卷积层应用滤波器检测特征,池化层减少空间维度同时保留信息,全连接层执行分类。滤波器在输入上滑动,无论位置在哪都能检测模式。

CNN 和 RNN 有什么区别?

CNN 专为空间数据(图像)设计,使用卷积操作;RNN 处理序列数据(文本、时间序列),使用循环连接。CNN 擅长检测局部模式;RNN 捕获时间依赖。CNN 可以并行处理输入;RNN 顺序处理。

有哪些流行的 CNN 架构?

流行的架构包括 LeNet(原始)、AlexNet(突破性)、VGGNet(深度堆叠)、ResNet(跳跃连接)、Inception/GoogLeNet(多尺度)、EfficientNet(复合缩放)和 MobileNet(移动端优化)。每个都引入了推动领域发展的创新。

CNN 有哪些常见应用?

CNN 用于图像分类、目标检测(YOLO、Faster R-CNN)、人脸识别、医学图像分析(肿瘤检测、X光)、自动驾驶感知、视频分析,甚至使用一维卷积的文本分类等非图像任务。

相关工具

相关术语

相关文章

深度学习基础:神经网络、训练算法与现代架构详解

全面系统深度硬核解析人工智能深度学习(Deep Learning)的底层数学核心原理,深入探讨反向传播算法(Backpropagation)计算图推导、基于微积分的梯度下降(Gradient Descent)优化下降策略、各种前沿常用激活函数(ReLU, GELU, Sigmoid 等)及交叉熵损失函数(Loss Function)的数学推导机制。本教程是入门高级 AI 架构与现代神经网络 Transformer 不可或缺的基础必修课指南。

2026-02-08

神经网络完全指南:从生物神经元到深度学习架构详解

深入浅出地理解现代 AI 的核心:人工神经网络(Neural Networks)底层数学基础与前向/反向传播(Backpropagation)运行原理。详细剖析感知机模型、激活函数(如 ReLU, Sigmoid)、损失函数以及梯度下降算法。通过纯 Python 从零开始手写实现一个简单神经网络,带你彻底打破深度学习算法黑盒,为后续学习 Transformer 等大模型打下坚实基础。

2026-02-21

注意力机制完全指南:从直觉理解到Transformer核心原理与代码实现

全面深入解析现代深度学习与自然语言处理(NLP)中最具革命性的突破:注意力机制(Attention Mechanism)的核心数学原理。详细剖析自注意力(Self-Attention)、Query-Key-Value(QKV)向量点积计算逻辑、以及强大的多头注意力(Multi-Head Attention)并行特征提取。带您彻底掌握构建现代 Transformer 架构、GPT 和各类 LLM 大语言模型的底层技术基石,文章附带结构清晰的完整纯 Python 工程化代码推导与实现示例。

2026-02-21