什么是 深度学习?

深度学习(Deep Learning)是机器学习的一个子集,它使用具有多层结构的人工神经网络(深度神经网络)从原始输入数据中逐步提取更高层次的特征,从而实现分类、检测和生成等任务的自动表示学习。

快速了解

创建时间2006 年由 Geoffrey Hinton 等人提出
规范文档官方规范

工作原理

深度学习架构由多个处理层组成,通过一系列非线性运算对输入数据进行转换。每一层都学习数据越来越抽象的表示。深度一词指的是数据经过转换的层数。与需要手动特征工程的传统机器学习算法不同,深度学习能够从原始数据中自动发现特征检测或分类所需的表示。这种方法在计算机视觉、自然语言处理、语音识别等众多领域取得了突破性成果。

主要特点

  • 通过多层神经网络进行层次化特征学习
  • 无需手动工程即可自动提取特征
  • 需要大量训练数据以获得最佳性能
  • 计算密集型,通常需要 GPU 加速
  • 能够学习数据中复杂的非线性关系
  • 从原始输入到最终输出的端到端学习

常见用途

  1. 计算机视觉中的图像识别和目标检测
  2. 自然语言处理,包括翻译和文本生成
  3. 语音识别和语音合成系统
  4. 自动驾驶汽车和机器人感知
  5. 基于医学影像数据的医学诊断

示例

loading...
Loading code...

常见问题

用简单的话解释什么是深度学习?

深度学习是一种使用多层人工神经网络从数据中自动学习模式的机器学习类型。与需要手动特征工程的传统机器学习不同,深度学习直接从原始数据中发现图像识别和语言理解等任务所需的表示。

人工智能、机器学习和深度学习有什么区别?

AI 是最广泛的概念——机器模拟人类智能。机器学习是 AI 的子集,系统从数据中学习。深度学习是机器学习的子集,使用多层神经网络。深度学习是最专业化的,在视觉和语言任务中取得了突破性成果。

为什么深度学习叫做「深度」?

「深度」指的是神经网络中的层数。深度网络有许多隐藏层(从几十到几百层),逐步从原始输入数据中提取更高级别的特征,从而学习复杂的层次化表示。

常见的深度学习架构有哪些?

常见架构包括用于图像的 CNN(卷积神经网络)、用于序列的 RNN/LSTM、用于语言和视觉的 Transformer、用于生成的 GAN,以及用于表示学习的自编码器。GPT 和 BERT 等基础模型结合了多种技术。

深度学习需要什么硬件?

深度学习计算密集,通常需要 GPU 加速。带 CUDA 的 NVIDIA GPU 最常用。云平台(AWS、GCP、Azure)提供 GPU 实例。训练大型模型可能需要多个 GPU 或 TPU。推理通常可以在 CPU 或边缘设备上运行。

相关工具

相关术语

相关文章

深度学习基础:神经网络、训练算法与现代架构详解

全面系统深度硬核解析人工智能深度学习(Deep Learning)的底层数学核心原理,深入探讨反向传播算法(Backpropagation)计算图推导、基于微积分的梯度下降(Gradient Descent)优化下降策略、各种前沿常用激活函数(ReLU, GELU, Sigmoid 等)及交叉熵损失函数(Loss Function)的数学推导机制。本教程是入门高级 AI 架构与现代神经网络 Transformer 不可或缺的基础必修课指南。

2026-02-08

神经网络完全指南:从生物神经元到深度学习架构详解

深入浅出地理解现代 AI 的核心:人工神经网络(Neural Networks)底层数学基础与前向/反向传播(Backpropagation)运行原理。详细剖析感知机模型、激活函数(如 ReLU, Sigmoid)、损失函数以及梯度下降算法。通过纯 Python 从零开始手写实现一个简单神经网络,带你彻底打破深度学习算法黑盒,为后续学习 Transformer 等大模型打下坚实基础。

2026-02-21

注意力机制完全指南:从直觉理解到Transformer核心原理与代码实现

全面深入解析现代深度学习与自然语言处理(NLP)中最具革命性的突破:注意力机制(Attention Mechanism)的核心数学原理。详细剖析自注意力(Self-Attention)、Query-Key-Value(QKV)向量点积计算逻辑、以及强大的多头注意力(Multi-Head Attention)并行特征提取。带您彻底掌握构建现代 Transformer 架构、GPT 和各类 LLM 大语言模型的底层技术基石,文章附带结构清晰的完整纯 Python 工程化代码推导与实现示例。

2026-02-21