深度学习基础
深度学习概述
什么是深度学习?
深度学习是机器学习的一个分支,核心思想是通过多层神经网络自动提取数据的层次化特征,实现端到端的学习。它能够处理大规模、复杂的数据,广泛应用于图像、语音、文本等领域。
- 多层神经网络结构(深度模型)
- 自动特征提取与表达
- 端到端训练(无需手工特征)
- 强大的非线性建模能力
- 适合大数据和高维数据
深度学习的发展简史
- 1943年:提出第一个人工神经元模型(McCulloch & Pitts)
- 1958年:感知器(Perceptron)提出,开启神经网络研究
- 1986年:反向传播算法(BP)推动多层网络训练
- 2006年:深度信念网络(Hinton)引发深度学习热潮
- 2012年:AlexNet在ImageNet竞赛中大放异彩,推动深度学习应用
- 2014年:GAN、Seq2Seq等创新模型提出
- 2017年:Transformer架构横空出世,开启大模型时代
深度学习的主要应用
- 计算机视觉(CV):图像分类、目标检测、图像分割、人脸识别等
- 自然语言处理(NLP):机器翻译、文本生成、情感分析、问答系统等
- 语音与音频:语音识别、语音合成、语音分离等
- 推荐系统、金融风控、医疗诊断、自动驾驶等
深度学习基础核心概念
神经元、激活函数与网络结构
神经元是神经网络的基本单元,激活函数赋予网络非线性能力。常见网络结构有全连接网络、卷积神经网络(CNN)、循环神经网络(RNN)等。
- 激活函数:Sigmoid、ReLU、Tanh、Softmax等
- 网络结构:MLP、CNN、RNN、LSTM、Transformer等
损失函数与优化器
损失函数衡量模型预测与真实值的差距,优化器用于最小化损失并更新参数。
- 常见损失函数:均方误差(MSE)、交叉熵、二元交叉熵、Huber损失等
- 常见优化器:SGD、Adam、RMSprop、AdaGrad等
深度学习训练流程与要点
- 数据准备与预处理(归一化、增强等)
- 模型设计与搭建
- 前向传播与损失计算
- 反向传播与参数更新
- 模型评估与调优(验证集、超参数调整等)