深度学习有哪些算法

目录

深度学习有哪些算法?

深度学习包含多种算法和模型,广泛应用于图像处理、自然语言处理、语音识别等领域。以下是主要分类及代表性算法:


  1. 多层感知机(MLP)
    • 最简单的深度学习模型,由多个全连接层组成,用于分类和回归任务。

用于处理 网格状数据 (如图像、视频):

  1. 经典模型
    • LeNet :早期手写数字识别模型。
    • AlexNet :引入ReLU和Dropout,推动深度学习复兴。
    • VGGNet :通过堆叠小卷积核提升性能。
    • ResNet :残差连接解决深层网络梯度消失问题。
    • Inception :多尺度卷积并行处理(如GoogLeNet)。
  2. 应用扩展
    • 目标检测 :Faster R-CNN、YOLO、SSD。
    • 图像分割 :U-Net、Mask R-CNN。

处理 序列数据 (如文本、时间序列):

  1. 基础RNN
    • 通过循环结构捕捉时序依赖,但存在梯度消失问题。
  2. 改进变体
    • LSTM :门控机制缓解长程依赖问题。
    • GRU :简化版LSTM,计算效率更高。
    • Bi-RNN :双向处理序列(如Bi-LSTM)。
  3. 应用模型
    • Seq2Seq :机器翻译(如编码器-解码器结构)。
    • Attention机制 :提升长序列建模能力(如Transformer的基础)。

基于 自注意力机制 ,替代RNN处理序列:

  1. 核心架构
    • Multi-Head Attention :并行捕捉不同位置关系。
    • 位置编码 :注入序列位置信息。
  2. 衍生模型
    • BERT :双向预训练模型,适用于NLP任务。
    • GPT系列 :自回归生成模型(如GPT-3、ChatGPT)。
    • ViT :将Transformer应用于图像分类。

学习数据分布并生成新样本:

  1. 生成对抗网络(GAN)
    • 生成器与判别器对抗训练,用于图像生成、风格迁移。
    • 变体:DCGAN、CycleGAN、StyleGAN。
  2. 变分自编码器(VAE)
    • 通过概率编码-解码生成数据,支持隐空间插值。
  3. 扩散模型(Diffusion Models)
    • 逐步去噪生成样本(如Stable Diffusion、DALL·E)。

  1. 自编码器(Autoencoder)
    • 压缩与重建数据,用于降维或去噪。
  2. 对比学习(Contrastive Learning)
    • 如SimCLR、MoCo,通过样本对比学习特征表示。

  1. 价值函数方法
    • DQN :结合Q-Learning与深度网络。
  2. 策略梯度方法
    • REINFORCEPPO :直接优化策略。
  3. Actor-Critic
    • 结合价值函数与策略梯度(如A3C)。

处理 图结构数据 (社交网络、分子结构):

  1. 经典模型
    • GCN :图卷积网络。
    • GAT :引入注意力机制。
    • GraphSAGE :归纳式学习节点特征。

  1. 元学习(Meta-Learning)
    • 学习如何快速适应新任务(如MAML)。
  2. 神经架构搜索(NAS)
    • 自动设计网络结构(如EfficientNet)。

  • 计算机视觉 :图像分类、目标检测、人脸识别。
  • 自然语言处理 :机器翻译、文本生成、情感分析。
  • 语音处理 :语音识别、合成。
  • 推荐系统 :个性化推荐。
  • 科学计算 :蛋白质结构预测(如AlphaFold)。

  1. 大模型 :参数规模持续增长(如GPT-4、PaLM)。
  2. 多模态融合 :同时处理文本、图像、语音(如CLIP)。
  3. 轻量化 :模型压缩与部署(如MobileNet、知识蒸馏)。