导航菜单

进阶与前沿

进阶知识

  • 自注意力机制(Self-Attention):捕捉序列中任意位置之间的依赖关系,是Transformer的核心。
  • Transformer架构:基于自注意力的深度学习模型,广泛应用于NLP、CV等领域。
  • 预训练与微调(Pre-training & Fine-tuning):先在大规模数据上预训练,再在下游任务上微调,提升泛化能力。
  • 多模态学习:融合图像、文本、语音等多种模态信息,提升模型理解能力。
  • 大模型与参数高效化:如GPT、BERT、ViT等,及其高效推理与压缩技术。