PJ
PartJava
首页
学习
笔记
代码
挑战
全局
AI
机器人
导航菜单
分类导航
计算机
▶
人工智能
▶
网络安全
▶
软件工程
▶
进阶与前沿
进阶知识
前沿进展
实用资源
探索与思考
进阶知识
自注意力机制(Self-Attention)
:捕捉序列中任意位置之间的依赖关系,是Transformer的核心。
Transformer架构
:基于自注意力的深度学习模型,广泛应用于NLP、CV等领域。
预训练与微调(Pre-training & Fine-tuning)
:先在大规模数据上预训练,再在下游任务上微调,提升泛化能力。
多模态学习
:融合图像、文本、语音等多种模态信息,提升模型理解能力。
大模型与参数高效化
:如GPT、BERT、ViT等,及其高效推理与压缩技术。
上一课:深度学习面试题
首页
学习
搜索
代码
AI助手
挑战
笔记
登录