跳到主要内容
T0 大厂 百度 二面

百度 AI Infra 二面

百度 AI Infra 二面面试真题,涵盖训练优化等方向

训练优化

基础知识 - Transformer 与模型结构

  1. 请完整描述 Transformer 从输入 token 到输出 logits 的计算流程。
  2. FFN 层为何采用先升维再降维的结构?这种设计对模型表达能力有何影响?
  3. MHA、MQA、GQA 在推理阶段的 KV Cache 占用和计算效率方面有什么差异?
  4. 推理阶段为什么 KV Cache 只缓存 K 和 V 而不缓存 Q?
  5. RoPE 的核心原理是什么?在长上下文场景下存在哪些局限?

基础知识 - 微调与对齐

  1. Instruction Tuning 中多轮对话数据训练时,Loss Mask 应如何设计?
  2. SFT 后模型在特定任务上能力增强但通用能力下降,应如何处理?
  3. LoRA 的低秩分解为何能近似全参数微调的效果?
  4. LoRA 的 Rank 设置不当时,模型表现会出现什么现象?
  5. DPO 训练后模型输出明显变长,在实际系统中如何应对?
  6. 对齐训练后模型过于保守、频繁拒绝回答,应如何调整训练策略?
  7. 大模型出现复读机现象通常由哪些因素导致?

基础知识 - RAG 系统

  1. 知识库数据的清洗与构造流程是怎样的?数据质量不一致会对 RAG 系统产生哪些影响?
  2. 文档切分策略如何设计?Chunk Size 和 Overlap 的选择会如何影响召回质量与生成效果?
  3. 用户问题在知识库中确实存在但系统未能召回正确文档,应如何排查?
  4. 检索到了正确文档但模型生成的答案仍然有误,应如何定位问题?
  5. 召回结果经常语义相似但事实无关,应如何优化检索模块?
  6. 一个问题需要跨多个文档才能回答时,RAG 系统应如何处理?
  7. 如何判断 RAG 系统中的问题出在检索模块还是生成模块?

项目经历

  1. 围绕项目内容进行深入提问。