欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

大模型暑期實習(xí)面經(jīng)|騰訊音樂娛樂集團 技術(shù)研究—自然語言處理

  • 部門:QQ音樂
  • base地:深圳
  • 流程:一面+二面+三面+HR面
  • 推進(jìn)速度:非??欤恳幻嬖谝恍r內(nèi)出結(jié)果

一面 50min

  1. 自我介紹
  2. 論文介紹
  3. 什么是MHA
  4. Attention運算公式
  5. 為什么除以根號dk
  6. 介紹現(xiàn)有相對位置編碼和絕對位置編碼的異同點,都有哪些結(jié)構(gòu)
  7. RoPE的結(jié)構(gòu)
  8. RoPE相比于絕對位置編碼的優(yōu)勢是什么?為什么外推性更好?
  9. 為什么RoPE理論上可以無限外推?
  10. RoPE為什么可以利用絕對位置和相對位置的優(yōu)勢?
  11. 介紹RAG項目(基座模型是什么?幾b ?全參微調(diào)用了多少卡?數(shù)據(jù)多大?問答對的形式有圖片嗎?
  12. 對RAG的理解是什么?為什么要用RAG?
  13. BGE模型的結(jié)構(gòu)
  14. 什么是LoRA?有個兩層神經(jīng)網(wǎng)絡(luò),參數(shù)1萬*一萬,低秩r =100, LoRA參數(shù)量是多少?
  15. 為什么用KV Cache?
  16. KV Cache有哪些優(yōu)化方法?
  17. 文生圖/圖生文結(jié)構(gòu)了解嗎?文生圖的怎么解碼的
  18. CLIP了解嗎?
  19. Deepseek MOE架構(gòu)路由機制的細(xì)節(jié)
  20. 場景題
  21. 手撕:快速排序
  22. 反問

二面 60min

  1. 自我介紹
  2. 論文拷打,提出質(zhì)疑
  3. RAG項目介紹
  4. 分塊的策略是什么
  5. PDF的表格和圖片怎么解析的?圖片和表格的信息丟失了怎么辦?
  6. RAG的關(guān)鍵詞檢索和重排細(xì)節(jié)
  7. 異構(gòu)圖方式和傳統(tǒng)的多模態(tài)拼接方式有什么性能上的改進(jìn)嗎?
  8. 多模態(tài)之間的特征的對齊你是怎么做的?現(xiàn)有工作怎么做的
  9. Prompt有什么系統(tǒng)性優(yōu)化的方法?
  10. 代碼:199: 二叉樹右視圖
  11. 簡單介紹一下Prefix Cache ? Deepseek 是怎么開啟Prefix Cache的?
  12. 位置編碼的作用的實現(xiàn)方式有哪些?
  13. LLM推理部署的時候,會用vLLM, 這主要從哪些方面提升?怎么提升的推理速度?
  14. 文本生成解碼策略,貪心搜索和束搜索的優(yōu)劣是什么?
  15. 實習(xí)時間,反問

三面 50min

  1. 自我介紹
  2. 論文拷打,細(xì)到實驗結(jié)果數(shù)據(jù)
  3. RAG項目400萬文字怎么分塊,索引,embedding的
  4. 微調(diào)的指標(biāo)和RAG的指標(biāo)是什么?ROUGE指標(biāo)怎么計算
  5. 評估方式是不是太簡單了,對SFT的指標(biāo)還有沒有更好的
  6. 項目中負(fù)責(zé)的部分
  7. 用的最多的GPU時間是多少
  8. 有做過多機多卡訓(xùn)練嗎
  9. 為什么去前端實習(xí)了后又轉(zhuǎn)算法
  10. 對未來的規(guī)劃是什么,想做什么技術(shù)
  11. 實驗室的方向是什么
  12. 大模型的預(yù)訓(xùn)練和SFT的不同是什么
  13. 限制大模型輸入長度的因素有哪些?
  14. 目前的大模型如何解決長上下文?

HR面 30min

主要問項目、規(guī)劃等,氛圍比較輕松

#大模型算法工程師##NLP##大模型##騰訊音樂26屆實習(xí)#
全部評論
確實厲害,膜拜一下大佬。(許愿三面過)
1 回復(fù) 分享
發(fā)布于 04-23 00:24 陜西
大佬投了多久約面的
點贊 回復(fù) 分享
發(fā)布于 04-26 23:20 四川
八股這么難么
點贊 回復(fù) 分享
發(fā)布于 04-26 07:01 四川

相關(guān)推薦

補發(fā)一下之前面試騰訊的面經(jīng),具體timeline可以參考前面的帖子。一面(約30mins):自我介紹,挑一個簡歷里最好的一個項目詳細(xì)介紹下項目中遇到了什么挑戰(zhàn),怎么解決的了解DeepSeek嗎,為什么DeepSeek現(xiàn)在這么火?說一下DeepSeek里的MLA和GRPOGRPO和DPO,PPO,RLHF的區(qū)別看你之前有LoRA微調(diào)DeepSeek的項目,簡單說說微調(diào)經(jīng)驗,效果如何RAG在檢索階段能有哪些優(yōu)化?(sub-query,HyDE等)二面(約1h10mins):自我介紹,拷打簡歷。寫一下GRPO的公式先屏幕共享從頭到尾walk through講一下DeepSeek技術(shù)報告論文。面試官中間會穿插提問DeepSeek-v3/r1/r1-zero有什么區(qū)別DeepSeek-r1-zero的冷啟動數(shù)據(jù)是怎么組成的DeepSeek-r1-zero解決了DeepSeek-r1的哪些問題如何解決大模型的幻覺Embedding如何微調(diào)(講了對比學(xué)習(xí)啥的)RAG的評測指標(biāo)有哪些業(yè)界現(xiàn)在function call的做法和水平場景題:大致是RAG中檢索結(jié)果遇到張冠李戴的問題該如何解決舉幾個例子能夠體現(xiàn)你的研究能力三面(約30mins)拷打LoRA微調(diào)項目,問了實驗的數(shù)據(jù)集,參數(shù)設(shè)置,結(jié)果如何等等你目前的研究方向主要是什么?講一下ReRanker的目的,做法有哪些場景題:我現(xiàn)在運用RAG來檢索回答,目標(biāo)是檢索四個季度的表格數(shù)據(jù),但是經(jīng)過檢索+ReRanker后只出現(xiàn)了三個季度的數(shù)據(jù),該如何解決hr面(約15mins)比較常規(guī),大致如下:用三個詞語描述下你為何能勝任這份工作你的優(yōu)缺點都說一下你過往實習(xí)項目中遇到過的最大困難是什么,怎么解決的最早實習(xí)時間,實習(xí)時常引流:騰訊字節(jié)阿里淘天美團拼多多#暑期實習(xí)##騰訊##大模型#
Rafae1:接好運
查看27道真題和解析
點贊 評論 收藏
分享
?一面1??深挖多模態(tài)論文2??介紹transformer架構(gòu)3??詳細(xì)說一下Decoder的因果注意力 QKV分別來自哪4??Attention為什么要做scaled 不做會怎么樣 為什么用根號d_k5??Transformer怎么做加速訓(xùn)練(KV緩存) 訓(xùn)練和推理有什么區(qū)別(并行化)6??深挖多模態(tài)大模型論文用的video-llama 講一下大模型的結(jié)構(gòu)7??論文用了CoT講一下論文的CoT是怎么樣的8??微調(diào)用的LoRA介紹一下LoRA9??LoRA初始化怎么做的,用的秩是多少,為什么不選其他的數(shù)1??0??知道deepspeed和megatron嗎?分別介紹一下1??1??論文用的deepspeed詳細(xì)講了一下三個stage分別是什么?二面1??深挖多模態(tài)和大模型的論文2??Decoder文本生成有哪幾種方法3??還知道哪些多模態(tài)大模型4??介紹一下ALBEF、BLIP5??BLIP2的結(jié)構(gòu)是什么  兩階段怎么訓(xùn)練的 有哪些損失6??知道PEFT嗎 講一下LoRA7??還有什么微調(diào)方法 -> prefix-tuning和P-tuning 兩者分別是怎么做的 為了解決什么提出的8??后面就是一些場景題?三面1??深挖論文2??講一下multi-head attention 用pytorch手撕一下 要可以實現(xiàn)cross attention的3??講一下你用的大模型是什么結(jié)構(gòu) 特征是怎么喂給大模型的4??大模型訓(xùn)練為什么不用SFT5??LoRA是什么?有什么好處6??知道RLHF嗎?講一下訓(xùn)練流程7??接下來就是好幾個場景題,電商相關(guān)的,用大模型解決prompt應(yīng)該怎么設(shè)計,怎么處理prompt的輸出,怎么過濾錯誤格式的輸出??對于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。
字節(jié)跳動三面462人在聊 查看23道真題和解析
點贊 評論 收藏
分享
評論
10
37
分享

創(chuàng)作者周榜

更多
牛客網(wǎng)
??推髽I(yè)服務(wù)