欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

騰訊光子算法實習面經(jīng)

一面
1. 自我介紹
2. 講一篇論文,根據(jù)論文深挖。涉及Multi-Agent, 強化學習, GRPO之類的。但是問的很常規(guī),一般背一背就能夠回答上了。
3. 手撕hot 100中等題

二面
1. 自我介紹
2. 講一篇論文,根據(jù)論文使用的技術來深挖我的掌握程度,問到我回答不上來。比如,問PPO算法和GRPO的實現(xiàn)細節(jié),PPO有幾個模型,優(yōu)勢函數(shù),強化學習訓練大模型的優(yōu)勢與limitation。問我覺得最近很火的manus可能的實現(xiàn)方案。問題都很開放和發(fā)散且有深度,但與我的研究經(jīng)歷很相關。
3. 手撕二維動規(guī)。還好以前見到過原題,只會寫說不個所以然來。。差點g了感覺

HR面
日常聊天,為什么做多模態(tài)大模型,怎樣轉過來的。自己的未來的規(guī)劃之類的。
#騰訊#  #算法#  #實習#
全部評論

相關推薦

?一面1??深挖多模態(tài)論文2??介紹transformer架構3??詳細說一下Decoder的因果注意力 QKV分別來自哪4??Attention為什么要做scaled 不做會怎么樣 為什么用根號d_k5??Transformer怎么做加速訓練(KV緩存) 訓練和推理有什么區(qū)別(并行化)6??深挖多模態(tài)大模型論文用的video-llama 講一下大模型的結構7??論文用了CoT講一下論文的CoT是怎么樣的8??微調用的LoRA介紹一下LoRA9??LoRA初始化怎么做的,用的秩是多少,為什么不選其他的數(shù)1??0??知道deepspeed和megatron嗎?分別介紹一下1??1??論文用的deepspeed詳細講了一下三個stage分別是什么?二面1??深挖多模態(tài)和大模型的論文2??Decoder文本生成有哪幾種方法3??還知道哪些多模態(tài)大模型4??介紹一下ALBEF、BLIP5??BLIP2的結構是什么  兩階段怎么訓練的 有哪些損失6??知道PEFT嗎 講一下LoRA7??還有什么微調方法 -> prefix-tuning和P-tuning 兩者分別是怎么做的 為了解決什么提出的8??后面就是一些場景題?三面1??深挖論文2??講一下multi-head attention 用pytorch手撕一下 要可以實現(xiàn)cross attention的3??講一下你用的大模型是什么結構 特征是怎么喂給大模型的4??大模型訓練為什么不用SFT5??LoRA是什么?有什么好處6??知道RLHF嗎?講一下訓練流程7??接下來就是好幾個場景題,電商相關的,用大模型解決prompt應該怎么設計,怎么處理prompt的輸出,怎么過濾錯誤格式的輸出??對于想求職算法崗的同學,如果想?yún)⒓痈哔|量項目輔導,提升面試能力,歡迎后臺聯(lián)系。
字節(jié)跳動三面464人在聊 查看23道真題和解析
點贊 評論 收藏
分享
評論
2
6
分享

創(chuàng)作者周榜

更多
??途W(wǎng)
??推髽I(yè)服務