欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

淘天淘寶直播大模型實(shí)習(xí)一面

??面試問題:#找實(shí)習(xí)#(4.9)
Q1:簡單介紹一下在研究生期間的科研和實(shí)習(xí)經(jīng)歷。
Q2:介紹一下簡歷上那個(gè)完整的大模型項(xiàng)目。
Q3:做這個(gè)項(xiàng)目的背景,做項(xiàng)目的動(dòng)機(jī)。
Q4:第三個(gè)項(xiàng)目是實(shí)習(xí)項(xiàng)目嗎?
Q5:對第1個(gè)項(xiàng)目有用NER的方法嗎?微調(diào)前base模型的準(zhǔn)確率是多少?
Q6:第2個(gè)項(xiàng)目的數(shù)據(jù)集構(gòu)造是不是有問題?這些數(shù)據(jù)的判斷是不是對大模型來說太簡單了?
Q7:有用傳統(tǒng)方法來測你構(gòu)造數(shù)據(jù)集的有效性嗎?比如用BERT
Q8:介紹一下Lora的原理。
Q9:LORA基于什么問題,什么樣的模型可以用LORA進(jìn)行微調(diào)?什么是低秩分解?
Q10:LORA的初始化方法。
Q11:兩個(gè)權(quán)重矩陣的初始化。
Q12:項(xiàng)目中的可解釋性模塊是什么?
Q13:介紹一下Int8和FP32的區(qū)別是什么?
Q14:Int8的表示范圍。
Q15:Int8和FP32前向計(jì)算的區(qū)別。
Q16:除了大模型,你對推薦系統(tǒng),CV模型有了解嗎?
手撕代碼:lc82. 刪除排序鏈表中的重復(fù)元素 II
反問:
做什么業(yè)務(wù)(淘寶直播生態(tài)和主播智能手卡)
進(jìn)組后做什么業(yè)務(wù)(預(yù)訓(xùn)練)
??面試體驗(yàn):挺好的,注重業(yè)務(wù),八股并不多。
全部評論
佬 這個(gè)有后續(xù)嘛
點(diǎn)贊 回復(fù) 分享
發(fā)布于 05-08 10:43 黑龍江
算法崗?要不要看看我們這里的急招
點(diǎn)贊 回復(fù) 分享
發(fā)布于 04-11 16:56 天津

相關(guān)推薦

補(bǔ)發(fā)一下之前面試騰訊的面經(jīng),具體timeline可以參考前面的帖子。一面(約30mins):自我介紹,挑一個(gè)簡歷里最好的一個(gè)項(xiàng)目詳細(xì)介紹下項(xiàng)目中遇到了什么挑戰(zhàn),怎么解決的了解DeepSeek嗎,為什么DeepSeek現(xiàn)在這么火?說一下DeepSeek里的MLA和GRPOGRPO和DPO,PPO,RLHF的區(qū)別看你之前有LoRA微調(diào)DeepSeek的項(xiàng)目,簡單說說微調(diào)經(jīng)驗(yàn),效果如何RAG在檢索階段能有哪些優(yōu)化?(sub-query,HyDE等)二面(約1h10mins):自我介紹,拷打簡歷。寫一下GRPO的公式先屏幕共享從頭到尾walk through講一下DeepSeek技術(shù)報(bào)告論文。面試官中間會穿插提問DeepSeek-v3/r1/r1-zero有什么區(qū)別DeepSeek-r1-zero的冷啟動(dòng)數(shù)據(jù)是怎么組成的DeepSeek-r1-zero解決了DeepSeek-r1的哪些問題如何解決大模型的幻覺Embedding如何微調(diào)(講了對比學(xué)習(xí)啥的)RAG的評測指標(biāo)有哪些業(yè)界現(xiàn)在function call的做法和水平場景題:大致是RAG中檢索結(jié)果遇到張冠李戴的問題該如何解決舉幾個(gè)例子能夠體現(xiàn)你的研究能力三面(約30mins)拷打LoRA微調(diào)項(xiàng)目,問了實(shí)驗(yàn)的數(shù)據(jù)集,參數(shù)設(shè)置,結(jié)果如何等等你目前的研究方向主要是什么?講一下ReRanker的目的,做法有哪些場景題:我現(xiàn)在運(yùn)用RAG來檢索回答,目標(biāo)是檢索四個(gè)季度的表格數(shù)據(jù),但是經(jīng)過檢索+ReRanker后只出現(xiàn)了三個(gè)季度的數(shù)據(jù),該如何解決hr面(約15mins)比較常規(guī),大致如下:用三個(gè)詞語描述下你為何能勝任這份工作你的優(yōu)缺點(diǎn)都說一下你過往實(shí)習(xí)項(xiàng)目中遇到過的最大困難是什么,怎么解決的最早實(shí)習(xí)時(shí)間,實(shí)習(xí)時(shí)常引流:騰訊字節(jié)阿里淘天美團(tuán)拼多多#暑期實(shí)習(xí)##騰訊##大模型#
Rafae1:接好運(yùn)
查看27道真題和解析
點(diǎn)贊 評論 收藏
分享
?一面1??深挖多模態(tài)論文2??介紹transformer架構(gòu)3??詳細(xì)說一下Decoder的因果注意力 QKV分別來自哪4??Attention為什么要做scaled 不做會怎么樣 為什么用根號d_k5??Transformer怎么做加速訓(xùn)練(KV緩存) 訓(xùn)練和推理有什么區(qū)別(并行化)6??深挖多模態(tài)大模型論文用的video-llama 講一下大模型的結(jié)構(gòu)7??論文用了CoT講一下論文的CoT是怎么樣的8??微調(diào)用的LoRA介紹一下LoRA9??LoRA初始化怎么做的,用的秩是多少,為什么不選其他的數(shù)1??0??知道deepspeed和megatron嗎?分別介紹一下1??1??論文用的deepspeed詳細(xì)講了一下三個(gè)stage分別是什么?二面1??深挖多模態(tài)和大模型的論文2??Decoder文本生成有哪幾種方法3??還知道哪些多模態(tài)大模型4??介紹一下ALBEF、BLIP5??BLIP2的結(jié)構(gòu)是什么  兩階段怎么訓(xùn)練的 有哪些損失6??知道PEFT嗎 講一下LoRA7??還有什么微調(diào)方法 -> prefix-tuning和P-tuning 兩者分別是怎么做的 為了解決什么提出的8??后面就是一些場景題?三面1??深挖論文2??講一下multi-head attention 用pytorch手撕一下 要可以實(shí)現(xiàn)cross attention的3??講一下你用的大模型是什么結(jié)構(gòu) 特征是怎么喂給大模型的4??大模型訓(xùn)練為什么不用SFT5??LoRA是什么?有什么好處6??知道RLHF嗎?講一下訓(xùn)練流程7??接下來就是好幾個(gè)場景題,電商相關(guān)的,用大模型解決prompt應(yīng)該怎么設(shè)計(jì),怎么處理prompt的輸出,怎么過濾錯(cuò)誤格式的輸出??對于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項(xiàng)目輔導(dǎo),提升面試能力,歡迎后臺聯(lián)系。
點(diǎn)贊 評論 收藏
分享
評論
2
12
分享

創(chuàng)作者周榜

更多
正在熱議
更多
??途W(wǎng)
??推髽I(yè)服務(wù)