欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

螞蟻 網(wǎng)銀 NLP算法面經(jīng)

4.21 投簡歷

4.23 約后天一面

4.25 一面

無手撕,上來先拷打論文,其中有個(gè)地方用了rag,面試官問我這里是怎么把文本轉(zhuǎn)換成向量儲(chǔ)存的。(我以為是問我工程上的實(shí)現(xiàn),這是去年做的一個(gè)小模塊,回憶了半天細(xì)節(jié),答得支支吾吾,面完了之后結(jié)合下一個(gè)問我才意識到其實(shí)是問我embedding過程)

看我支支吾吾就直接問transformer是怎么把token處理成向量的。

transformer的self-attention和cross self-attention區(qū)別在哪里。

pre-norm和post-norm的區(qū)別?進(jìn)一步,為什么現(xiàn)在主流大模型都用post-norm。

lora的實(shí)現(xiàn)過程。

大模型用的Loss函數(shù)是什么(交叉熵)?進(jìn)一步,使用teaching forcing訓(xùn)練時(shí)使用真實(shí)標(biāo)簽作為輸入,而推理時(shí)則是使用模型的輸出作為輸入,這導(dǎo)致了訓(xùn)練階段和推理階段之間的不一致性,為什么會(huì)用這個(gè)gap。(我在想不是都把原因說出來了嗎...這個(gè)問題也答得不太好)

然后開始介紹業(yè)務(wù),大概是做網(wǎng)上銀行的客服機(jī)器人。

反問:

如果我有幸能進(jìn)入你們部門,大概會(huì)分配給我什么樣的工作:不確定,要等來了之后才知道。

從今天的面試來看,你覺得我有什么地方需要改進(jìn)的嗎:去熟悉熟悉自己的論文和項(xiàng)目吧(因?yàn)橐婚_始被問到那個(gè)確實(shí)答得不太好。)

面試官全程給的壓力有點(diǎn)大,本來都以為涼了,結(jié)果居然五分鐘后約二面。

4.27 二面

無手撕,直接拷打兩篇論文,期間問了一點(diǎn)點(diǎn)八股。

簡述DPO、PPO、GRPO的區(qū)別。

問我在讀研期間學(xué)習(xí)后最擅長的技能是什么,我回答數(shù)據(jù)集構(gòu)造和強(qiáng)化學(xué)習(xí),于是出了一道場景題:如果部門上線的客服機(jī)器人,和人工相比不僅語氣僵硬而且可能會(huì)有不安全回復(fù)或者幻覺,如何解決?(感覺答得也不太好,一面之后稍微了解了下客服機(jī)器人的內(nèi)容,但是答得太淺了)

反問:

作為行業(yè)中的前輩,你能給一些我為了之后工作可以學(xué)習(xí)的內(nèi)容的建議嗎:這得看你自己,基礎(chǔ)知識要你自己學(xué),針對性的技術(shù)要看你之后的業(yè)務(wù),不能給一個(gè)寬泛的建議。

總共有幾面:就兩個(gè)技術(shù)面,這輪面試我就會(huì)決定結(jié)果。

一小時(shí)后公眾號顯示二面過,目前等約hr面。

--------------------------------------

5.7更新,約了明天下午hr面

總結(jié):螞蟻效率真的快,投簡歷到二面過不到一個(gè)星期,第一位面試官雖然有點(diǎn)嚴(yán)肅但也沒為難我,第二位面試官人也很好。全程除了筆試沒有手撕,八股文問的不多也比較簡單,有點(diǎn)白準(zhǔn)備了。由于暑期實(shí)習(xí)開始準(zhǔn)備的很晚還以為和大廠無緣了,要是能去螞蟻我以后只用支付寶。

#實(shí)習(xí)進(jìn)度記錄#
全部評論
兄弟hr面了么
點(diǎn)贊 回復(fù) 分享
發(fā)布于 05-07 14:46 四川
接好運(yùn) 我也投了螞蟻 一直沒消息
點(diǎn)贊 回復(fù) 分享
發(fā)布于 05-05 15:36 黑龍江

相關(guān)推薦

?一面1??深挖多模態(tài)論文2??介紹transformer架構(gòu)3??詳細(xì)說一下Decoder的因果注意力 QKV分別來自哪4??Attention為什么要做scaled 不做會(huì)怎么樣 為什么用根號d_k5??Transformer怎么做加速訓(xùn)練(KV緩存) 訓(xùn)練和推理有什么區(qū)別(并行化)6??深挖多模態(tài)大模型論文用的video-llama 講一下大模型的結(jié)構(gòu)7??論文用了CoT講一下論文的CoT是怎么樣的8??微調(diào)用的LoRA介紹一下LoRA9??LoRA初始化怎么做的,用的秩是多少,為什么不選其他的數(shù)1??0??知道deepspeed和megatron嗎?分別介紹一下1??1??論文用的deepspeed詳細(xì)講了一下三個(gè)stage分別是什么?二面1??深挖多模態(tài)和大模型的論文2??Decoder文本生成有哪幾種方法3??還知道哪些多模態(tài)大模型4??介紹一下ALBEF、BLIP5??BLIP2的結(jié)構(gòu)是什么  兩階段怎么訓(xùn)練的 有哪些損失6??知道PEFT嗎 講一下LoRA7??還有什么微調(diào)方法 -> prefix-tuning和P-tuning 兩者分別是怎么做的 為了解決什么提出的8??后面就是一些場景題?三面1??深挖論文2??講一下multi-head attention 用pytorch手撕一下 要可以實(shí)現(xiàn)cross attention的3??講一下你用的大模型是什么結(jié)構(gòu) 特征是怎么喂給大模型的4??大模型訓(xùn)練為什么不用SFT5??LoRA是什么?有什么好處6??知道RLHF嗎?講一下訓(xùn)練流程7??接下來就是好幾個(gè)場景題,電商相關(guān)的,用大模型解決prompt應(yīng)該怎么設(shè)計(jì),怎么處理prompt的輸出,怎么過濾錯(cuò)誤格式的輸出??對于想求職算法崗的同學(xué),如果想?yún)⒓痈哔|(zhì)量項(xiàng)目輔導(dǎo),提升面試能力,歡迎后臺(tái)聯(lián)系。
點(diǎn)贊 評論 收藏
分享
評論
點(diǎn)贊
7
分享

創(chuàng)作者周榜

更多
??途W(wǎng)
牛客企業(yè)服務(wù)