快手一面
講實習(xí)講論文,問了幾個很簡單的問題,第一篇論文和lora的區(qū)別還有和drop out的區(qū)別,然后還有歸一化一般用什么,當(dāng)時深入講了下自己對lora的理解還有BN以及LN的優(yōu)劣,以及為什么transformer base的模型用LN,好像還說了下BN LN訓(xùn)練的過程和平移 scale參數(shù)的作用,面了快五十分鐘出了道合并區(qū)間,然后讓講講思路,過一個小時左右約二面。
#快手##騰訊##字節(jié)##百度#
希望之后能一切順利??
最后圖書館鎮(zhèn)樓