欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

NLP算法面經(jīng)10

騰訊 LLM (3+1) ??
實(shí)習(xí)+項(xiàng)目占比1/2,八股1/4,代碼題1/4,項(xiàng)目被問(wèn)個(gè)底朝天
1. 介紹transformers的結(jié)構(gòu)以及每部分的作用以及對(duì)應(yīng)的參數(shù)大小
2. 介紹位置編碼(絕對(duì),相對(duì)主要是ROPE,以及Alibi(Baichuan使用的))
3. 介紹目前所用的優(yōu)化器,它們有何區(qū)別?
項(xiàng)目中使用了LSTM?為什么使用它,不用Transformer?LSTM的不足和優(yōu)勢(shì)?
優(yōu)勢(shì)差點(diǎn)沒(méi)說(shuō)不來(lái)??
5. LLM多大的,是否使用并行方式,訓(xùn)練多久,訓(xùn)練過(guò)程中遇到什么難題以及如何解決?
Deepspeed和Megatron對(duì)比一下有何不同,優(yōu)勢(shì)分別是什么?
6. 你為什么選用Deepspeed?出發(fā)點(diǎn)是什么?
PEFT的各種結(jié)構(gòu),簡(jiǎn)單總結(jié)下,各有什么好處?
6. linux如何查詢(xún)某個(gè)文件的前幾行?回答指令
你為什么使用DPO不使用PPO?出發(fā)點(diǎn)是什么?
7. 闡述下你所了解的大模型壓縮技術(shù)?并展開(kāi)講述1-2個(gè)
8. 開(kāi)放題:現(xiàn)在你有兩個(gè)選擇:超大模型的對(duì)話助手和很多特定領(lǐng)域的小模型對(duì)話助手,你會(huì)選用哪種方案?
9. 代碼題:1. 多頭注意力機(jī)制源碼、2. 對(duì)角線矩陣、三數(shù)之和、3. 快速排序、最長(zhǎng)不重復(fù)子數(shù)組(?)
10.HR就是那樣子的,騰訊那邊會(huì)問(wèn):你自己職業(yè)規(guī)劃有什么想法?可三年或五年。面了兩次都遇到了。。。
#nlp算法工程師# #秋招# #算法# #互聯(lián)網(wǎng)大廠# #大模型# #實(shí)習(xí)# #馬上消費(fèi)金融#
全部評(píng)論

相關(guān)推薦

結(jié)合最近輔助修改的簡(jiǎn)歷及項(xiàng)目,老師總結(jié)了部分大模型微調(diào)簡(jiǎn)歷的踩雷點(diǎn)。???♂?錯(cuò)誤示范:在 x任務(wù)中,獲取 xxx 條數(shù)據(jù),通過(guò)規(guī)則 or 腳本清洗出 x 條數(shù)據(jù),然后微調(diào) y 大模型,在業(yè)務(wù)上提升 x 個(gè)點(diǎn)。???原因:大模型微調(diào)的平臺(tái)是現(xiàn)成的,基模是現(xiàn)成的,體現(xiàn)不出核心能力。?應(yīng)該怎么寫(xiě)?首先介紹業(yè)務(wù)背景:業(yè)務(wù)是一個(gè)銷(xiāo)售對(duì)話業(yè)務(wù),機(jī)器人是銷(xiāo)售,代替真人,直接面對(duì)用戶。我們會(huì)給模型設(shè)定任務(wù),任務(wù)是 prompt 。步驟1??.提取訓(xùn)練數(shù)據(jù)問(wèn)題:1.真人通話每通電話任務(wù)是未知的,我們訓(xùn)練數(shù)據(jù)是任務(wù)+通話的 pair 對(duì)。2.真人通話很亂,與客戶的對(duì)話是各種交叉的,導(dǎo)致 asr 后并不是一人一輪。解決方案:1.首先通過(guò)大模型 prompt 對(duì)該通電話提取任務(wù),得到任務(wù)+ pair 對(duì)。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根據(jù)以上任務(wù)和真人對(duì)話,讓大模型編寫(xiě)出通話內(nèi)容。提問(wèn),為什么要編寫(xiě)而不是直接用?步驟2??.制定訓(xùn)練數(shù)據(jù)集問(wèn)題:1、正常的對(duì)話內(nèi)容,前面幾句和后面幾句基本上一致的。都是問(wèn)候和拜拜,但是也有一些差異。2、因?yàn)槎际窍嗨茍?chǎng)景,雖然任務(wù)不同,但是很多場(chǎng)景語(yǔ)義很相似。解決方案:1、基于輪次的權(quán)重采樣:通過(guò)輪次設(shè)定權(quán)重進(jìn)行 weighting sample 。解決問(wèn)候和拜拜的高占比問(wèn)題。2、基于語(yǔ)義的采樣:使用 bert 對(duì)對(duì)話內(nèi)容進(jìn)行 embedding ,然后使用層次聚類(lèi)通過(guò)調(diào)節(jié)閾值聚類(lèi)出相似語(yǔ)義的類(lèi)。對(duì)一個(gè)類(lèi)里的樣本進(jìn)行隨機(jī)采樣,提問(wèn),為什么要對(duì)重復(fù)語(yǔ)義的數(shù)據(jù)進(jìn)行下采樣?3、基于客戶類(lèi)型和產(chǎn)品的采樣,因?yàn)楹芏喈a(chǎn)品是熱品,導(dǎo)致對(duì)話內(nèi)容有偏,用戶類(lèi)型一樣,需按照類(lèi)型調(diào)整整體比例采樣。提問(wèn),為什么要這么采樣?步驟3??.制定訓(xùn)練數(shù)據(jù)集我們直接把輸出當(dāng)作 target 進(jìn)行訓(xùn)練。使用的 lora 訓(xùn)練,但是 lora alpha 設(shè)定成為4倍的時(shí)候達(dá)到了比較好的效果,經(jīng)驗(yàn)值不同任務(wù)不一樣,提問(wèn),在各種情況下要怎么調(diào)?步驟4??.dpo訓(xùn)練問(wèn)題:v1版本訓(xùn)練時(shí),很多輸出內(nèi)容是對(duì)的,但是輸出的語(yǔ)氣不太像真人,機(jī)器人味還是很?chē)?yán)重。解決方案:由于訓(xùn)練本身是有 ground truth 的,因此使用v1訓(xùn)練的模型,預(yù)測(cè)訓(xùn)練集,使用大模型對(duì)比兩者語(yǔ)氣不符合訓(xùn)練集的拿出來(lái),使用訓(xùn)練集的 ground truth 和模型的預(yù)測(cè)數(shù)據(jù)作為 dpo 訓(xùn)練對(duì),對(duì)v1版本模型重新訓(xùn)練。??這里老師只是簡(jiǎn)要進(jìn)行概括解答,具體情況和詳細(xì)解答可以咨詢(xún)輔導(dǎo),如果想了解項(xiàng)目輔導(dǎo),提升面試能力,歡迎后臺(tái)聯(lián)系。#算法# #簡(jiǎn)歷中的項(xiàng)目經(jīng)歷要怎么寫(xiě)# #算法崗面試# #互聯(lián)網(wǎng)大廠招聘#
點(diǎn)贊 評(píng)論 收藏
分享
評(píng)論
9
26
分享

創(chuàng)作者周榜

更多
牛客網(wǎng)
牛客企業(yè)服務(wù)