欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

淘天淘寶直播大模型實習一面

??面試問題:#找實習#(4.9)
Q1:簡單介紹一下在研究生期間的科研和實習經(jīng)歷。
Q2:介紹一下簡歷上那個完整的大模型項目。
Q3:做這個項目的背景,做項目的動機。
Q4:第三個項目是實習項目嗎?
Q5:對第1個項目有用NER的方法嗎?微調(diào)前base模型的準確率是多少?
Q6:第2個項目的數(shù)據(jù)集構(gòu)造是不是有問題?這些數(shù)據(jù)的判斷是不是對大模型來說太簡單了?
Q7:有用傳統(tǒng)方法來測你構(gòu)造數(shù)據(jù)集的有效性嗎?比如用BERT
Q8:介紹一下Lora的原理。
Q9:LORA基于什么問題,什么樣的模型可以用LORA進行微調(diào)?什么是低秩分解?
Q10:LORA的初始化方法。
Q11:兩個權(quán)重矩陣的初始化。
Q12:項目中的可解釋性模塊是什么?
Q13:介紹一下Int8和FP32的區(qū)別是什么?
Q14:Int8的表示范圍。
Q15:Int8和FP32前向計算的區(qū)別。
Q16:除了大模型,你對推薦系統(tǒng),CV模型有了解嗎?
手撕代碼:lc82. 刪除排序鏈表中的重復元素 II
反問:
做什么業(yè)務(wù)(淘寶直播生態(tài)和主播智能手卡)
進組后做什么業(yè)務(wù)(預訓練)
??面試體驗:挺好的,注重業(yè)務(wù),八股并不多。
全部評論
佬,你第一個項目大概是做什么的
點贊 回復 分享
發(fā)布于 05-16 10:32 湖北
佬 這個有后續(xù)嘛
點贊 回復 分享
發(fā)布于 05-08 10:43 黑龍江
算法崗?要不要看看我們這里的急招
點贊 回復 分享
發(fā)布于 04-11 16:56 天津

相關(guān)推薦

結(jié)合最近輔助修改的簡歷及項目,老師總結(jié)了部分大模型微調(diào)簡歷的踩雷點。???♂?錯誤示范:在 x任務(wù)中,獲取 xxx 條數(shù)據(jù),通過規(guī)則 or 腳本清洗出 x 條數(shù)據(jù),然后微調(diào) y 大模型,在業(yè)務(wù)上提升 x 個點。???原因:大模型微調(diào)的平臺是現(xiàn)成的,基模是現(xiàn)成的,體現(xiàn)不出核心能力。?應(yīng)該怎么寫?首先介紹業(yè)務(wù)背景:業(yè)務(wù)是一個銷售對話業(yè)務(wù),機器人是銷售,代替真人,直接面對用戶。我們會給模型設(shè)定任務(wù),任務(wù)是 prompt 。步驟1??.提取訓練數(shù)據(jù)問題:1.真人通話每通電話任務(wù)是未知的,我們訓練數(shù)據(jù)是任務(wù)+通話的 pair 對。2.真人通話很亂,與客戶的對話是各種交叉的,導致 asr 后并不是一人一輪。解決方案:1.首先通過大模型 prompt 對該通電話提取任務(wù),得到任務(wù)+ pair 對。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根據(jù)以上任務(wù)和真人對話,讓大模型編寫出通話內(nèi)容。提問,為什么要編寫而不是直接用?步驟2??.制定訓練數(shù)據(jù)集問題:1、正常的對話內(nèi)容,前面幾句和后面幾句基本上一致的。都是問候和拜拜,但是也有一些差異。2、因為都是相似場景,雖然任務(wù)不同,但是很多場景語義很相似。解決方案:1、基于輪次的權(quán)重采樣:通過輪次設(shè)定權(quán)重進行 weighting sample 。解決問候和拜拜的高占比問題。2、基于語義的采樣:使用 bert 對對話內(nèi)容進行 embedding ,然后使用層次聚類通過調(diào)節(jié)閾值聚類出相似語義的類。對一個類里的樣本進行隨機采樣,提問,為什么要對重復語義的數(shù)據(jù)進行下采樣?3、基于客戶類型和產(chǎn)品的采樣,因為很多產(chǎn)品是熱品,導致對話內(nèi)容有偏,用戶類型一樣,需按照類型調(diào)整整體比例采樣。提問,為什么要這么采樣?步驟3??.制定訓練數(shù)據(jù)集我們直接把輸出當作 target 進行訓練。使用的 lora 訓練,但是 lora alpha 設(shè)定成為4倍的時候達到了比較好的效果,經(jīng)驗值不同任務(wù)不一樣,提問,在各種情況下要怎么調(diào)?步驟4??.dpo訓練問題:v1版本訓練時,很多輸出內(nèi)容是對的,但是輸出的語氣不太像真人,機器人味還是很嚴重。解決方案:由于訓練本身是有 ground truth 的,因此使用v1訓練的模型,預測訓練集,使用大模型對比兩者語氣不符合訓練集的拿出來,使用訓練集的 ground truth 和模型的預測數(shù)據(jù)作為 dpo 訓練對,對v1版本模型重新訓練。??這里老師只是簡要進行概括解答,具體情況和詳細解答可以咨詢輔導,如果想了解項目輔導,提升面試能力,歡迎后臺聯(lián)系。#算法# #簡歷中的項目經(jīng)歷要怎么寫# #算法崗面試# #互聯(lián)網(wǎng)大廠招聘#
點贊 評論 收藏
分享
評論
2
13
分享

創(chuàng)作者周榜

更多
牛客網(wǎng)
??推髽I(yè)服務(wù)