欧美1区2区3区激情无套,两个女人互添下身视频在线观看,久久av无码精品人妻系列,久久精品噜噜噜成人,末发育娇小性色xxxx

算法打工人阿旺 level
獲贊
32
粉絲
30
關注
0
看過 TA
190
中山大學
2026
算法工程師
IP屬地:山東
阿里高級算法工程師,多模態(tài)/大模型/搜廣推方向輔導
私信
關注
今天老師給大家整理了部分搜索推薦算法工程師(實習)面經。供各位同學參考。?一面1.自我介紹2.先問如果面試通過了,什么時候可以來實習,實習可以線下不3.問有實習過嗎?4.簡單了解下簡歷上的兩個項目除了這個課程設計,對于推薦還了解哪些5.介紹下推薦系統(tǒng)的流程6.召回和排序比較大的差異點7.為啥排序會比召回的結果要準呢?8.項目中 DIN 模型里面的 attention 是怎么做的?score 是怎么得到的?知道原文里是怎么做的嗎?9.現(xiàn)在主要研究是 NLP 嗎?10.簡歷上的在投論文是一作嗎?結果咋樣?11.未來是希望做 NLP 還是 做推薦12.畢業(yè)論文開始寫了嗎?13.實驗有做推薦的嗎?14.大數(shù)據(jù)相關的技術了解如何?15.用戶意圖理解、用戶興趣、畫像建模,應用到推薦上16.編程題:本科是計算系的,平時刷過 leetcode 嗎?回答說:沒有刻意刷過,不知道該如何回答。17.判斷二叉樹是否是鏡像二叉樹,就是判斷是否對稱。leetcode 原題回答說這個題可以用遞歸和迭代來做,寫了遞歸實現(xiàn)。?二面1.自我介紹2.先問了在投的論文,接受了嗎?介紹下這篇 paper3.主觀性很強的場景,如何做量化等等4.結果 f1 提升的 1% 怎么保證有效性,如何保證置信呢?5.固定隨機種子后,多次實驗結果相同嗎?6.介紹下第二個項目,跟推薦系統(tǒng)相關的7.結合這個項目,說說自己對推薦系統(tǒng)的了解8.多目標混排算法有哪些9.召回主流的做法10.召回的目的是什么,推薦系統(tǒng)一定需要召回嗎?11.介紹下 embedding 召回12.推薦系統(tǒng)冷啟動問題,怎么解決13.怎么解決排序結果都是之前電影相似電影的結果14.編程題:最長無重復子數(shù)組,leetcode 原題,用滑動窗口來做。??***************************************
0 點贊 評論 收藏
分享
今天老師給大家分享推薦算法3輪面經,供各位同學參考。1??第一輪1、先自我介紹,我的習慣是經歷簡單介紹一下,然后自然轉向準備最充分的一個項目開始詳細講,面試官感興趣的話最好,不感興趣的話會直接打斷的。主要介紹了項目的背景,難點和解決方案,面試官關心的點主要集中在問題抽象和損失函數(shù),講清楚為什么這么做,項目大概聊了半小時左右2、機器學習基礎:推導 lr,寫出loss和梯度(比起推導svm來說簡直就是送分題,要是寫不出來的話估計會直接掛,基礎還是要好好準備)3、算法 鏈表對折 1 2 3 4 5 變成 1 5 2 4 3拆解一下題目,(靈活)找到鏈表的中點 ??皖}霸: 鏈表中倒數(shù)第k個節(jié)點 是找中點的復雜版,都是雙指針解法翻轉后半段鏈表 ??皖}霸: 翻轉鏈表合并兩個鏈表 牛客題霸: 合并兩個有序鏈表 是復雜版2??第二輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、算法題 m*n的二維數(shù)組,只能往右或者往下,找最短路徑,n空間 ??皖}霸: 矩陣的最小路徑和3、有了解過設計模式嗎?(答了常見的工廠模式和單例模式,對應的應用場景,簡單扯了一下裝飾器模式,也是看xgb源碼看到的,其實不會用)4、系統(tǒng)設計需要注意什么,如何設計一個系統(tǒng),系統(tǒng)性能如何評估,需要考慮哪些指標(考察點應該是線上的系統(tǒng)了,指標比如內存使用率,qps,99 39 49時間之類的)5、之前幫阿里云錄制過一些深度學習的入門課程,簡單聊了一下相關的內容3??第三輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、介紹xgbgbdt和xgb的區(qū)別(居然沒有問lgb)怎么選最優(yōu)分裂節(jié)點,怎么加速,預排序有什么作用,怎么分箱,等寬還是等深怎么處理缺失值的,預測時候缺失值怎么辦3、為什么離職,希望一份什么樣的工作4、有沒有什么問題想要了解的(問了業(yè)務場景 工作內容)??對于想求職算法崗的同學,如果想參加高質量項目輔導,提升面試能力,歡迎后臺聯(lián)系。#簡歷中的項目經歷要怎么寫# #互聯(lián)網大廠招聘# #大模型面經# #算法崗面試#
投遞阿里云等公司10個崗位 簡歷中的項目經歷要怎么寫
0 點贊 評論 收藏
分享
翻遍各種大模型的實現(xiàn),雖然結構上可能保留了 dropout 的實現(xiàn),但是采樣概率都設置為 0 了。唯一一個比較新的,還用 Dropout 的模型是 Meta 訓練的 Galactica 模型。那為什么現(xiàn)在不用了呢?核心還是要弄清楚 Dropout 的使用場景。Dropout 之前在深度學習當中是一個特別好用的方法,可以防止過擬合,提高泛化。所以說,當模型較大,數(shù)據(jù)較少的時候,使用 Dropout 是比較合適的?,F(xiàn)在大模型處在什么狀態(tài)呢??預訓練在預訓練階段,目前可能還是處于欠擬合的狀態(tài)。之所以說可能,是基于目前公開的一些論文的出的結論。但是現(xiàn)在閉源的公司在采用大量數(shù)據(jù)合成的情況下,已經訓練足夠充分或者接近充分也說不定。以 llama 一系列論文為例,訓練 llama 1 的時候,龍貓 Scaling law 里面提到 GPT3 是一個訓練很不充分的模型。然后給出的數(shù)據(jù)配比的建議是,10B 的模型要采用 200B 的 token 來訓練。但是 llama 1 采用了 7B 的模型,訓練量 1T 的 token 發(fā)現(xiàn)性能依然有提升。而且預訓練所有的語料一般只過一個 epoch,某些特定的領域可能過 2個 epoch,可以認為樣本的重復率很低。所以,在數(shù)據(jù)足夠多,多樣性足夠而且沒有太多重復的情況下,大模型在預訓練階段仍然沒有過擬合的風險。也就完全不需要采用 dropout。?Dropout 就完全不需要了么?如果上面的條件不能滿足,Dropout 還是有用武之地的。比如前面提到的 Galactica 模型。這個模型和其他大模型不太一樣的地方是訓練了 4.25 個 epoch,因為他們認為高質量的數(shù)據(jù)更重要一些,但是又沒有那么多,所以就 repeat 數(shù)據(jù)了。在論文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,詳細列舉了數(shù)據(jù) Repeat 對訓練 LLM 的影響,并且證明了 Dropout 可以緩解數(shù)據(jù)重復帶來的性能損失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的時候,少量的重復數(shù)據(jù)就會降低模型的性能。這也符合常理,SFT 的數(shù)據(jù)分布和預訓練的通常是不太一樣的,重復的數(shù)據(jù)會讓模型擬合新的分布,從而忘掉舊的分布。文中同樣也提到 Dropout 可以緩解數(shù)據(jù)重復帶來的影響。所以 Dropout 在數(shù)據(jù)量較少,多樣性不高,需要 repeat 的場景下,依然是一個減少過擬合的很方便的手段。比如現(xiàn)在已經有一些在 LoRA 微調的時候采用 Dropout 的研究了。
0 點贊 評論 收藏
分享
今天老師整理了大模型入門的幾個學習步驟、目標和需要掌握的基礎知識,供初學者快速掌握基本路徑。1??前置知識: Python 基礎、 Linux 基礎??學習內容1.熟練掌握 Python 語言,熟悉常用的Python 庫和工具,如 NumPy 、 Pandas 、  Scikit - learn 、 PyTorch 等。2.具備 NLP 相關的基礎知識,包括文本預處理、分詞、詞性標注等。3.對大模型有一定了解,包括Transformer 模型的結構和原理、基于注意力機制的自然語言處理技術等。2??Step1:NLP相關基礎知識??學習內容1.了解文本預處理、分詞、詞性標注、命名實體識別、詞向量表示等基礎知識。2.掌握機器學習中的數(shù)據(jù)預處理、特征提取、分類、回歸等基礎算法,并了解其在 NLP 領域的應用。3.了解大規(guī)模 NLP 任務中的常用技術和方法,如深度學習中的 Transformer 模型、 BERT 、 GPT 等。3??Step2:GPT API 調用及 Prompt 設計??學習內容了解 GPT API 的調用方式和基本操作,熟悉 Prompt 設計技巧和要點,能夠結合自己的任務調用 API 實現(xiàn)對應的任務代碼。4??Step3:模型微調( Fine - tuning )??學習內容了解常見的微調模型的基本流程和原理,熟悉數(shù)據(jù)集的構造、訓練、評估等過程,能夠獨立構建 QA 對,在服務器上對模型進行微調。5??Step4: RAG (外掛數(shù)據(jù)庫)??學習內容RAG 作為目前最火的一個 LLM 落地方向,可以結合私有數(shù)據(jù)(表格、 word 、 txt 、 pdf 、數(shù)據(jù)庫皆可)實現(xiàn)本地問答,且訓練成本較低,可以快速實現(xiàn)效果。??有需要提升面試能力和輔導項目的同學可以后臺聯(lián)系我~
0 點贊 評論 收藏
分享
今天老師給大家分享推薦算法3輪面經,供各位同學參考。1??第一輪1、先自我介紹,我的習慣是經歷簡單介紹一下,然后自然轉向準備最充分的一個項目開始詳細講,面試官感興趣的話最好,不感興趣的話會直接打斷的。主要介紹了項目的背景,難點和解決方案,面試官關心的點主要集中在問題抽象和損失函數(shù),講清楚為什么這么做,項目大概聊了半小時左右2、機器學習基礎:推導 lr,寫出loss和梯度(比起推導svm來說簡直就是送分題,要是寫不出來的話估計會直接掛,基礎還是要好好準備)3、算法 鏈表對折 1 2 3 4 5 變成 1 5 2 4 3拆解一下題目,(靈活)找到鏈表的中點 ??皖}霸: 鏈表中倒數(shù)第k個節(jié)點 是找中點的復雜版,都是雙指針解法翻轉后半段鏈表 ??皖}霸: 翻轉鏈表合并兩個鏈表 ??皖}霸: 合并兩個有序鏈表 是復雜版2??第二輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、算法題 m*n的二維數(shù)組,只能往右或者往下,找最短路徑,n空間 ??皖}霸: 矩陣的最小路徑和3、有了解過設計模式嗎?(答了常見的工廠模式和單例模式,對應的應用場景,簡單扯了一下裝飾器模式,也是看xgb源碼看到的,其實不會用)4、系統(tǒng)設計需要注意什么,如何設計一個系統(tǒng),系統(tǒng)性能如何評估,需要考慮哪些指標(考察點應該是線上的系統(tǒng)了,指標比如內存使用率,qps,99 39 49時間之類的)5、之前幫阿里云錄制過一些深度學習的入門課程,簡單聊了一下相關的內容3??第三輪1、先介紹項目,主要聊了項目背景和收益,收益具體怎么衡量,項目如何上線生效2、介紹xgbgbdt和xgb的區(qū)別(居然沒有問lgb)怎么選最優(yōu)分裂節(jié)點,怎么加速,預排序有什么作用,怎么分箱,等寬還是等深怎么處理缺失值的,預測時候缺失值怎么辦3、為什么離職,希望一份什么樣的工作4、有沒有什么問題想要了解的(問了業(yè)務場景 工作內容)??對于想求職算法崗的同學,如果想參加高質量項目輔導,提升面試能力,歡迎后臺聯(lián)系。#簡歷中的項目經歷要怎么寫# #大模型# #大模型面經# #互聯(lián)網大廠招聘#
查看9道真題和解析 簡歷中的項目經歷要怎么寫
0 點贊 評論 收藏
分享
翻遍各種大模型的實現(xiàn),雖然結構上可能保留了 dropout 的實現(xiàn),但是采樣概率都設置為 0 了。唯一一個比較新的,還用 Dropout 的模型是 Meta 訓練的 Galactica 模型。那為什么現(xiàn)在不用了呢?核心還是要弄清楚 Dropout 的使用場景。Dropout 之前在深度學習當中是一個特別好用的方法,可以防止過擬合,提高泛化。所以說,當模型較大,數(shù)據(jù)較少的時候,使用 Dropout 是比較合適的?,F(xiàn)在大模型處在什么狀態(tài)呢??預訓練在預訓練階段,目前可能還是處于欠擬合的狀態(tài)。之所以說可能,是基于目前公開的一些論文的出的結論。但是現(xiàn)在閉源的公司在采用大量數(shù)據(jù)合成的情況下,已經訓練足夠充分或者接近充分也說不定。以 llama 一系列論文為例,訓練 llama 1 的時候,龍貓 Scaling law 里面提到 GPT3 是一個訓練很不充分的模型。然后給出的數(shù)據(jù)配比的建議是,10B 的模型要采用 200B 的 token 來訓練。但是 llama 1 采用了 7B 的模型,訓練量 1T 的 token 發(fā)現(xiàn)性能依然有提升。而且預訓練所有的語料一般只過一個 epoch,某些特定的領域可能過 2個 epoch,可以認為樣本的重復率很低。所以,在數(shù)據(jù)足夠多,多樣性足夠而且沒有太多重復的情況下,大模型在預訓練階段仍然沒有過擬合的風險。也就完全不需要采用 dropout。?Dropout 就完全不需要了么?如果上面的條件不能滿足,Dropout 還是有用武之地的。比如前面提到的 Galactica 模型。這個模型和其他大模型不太一樣的地方是訓練了 4.25 個 epoch,因為他們認為高質量的數(shù)據(jù)更重要一些,但是又沒有那么多,所以就 repeat 數(shù)據(jù)了。在論文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,詳細列舉了數(shù)據(jù) Repeat 對訓練 LLM 的影響,并且證明了 Dropout 可以緩解數(shù)據(jù)重復帶來的性能損失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的時候,少量的重復數(shù)據(jù)就會降低模型的性能。這也符合常理,SFT 的數(shù)據(jù)分布和預訓練的通常是不太一樣的,重復的數(shù)據(jù)會讓模型擬合新的分布,從而忘掉舊的分布。文中同樣也提到 Dropout 可以緩解數(shù)據(jù)重復帶來的影響。所以 Dropout 在數(shù)據(jù)量較少,多樣性不高,需要 repeat 的場景下,依然是一個減少過擬合的很方便的手段。比如現(xiàn)在已經有一些在 LoRA 微調的時候采用 Dropout 的研究了。#算法# #簡歷中的項目經歷要怎么寫# #算法崗面試# #互聯(lián)網大廠招聘# #大模型# #大模型面經#
0 點贊 評論 收藏
分享
04-29 07:46
已編輯
中山大學 算法工程師
0 點贊 評論 收藏
分享
結合最近輔助修改的簡歷及項目,老師總結了部分大模型微調簡歷的踩雷點。???♂?錯誤示范:在 x任務中,獲取 xxx 條數(shù)據(jù),通過規(guī)則 or 腳本清洗出 x 條數(shù)據(jù),然后微調 y 大模型,在業(yè)務上提升 x 個點。???原因:大模型微調的平臺是現(xiàn)成的,基模是現(xiàn)成的,體現(xiàn)不出核心能力。?應該怎么寫?首先介紹業(yè)務背景:業(yè)務是一個銷售對話業(yè)務,機器人是銷售,代替真人,直接面對用戶。我們會給模型設定任務,任務是 prompt 。步驟1??.提取訓練數(shù)據(jù)問題:1.真人通話每通電話任務是未知的,我們訓練數(shù)據(jù)是任務+通話的 pair 對。2.真人通話很亂,與客戶的對話是各種交叉的,導致 asr 后并不是一人一輪。解決方案:1.首先通過大模型 prompt 對該通電話提取任務,得到任務+ pair 對。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根據(jù)以上任務和真人對話,讓大模型編寫出通話內容。提問,為什么要編寫而不是直接用?步驟2??.制定訓練數(shù)據(jù)集問題:1、正常的對話內容,前面幾句和后面幾句基本上一致的。都是問候和拜拜,但是也有一些差異。2、因為都是相似場景,雖然任務不同,但是很多場景語義很相似。解決方案:1、基于輪次的權重采樣:通過輪次設定權重進行 weighting sample 。解決問候和拜拜的高占比問題。2、基于語義的采樣:使用 bert 對對話內容進行 embedding ,然后使用層次聚類通過調節(jié)閾值聚類出相似語義的類。對一個類里的樣本進行隨機采樣,提問,為什么要對重復語義的數(shù)據(jù)進行下采樣?3、基于客戶類型和產品的采樣,因為很多產品是熱品,導致對話內容有偏,用戶類型一樣,需按照類型調整整體比例采樣。提問,為什么要這么采樣?步驟3??.制定訓練數(shù)據(jù)集我們直接把輸出當作 target 進行訓練。使用的 lora 訓練,但是 lora alpha 設定成為4倍的時候達到了比較好的效果,經驗值不同任務不一樣,提問,在各種情況下要怎么調?步驟4??.dpo訓練問題:v1版本訓練時,很多輸出內容是對的,但是輸出的語氣不太像真人,機器人味還是很嚴重。解決方案:由于訓練本身是有 ground truth 的,因此使用v1訓練的模型,預測訓練集,使用大模型對比兩者語氣不符合訓練集的拿出來,使用訓練集的 ground truth 和模型的預測數(shù)據(jù)作為 dpo 訓練對,對v1版本模型重新訓練。??這里老師只是簡要進行概括解答,具體情況和詳細解答可以咨詢輔導,如果想了解項目輔導,提升面試能力,歡迎后臺聯(lián)系。#算法# #簡歷中的項目經歷要怎么寫# #算法崗面試# #互聯(lián)網大廠招聘#
0 點贊 評論 收藏
分享
今天老師結合輔導經驗,分享一些豐富項目經歷的方法,供各位同學參考學習。?關于怎么找項目這個問題,其實來源可以是很多的,比如數(shù)據(jù)競賽: Kaggle 、百度 AlStudio 、阿里天池等?Github 高 Star 項目?項目輔導:在輔導中老師會帶各位同學接觸實際大廠的高級別項目,能夠滿足技術棧和大廠契合,有應用場景,有可以發(fā)布論文的創(chuàng)新點或者能解決業(yè)務問題的整體Pipeline,并且有明確的優(yōu)化思路(比如版本迭代)。也很重要的是??你能否把你的項目完整且精彩的寫在簡歷上并且講述給你的面試官聽。??過程分為三步:1??明確想做的任務和方法:任務:拿 NLP 舉例,主要分為四大任務:分類任務、生成任務、序列標注、句子關系判斷方法:主流方法 or 前沿方法。還是拿 NLP 舉例,主流方法可以是 BERT ,前沿方法當然就是大模型微調啦2??找到相關代碼+多迭代明確任務和方法之后,就可以找找 Github 先跑通一個 Version 1了。接下來比較關鍵的一步就是如何優(yōu)化你的 Version 1了。比如你可以從數(shù)據(jù)預處理、加入小 trick 、對比不同模型性能等多種角度來以此嘗試,試圖能否提升性能與效果。其實這就是面試官想看到的,因為大家可以想想互聯(lián)網的一個最重要的特點不就是飛速的迭代嘛,很多的算法崗業(yè)務也是如此:要不就是開辟新業(yè)務,要不就是用新方法重新做一遍舊業(yè)務,一旦優(yōu)化成功了,你的新模型就成功上線了。3??寫好故事+講好故事簡歷書寫(這一篇筆記先不具體展開了),但大致可以按照下面一部分的幾個角度來切入講好故事:面試前提前準備好下面幾個問題,數(shù)據(jù)是什么,方法是什么(對應八股要準備好),項目的目的是什么﹣﹣讓面試官有個總體了解是怎么迭代算法與模型的,性能對比情況如何﹣﹣體現(xiàn)你的工程能力與優(yōu)化能力,遇到過什么困難,是如何解決的﹣﹣提升真實性,讓面試官直觀的感受到你是自己做的,還有什么改進空間﹣﹣體現(xiàn)你的思考與沉淀。??如果想進行更加詳細具體的項目輔導,提升面試能力,歡迎后臺聯(lián)系。#算法# #簡歷中的項目經歷要怎么寫#
0 點贊 評論 收藏
分享
今天老師給大家梳理了部分大廠搜廣推算法崗面試真題,供各位同學參考學習。1.PPNet的核心思想是什么?為什么要 stop gradient ?什么時候不需要這樣操作?2.多目標模型很容易遇到蹺蹺板問題或者兩個 loss 數(shù)量級相差很大,優(yōu)化速度差異太大,你知道有什么優(yōu)化方法嗎?3.NEG loss 和 NCE loss 有什么區(qū)別? infonce loss 公式是什么4.召回業(yè)務一般怎么定義負樣本? bce loss 的公式是什么?簡述一下 Pointwise , pairwise 和 listwise 的區(qū)別是什么?召回一般用什么 loss ?5.粗排的作用?怎么驗證粗排精排的鏈路一致性?用什么指標可以衡量鏈路一致性?6.大模型了解嗎?怎么在推薦中應用?比如怎么在召回中用?大模型訓練分成哪幾個階段?簡述一下各個階段在干什么7.千萬級別的整型數(shù)組,怎么獲取其中出現(xiàn)次數(shù)最多的前 N 個數(shù)?(考數(shù)據(jù)結構)8.講一下你知道的機器學習里面的算法,比如 AdaBoost , GBDT , XGBoost 這些。 Bagging 和 Boosting 的區(qū)別?隨機森林是什么9.講一下Word2vec是怎么做的?怎么降低計算復雜度?10.你知道的中心極限定理有哪些?11.雙塔模型優(yōu)勢和缺點,怎么改進?12.粗排的目的是什么?有哪些指標,粗排應該向精排看齊嗎?13.說一下 BN 的公式,哪幾個參數(shù)是在訓練時更新,在推理時還更新嗎?簡述一下測試過程中的 BN 怎么算。 BN 和 LN 的區(qū)別?14.當神經網絡的權重初始化為0時,會遇到什么問題?15.你能抽象地歸納出序列建模發(fā)展的脈絡嗎?以及它的最終形態(tài)應該是什么樣子???對于想求職算法崗的同學,如果想參加高質量項目輔導,提升面試能力,歡迎后臺聯(lián)系。
查看15道真題和解析
0 點贊 評論 收藏
分享

創(chuàng)作者周榜

更多
關注他的用戶也關注了:
??途W
牛客企業(yè)服務