探探-推薦算法-日常實習面經(jīng)
一面:
1. 對推薦算法大概有多少了解
2. kaggle比賽用了什么模型,做了什么優(yōu)化
3. 你是如何把幾個模型的分數(shù)做融合的
4. 如果這個權重也作為一個變量參與到訓練,這種方式和你手動調參相比會有什么樣的差異呢
這題我回答的是串行訓練會更多耗時,但是參數(shù)精度會提高效果會更好,但是總覺得還是沒答到點子上
5. 隨機森林的具體運行過程
6. 如何判斷過擬合和欠擬合,怎么解決
7. 如何解決梯度消失和梯度爆炸
8. 如果有梯度消失或者梯度爆炸,你發(fā)現(xiàn)你的神經(jīng)網(wǎng)絡已經(jīng)很深了,你是要繼續(xù)加深還是減少呢,為什么要這么做
這題我回答的是減少,因為梯度消失問題和梯度爆炸問題一般會隨著網(wǎng)絡層數(shù)的增加變得越來越明顯
手撕(自有IDE)
1. 無重復字符的最長子串,lc原題。
2. 判斷輸入的數(shù)據(jù)將會被插入哪個桶,一道二分,類似于搜索插入位置,lc改編。
二面:
1. 說一下LR里面正則項的原理是什么?為什么加了正則項就能去過擬合呢
2. 一方面你要學這個參數(shù),一方面你又限制學,不是矛盾的嗎?
3. cross validation,帶有cross validation的訓練步驟說一下
注意cross validation調的是超參,當時嘴瓢了
4. Kaggle競賽規(guī)模,說一下你用的trick,為什么這個trick能work?
5. 你對cnn這個模型本身有什么了解?為什么傳統(tǒng)的mlp在圖像上沒有什么效果呢?
6. 說一下對transformer的認知和理解
手撕(自有IDE)
題目:給定兩列,都是user_id,每一行都是一個好友關系,輸入一個user_id,找出跟這個用戶共同好友數(shù)最多的那個人
#探探##日常實習##面經(jīng)#
1. 對推薦算法大概有多少了解
2. kaggle比賽用了什么模型,做了什么優(yōu)化
3. 你是如何把幾個模型的分數(shù)做融合的
4. 如果這個權重也作為一個變量參與到訓練,這種方式和你手動調參相比會有什么樣的差異呢
這題我回答的是串行訓練會更多耗時,但是參數(shù)精度會提高效果會更好,但是總覺得還是沒答到點子上
5. 隨機森林的具體運行過程
6. 如何判斷過擬合和欠擬合,怎么解決
7. 如何解決梯度消失和梯度爆炸
8. 如果有梯度消失或者梯度爆炸,你發(fā)現(xiàn)你的神經(jīng)網(wǎng)絡已經(jīng)很深了,你是要繼續(xù)加深還是減少呢,為什么要這么做
這題我回答的是減少,因為梯度消失問題和梯度爆炸問題一般會隨著網(wǎng)絡層數(shù)的增加變得越來越明顯
手撕(自有IDE)
1. 無重復字符的最長子串,lc原題。
2. 判斷輸入的數(shù)據(jù)將會被插入哪個桶,一道二分,類似于搜索插入位置,lc改編。
二面:
1. 說一下LR里面正則項的原理是什么?為什么加了正則項就能去過擬合呢
2. 一方面你要學這個參數(shù),一方面你又限制學,不是矛盾的嗎?
3. cross validation,帶有cross validation的訓練步驟說一下
注意cross validation調的是超參,當時嘴瓢了
4. Kaggle競賽規(guī)模,說一下你用的trick,為什么這個trick能work?
5. 你對cnn這個模型本身有什么了解?為什么傳統(tǒng)的mlp在圖像上沒有什么效果呢?
6. 說一下對transformer的認知和理解
手撕(自有IDE)
題目:給定兩列,都是user_id,每一行都是一個好友關系,輸入一個user_id,找出跟這個用戶共同好友數(shù)最多的那個人
#探探##日常實習##面經(jīng)#
全部評論
斯坦福??去探探實習嘛
大佬kaggle比賽是什么牌子
相關推薦


京東
| 實習
| 超多精選崗位
點贊 評論 收藏
分享
點贊 評論 收藏
分享