1. 程式人生 > >機器學習LR模型,在面試中經常被問到的問題

機器學習LR模型,在面試中經常被問到的問題

     面試機器學習崗位或者演算法崗位,經常會被問到一些機器學習演算法,其中還有很多細節性的知識。在面試中接觸到的LR模型是最多的,為什麼?大概原因是LR在公司中用的比較多,這時你可能會問了,這個演算法不是很簡單嗎,效能一般是比不上整合學習演算法的。對的,確實是這樣,但是公司做應用時不僅僅需要考慮效能,還得考慮效率,簡單高效很重要。

     1.之前聽其他面試者說,遇到過寫LR中損失函式的推導,也就是從概率一般式  技術分享開始,運用似然函式求解概率最大(被問到:為什麼可以用似然函式。答:因為目標是要讓預測為正的的概率最大,且預測為負的概率也最大,即每一個樣本預測都要得到最大的概率,將所有的樣本預測後的概率進行相乘都最大,這就能到似然函數了。)即:

技術分享

然後取對數:再乘以負的m分之一,就得到了損失函式。

     2.邏輯迴歸為什麼一般效能差?LR是線性的,不能得到非線性關係,實際問題並不完全能用線性關係就能擬合。

     3.使用L1L2正則化,為什麼可以降低模型的複雜度?模型越複雜,越容易過擬合,這大家都知道,加上L1正則化給了模型的拉普拉斯先驗,加上L2正則化給了模型的高斯先驗。從引數的角度來看,L1得到稀疏解,去掉一部分特徵降低模型複雜度。L2得到較小的引數,如果引數很大,樣本稍微變動一點,值就有很大偏差,這當然不是我們想看到的,相當於降低每個特徵的權重。

     4.那麼為什麼L1能得到稀疏解呢?L1正則化是L1範數而來,投到座標圖裡面,是稜型的,最優解在座標軸上取到,所以某些部分的特徵的係數就為0。

     5.L1正則化不可導,怎麼求解?座標軸下降法(按照每個座標軸一個個使其收斂),最小角迴歸(是一個逐步的過程,每一步都選擇一個相關性很大的特徵,總的運算步數只和特徵的數目有關,和訓練集的大小無關)

     6.。。。。

以上都是個人的理解,有誤請指出。