1. 程式人生 > >BAT機器學習面試題1000題(311~315題)

BAT機器學習面試題1000題(311~315題)

640?wx_fmt=png&wxfrom=5&wx_lazy=1

《BAT機器學習面試1000題》系列作為國內首個AI題庫,囊括絕大部分機器學習和深度學習的筆試面試題、知識點,可以作為機器學習自測題,也可以當做查漏補缺的資料庫。七月線上AI題庫見“閱讀原文”(點進頁面掃碼下載APP)

311、下面哪些對「型別 1(Type-1)」和「型別 2(Type-2)」錯誤的描述是正確的?

A. 型別 1 通常稱之為假正類,型別 2 通常稱之為假負類。
B. 型別 2 通常稱之為假正類,型別 1 通常稱之為假負類。
C. 型別 1 錯誤通常在其是正確的情況下拒絕假設而出現。
答案為(A)和(C):在統計學假設測試中,I 類錯誤即錯誤地拒絕了正確的假設即假正類錯誤,II 類錯誤通常指錯誤地接受了錯誤的假設即假負類錯誤。

312、在下面的影象中,哪一個是多元共線(multi-collinear)特徵?


640?wx_fmt=png&wxfrom=5&wx_lazy=1
A. 圖 1 中的特徵
B. 圖 2 中的特徵
C. 圖 3 中的特徵
D. 圖 1、2 中的特徵
E. 圖 2、3 中的特徵
F. 圖 1、3 中的特徵
答案為(D):在圖 1 中,特徵之間有高度正相關,圖 2 中特徵有高度負相關。所以這兩個圖的特徵是多元共線特徵。

313、鑑別了多元共線特徵。那麼下一步可能的操作是什麼?
A. 移除兩個共線變數

B. 不移除兩個變數,而是移除一個
C. 移除相關變數可能會導致資訊損失,可以使用帶罰項的迴歸模型(如 ridge 或 lasso regression)。
答案為(B)和(C):因為移除兩個變數會損失一切資訊,所以我們只能移除一個特徵,或者也可以使用正則化演算法(如 L1 和 L2)。

314、給線性迴歸模型新增一個不重要的特徵可能會造成?


A. 增加 R-square

B. 減少 R-square
答案為(A):在給特徵空間添加了一個特徵後,不論特徵是重要還是不重要,R-square 通常會增加。

315、假定目標變數的類別非常不平衡,即主要類別佔據了訓練資料的 99%。現在你的模型在測試集上表現為 99% 的準確度。那麼下面哪一項表述是正確的?
A. 準確度並不適合於衡量不平衡類別問題
B. 準確度適合於衡量不平衡類別問題
C. 精確率和召回率適合於衡量不平衡類別問題
D. 精確率和召回率不適合于衡量不平衡類別問題
答案為(A)和(C)

往期題目:

640?wx_fmt=png

0?wx_fmt=gif提高學習效率,顛覆傳統刷題!

相關推薦

BAT機器學習試題1000311~315

《BAT機器學習面試1000題》系列作為國內首個AI題庫,囊括絕大部分機器學習和深度學習的筆試面

BAT機器學習試題1000316~320

《BAT機器學習面試1000題》系列作為國內首個AI題庫,囊括絕大部分機器學習和深度學習的筆試面

BAT機器學習試題1000306~310

《BAT機器學習面試1000題》系列作為國內首個AI題庫,囊括絕大部分機器學習和深度學習的筆試面

機器學習試題總結

原文連結: https://blog.csdn.net/sinat_35512245/article/details/78796328 1.請簡要介紹下SVM。 SVM,全稱是support vector machine,中文名叫支援向量機。SVM是一個面向資料的分類演算法,它的目標是為確定一個

資源 | 25個機器學習試題,期待你來解答

能力 類別 改善 正則化 時間序列 多個 數學 版本 batch 資源 | 25個機器學習面試題,期待你來解答 https://mp.weixin.qq.com/s/aL-gZ9LzYCkpTcsQF1FZjA 選自Medium 機器之心編譯 參與:Geek A

每日一試題 幸運巧克力字首和+hash

題目描述 思路: 注意到每個元素都是 x >= 0, 所以該陣列的字首和是遞增的。要找到連續的子序列之和等於k 即找到 sum[i] - sum[j] = k 且 0 <= j < i , 兩重for迴圈會超時,注意到字首和是遞增的,那麼將上式改寫成 s

常見的機器學習試題

1.請詳細說說支援向量機(support vector machine,SVM)的原理。 一般不會問,但是你要用自己的話說出來。 2.哪些機器學習演算法不需要做歸一化處理? 解析: 在實際應用中,通過梯度下降法求解的模型一般都是需要歸一化的,比如線性迴歸、logist

機器學習試題1-20

1.哪些機器學習演算法不需要做歸一化? 在實際應用中,通過梯度下降法求解的模型一般都是需要歸一化的,比如線性迴歸、logistic迴歸、KNN、SVM、神經網路等模型。 但樹形模型不需要歸一化,因為它們不關心變數的值,而是關心變數的分佈和變數之間的條件概率,如決策樹、隨機森

機器學習試題

relu優缺點 優點:relu不需要想sigmoid函式一樣進行復雜的指數運算,是的其收斂速度非常快。並且,relu函式的導數為1,不會導致梯度變小,因此一定程度上解決了梯度消失的問題。 缺點:在訓練過程中relu神經元比較脆弱,容易出現神經元“死亡”。如果神經元接收到一個非常大的梯度流之後,這個神經元的

java常見的120道試題第一季每30為一季,整理的好辛苦~~~

哎,大晚上的看題,也是醉了,分享給大夥咯!!! 問答題1 /120 什麼是Java虛擬機器?為什麼Java被稱作是“平臺無關的程式語言”? 參考答案 Java虛擬機器是一個可以執行Java位元組碼的虛

41個機器學習試題

41 Essential Machine Learning Interview Questions (with answers) 一、演算法理論 Q1: 什麼是偏倚(bias)、方差(variable)均衡? 偏倚指的是模型預測值與真實值的差異,是由使用的

常見機器學習試題

參考:http://kubicode.me/2015/08/16/Machine%20Learning/Common-Interview/?from=singlemessage# http://blog.csdn.NET/heyongluoyao8/article/de

15道機器學習試題,讓你順利得到offer!

DT時代,機器學習作為一門熱門的科學研究專案,也成為了眾多IT人想要進修或從事的領域。現在,大聖眾包威客平臺(www.dashengzb.cn)便為大家蒐羅15道或常見或棘手的機器學習面試題目,讓欲從事相關工作的IT人能夠更加從容地走上機器學習專家之路。   問1

機器學習試題之——簡單解釋正則化為什麼能減小模型複雜度

理論上,從VC維的角度可以解釋,正則化能直接減少模型複雜度。(公式理論略) 直觀上,對L1正則化來說,求導後,多了一項η * λ * sgn(w)/n,在w更新的過程中: 當w為正時,新的w減小,當w為負時,新的w增大,意味著新的w不斷向0靠近,即減小了模型複雜度。(

15道機器學習試題

1、你會在時間序列資料集上使用什麼交叉驗證技術?是用k倍或LOOCV?  都不是。對於時間序列問題,k倍可能會很麻煩,因為第4年或第5年的一些模式有可能跟第3年的不同,而對資料集的重複取樣會將分離這些趨勢,而我們最終可能只是需要對過去幾年的進行驗證,這就不能用這種方法了。相

機器學習試題之——LR問題集合

一、LR為什麼是線性模型 Logistic Regression從機率的概念構建線性迴歸模型。一個事件發生的機率(odds)為該事件發生的概率與不發生概率的比值,機率的取值範圍為[0,+∞),其對數的取值範圍為實數域,所以,可以將對數機率作為因變數構建線性迴歸模型:    

機器學習試題整理

持更中。。。(最近電腦卡得要死) 主要focus在場景題上 一、2015百度校招筆試題 (1)垃圾郵件分類問題 1. 垃圾郵件分類特徵? 2. 訓練集中99%非垃圾、1%垃圾,訓練模型視為100%非垃圾,準確率?召回率? 3. 在實際的應用場景中,儘

[轉] [機器學習] 常用數據標準化正則化的方法

機器學習 數據 評價 分享 函數 http mean 常用方法 訓練 數據正則化 目的:為了加快訓練網絡的收斂性,可以不進行歸一化處理 源地址:http://blog.sina.com.cn/s/blog_8808cae20102vg53.html 而在多指標評價體系中,

機器學習:邏輯回歸損失函數

梯度 模型 分享圖片 com info 而且 機器學習 邏輯 分類 # # 由於邏輯回歸解決的是分類問題,而且是二分類,因此定義損失函數時也要有兩類   # 1)如果 y = 1(p ≥ 0.5),p 越小,損失函數越大;   # 2)如果 y = 0(p ≤ 0.5),

Linux 運維工程師經典試題合集不斷更新中 ...

type ESS 9.png aux 比較 服務器 var 命令 如何 寫在前面的話 做運維以來,關註了很多關於互聯網技術,培訓等亂七八糟的公眾號,時不時的就會推一些各種公司的面試題過來。 大致看了一下,發現自己很多知識要麽遺忘了,要麽很難說出個所