1. 程式人生 > >人工智慧面試題

人工智慧面試題

1.什麼是核函式 核函式一般是為了解決維度過高導致的計算能力不足的缺陷,實質就是特徵向量內積的平方 機器學習中,對於線性可分的情況研究的比較透徹,可以採用SVM/LR感知機等成熟的機器學習模型,但是很多情況是我們希望我們的模型學習非線性的模型。通常的做法就是選擇一個函式φ(x)將X對映到另一個空間中,這裡的核心就是如何選擇φ(x).一般有三種做法 1.通過核函式,比如RBF。如果 具有足夠高的維數,我們總是有足夠的能力來擬合訓練集,但是對於測試集的泛化往往不佳。非常通用的特徵對映通常只基於區域性光滑的原則,並且沒有將足夠的先驗資訊進行編碼來解決高階問題。 2.另一種選擇是手動地設計 φ,在深度學習以前,這種方法對於每個單獨的任務都需要人們數十年的努力,從業者各自擅長特定的領域(如語音識別或計算機視覺),並且不同領域之間很難遷移 (transfer)。 3.深度學習方式是去學習這個函式φ(x) 2、深度學習框架TensorFlow中常見的核函式都有哪些? (1)Linear Kernel 線性核是最簡單的核函式。(2)Polynomial Kernel多項式核實一種非標準核函式,它非常適合於正交歸一化後的資料。(3)Gaussian Kernel這裡說一種經典的魯棒徑向基核,即高斯核函式,魯棒徑向基核對於資料中的噪音有著較好的抗干擾能力,其引數決定了函式作用範圍,超過了這個範圍,資料的作用就“基本消失”。高斯核函式是這一族核函式的優秀代表,也是必須嘗試的核函式。(4)Exponential Kernel。 (5) Laplacian Kernel 。(6) ANOVA Kernel。(7)Sigmoid Kernel。(8)Wave Kernel。(9)Triangular  Kernel。(10)Log Kernel。 3、樸素貝葉斯方法的優勢是什麼?

(1)樸素貝葉斯模型有穩定的分類效率。 (2)對小規模的資料表現很好,能處理多分類任務,適合增量式訓練,尤其是資料量超出記憶體時,可以一批批的去增量訓練。 (3)對缺失資料不太敏感,演算法也比較簡單,常用於文字分類。 4、什麼是監督學習的標準方法 (1)K-近鄰演算法 K-近鄰是一種分類演算法,其思路是:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。K通常是不大於20的整數。KNN演算法中,所選擇的鄰居都是已經正確分類的物件。該方法在定類決策上只依據最鄰近的一個或者幾個樣本的類別來決定待分樣本所屬的類別。 (2)決策樹 決策樹是一種常見的分類方法,其思想和“人類逐步分析比較然後作出結論”的過程十分相似 決策樹是一個樹結構(可以是二叉樹或非二叉樹)。其每個非葉節點表示一個特徵屬性上的測試,每個分支代表這個特徵屬性在某個值域上的輸出,而每個葉節點存放一個類別。使用決策樹進行決策的過程就是從根節點開始,測試待分類項中相應的特徵屬性,並按照其值選擇輸出分支,直到到達葉子節點,將葉子節點存放的類別作為決策結果。 不同於貝葉斯演算法,決策樹的構造過程不依賴領域知識,它使用屬性選擇度量來選擇將元組最好地劃分成不同的類的屬性。所謂決策樹的構造就是進行屬性選擇度量確定各個特徵屬性之間的拓撲結構。 (2)樸素貝葉斯 貝葉斯分類是一系列分類演算法的總稱,這類演算法均以貝葉斯定理為基礎,故統稱為貝葉斯分類。樸素貝葉斯演算法(Naive Bayesian) 是其中應用最為廣泛的分類演算法之一。樸素貝葉斯分類器基於一個簡單的假定:給定目標值時屬性之間相互條件獨立。樸素貝葉斯的基本思想是對於給出的待分類項,求解在此項出現的條件下各個類別出現的概率,哪個最大,就認為此待分類項屬於哪個類別。首先給出條件概率的定義,表示事件A在B發生下的條件概率,貝葉斯定理用來描述兩個條件概率之間的關係。樸素貝葉斯分類演算法的具體步驟如下:設為一個待分類項,為的個特徵屬性設有類別集合,即共有個類別依次計算屬於各項分類的條件概率 (3)邏輯迴歸 線性迴歸就是根據已知資料集求一線性函式,使其儘可能擬合數據,讓損失函式最小,常用的線性迴歸最優法有最小二乘法和梯度下降法。而邏輯迴歸是一種非線性迴歸模型,相比於線性迴歸,它多了一個sigmoid函式(或稱為Logistic函式)。邏輯迴歸是一種分類演算法,主要用於二分類問題。

5、在機器學習中,模型的選擇是指什麼 (1)損失函式與風險函式 (2)經驗風險最小化和結構風險最小化 (3)模型評估與模型選擇 (4)正則化與交叉驗證 (5)泛化 (6)欠擬合 (7)過擬合