1. 程式人生 > >優達機器學習:決策樹練習題

優達機器學習:決策樹練習題

12 練習:決策樹準確性

這裡優達的執行環境有個坑,就是他時而準確時而錯誤,所以測試的時候就一會兒是對的,一會兒是錯的,同樣的一個程式碼,感覺變數會混淆似的

import sys
from class_vis import prettyPicture
from prep_terrain_data import makeTerrainData

import matplotlib.pyplot as plt
import numpy as np
import pylab as pl

features_train, labels_train, features_test, labels_test = makeTerrainData()



########################## DECISION TREE #################################
### your code goes here--now create 2 decision tree classifiers, ### one with min_samples_split=2 and one with min_samples_split=50 ### compute the accuracies on the testing data and store ### the accuracy numbers to acc_min_samples_split_2 and ### acc_min_samples_split_50, respectively from sklearn import
tree from sklearn.metrics import accuracy_score clf50 = tree.DecisionTreeClassifier(min_samples_split=50) clf50.fit(features_train,labels_train) result50 = clf50.predict(features_test) acc_min_samples_split_50 = accuracy_score(labels_test,result50) clf2 = tree.DecisionTreeClassifier(min_samples_split=2) clf2.fit(features_train,labels_train) result2 = clf2.predict(features_test) acc_min_samples_split_2 = accuracy_score(labels_test,result2) def
submitAccuracies():
return {"acc_min_samples_split_2":round(acc_min_samples_split_2,3), "acc_min_samples_split_50":round(acc_min_samples_split_50,3)}

相關推薦

機器學習決策練習題

12 練習:決策樹準確性 這裡優達的執行環境有個坑,就是他時而準確時而錯誤,所以測試的時候就一會兒是對的,一會兒是錯的,同樣的一個程式碼,感覺變數會混淆似的 import sys from class_vis import prettyPicture f

機器學習決策(基尼系數)

try matplot 代碼實現 sci bubuko div tro 兩種 () 一、基礎理解  1)公式 k:數據集中樣本類型數量; Pi:第 i 類樣本的數量占總樣本數量的比例  2)實例計算基尼系數 3 種情況計算基尼系數: 基尼系數的性質與信息熵

機器學習決策過擬合與剪枝,決策程式碼實現(三)

文章目錄 楔子 變數 方法 資料預處理 剪枝 獲取待剪集: 針對ID3,C4.5的剪枝 損失函式的設計 基於該損失函式的演算法描述 基於該損失函式的程式碼實

機器學習決策及ID3,C4.5,CART演算法描述

文章目錄 概念理解 熵: 條件熵: 資訊增益,互資訊: 資訊增益比 基尼指數 ID3演算法描述 C4.5演算法描述 CART (Classification and Regression Tree

機器學習神經網路

練習:建立感知 # ---------- # # In this exercise, you will add in code that decides whether a perceptron will fire based # on the thre

機器學習 決策(Decision Tree)

1. 理論 概述: 決策樹的內部節點表示一個特徵或屬性,葉子節點表示一個類別。輸入一個新樣本,從根節點開始按照節點說示的特徵劃分,直到劃分到葉子節點,該葉子節點即為類別。 關於熵的基礎知識 熵:

機器學習主成分分析(PCA)

主成分是由資料中具有最大方差的方向決定的,因為可以最大程度的保留資訊量 我理解相當於降維,也就是將特徵通過降維的方式減少 方差最大化相當於將所有的距離最小化,這個方差和平時理解的方差不太一樣 PCA可以幫助你發現數據中的隱藏特徵,比如說得到總體上有兩個因素推動

機器學習決策(Decision Tree)

本部落格參考鄒博機器學習課件以及李航的《統計學習方法》,僅用於督促自己學習使用,如有錯誤,歡迎大家提出更正 決策樹(decision tree)是一種基本的分類與迴歸方法。在分類問題中,它可以認為是if-then規則的集合,也可以認為是定義在特徵空間與

機器學習交叉驗證

練習:在 Sklearn 中訓練/測試分離 #!/usr/bin/python """ PLEASE NOTE: The api of train_test_split changed and moved from sklearn.cross_vali

機器學習決策cart演算法在分類與迴歸的應用(上)

#include #include #include #include #include #include #include #include #include #include #include using namespace std; //置信水平取0.95時的卡方表 const double CHI

機器學習決策

決策樹是機器學習中非常基礎的演算法,也是我研究生生涯學習到的第一個有監督模型,其中最基礎的ID3是1986年被髮表出來的,一經發表,之後出現了眾多決策樹演算法,不過最常見的還是C4.5和cart樹。在我的研究中,用不到決策樹,在天池或者Kaggle也很少用到單個決策樹,這種競賽一般用的整合演算法較多,畢竟是2

筆記機器學習決策

目錄 決策樹概述 特徵選擇 生成決策樹 剪枝 特徵選擇 生成決策樹 剪枝 決策樹概述 決策樹(decision tree)是功能強大的且非常好用的的分類和預測方法,它是一種有監督的學習演算法。以樹狀圖為基礎,故稱為決策樹。這裡以分類為主題。對於離

機器學習決策與隨機森林模型

會有 strong pytho red -s 很多 4.5 是我 機器 歡迎大家前往騰訊雲技術社區,獲取更多騰訊海量技術實踐幹貨哦~ 作者:汪毅雄 導語 本文用容易理解的語言和例子來解釋了決策樹三種常見的算法及其優劣、隨機森林的含義,相信能幫助初學者真正地理解相關知識

機器學習系列-決策

決策樹歸納 tin 優化 貪心 閾值 相關 數據源 準備 調用 決策樹 什麽是決策樹 決策樹是一種簡單高效並且具有強解釋性的模型,廣泛應用於數據分析領域。其本質是一顆由多個判斷節點組成的樹。 上圖是一個簡單的決策樹模型,用來判斷某個動物樣本是否屬於哺乳動物,樹中包含三種節

機器學習_決策

TP mage 技術分享 ima height 分享圖片 image bsp 決策樹 機器學習_決策樹

機器學習_決策Python代碼詳解

機器 one math n) sco atl return 復雜度 重復 決策樹優點:計算復雜度不高,輸出結果易於理解,對中間值的缺失不敏感,可以處理不相關特征數據; 決策樹缺點:可能會產生過度匹配問題。 決策樹的一般步驟: (1)代碼中def 1,計算給定數據集的香農熵:

機器學習決策(二)

天氣 次數 format 定義 表示 葉子節點 ast 代碼 wid 一、復習信息熵   為了解決特征選擇問題,找出最優特征,先要介紹一些信息論裏面的概念。   1、熵(entropy)          python3代碼實現: def calcShannonEnt(

ID3的REP(Reduced Error Pruning)剪枝程式碼詳細解釋+周志華《機器學習決策圖4.5、圖4.6、圖4.7繪製

處理資料物件:離散型資料 資訊計算方式:熵 資料集:西瓜資料集2.0共17條資料 訓練集(用來建立決策樹):西瓜資料集2.0中的第1,2,3,6,7,10,14,15,16,17,4 請注意,書上說是10條,其實是上面列出的11條。 驗證集(用來對決策樹剪枝):西瓜資料集2.0中的5,8

機器學習實戰——決策Python實現問題記錄

問題:NameError: name 'reload' is not defined import imp import trees imp.reload(trees) 結論:已經匯入過的模組才能用reload, reload的引數應該是模組名,而不是檔名。在pyhton3.x中要先匯入檔案

[三]機器學習決策與隨機森林

3.1 目標任務 1.學習決策樹和隨機森林的原理、特性 2.學習編寫構造決策樹的python程式碼 3.學習使用sklearn訓練決策樹和隨機森林,並使用工具進行決策樹視覺化 3.2 實驗資料 資料集:鳶尾花資料集,詳情見[機器學習之迴歸]的Logistic迴歸實驗 3.3