《我是一只IT小小鳥》(續)讀書筆記——第八周
第三位作者強調了大學階段規劃的重要性,作者初入大學,一切都很新鮮想嘗試,卻缺乏對學習生活的規劃。最終導致的是學習成績的下降。其實編程也是一樣,我們常常感到自己和那些大神的差距,感慨過後,往往也就罷了。而實際上我們需要的是一個切實的規劃,一個目標。差距是很大,但是不去追,差距永遠只會原來越大。越是緊張的學習生活越需要合理規劃,短期規劃與長期規劃相結合,短期技能學習和長期的編程思想習慣的養成要同時進行。
讀完第四個作者的經歷,我深感獲得信息的渠道的重要性。大學和社會,差別是巨大的。學校裏,我們似乎只用學習,不必管其他的事。其實不然,我們需要獲得更多信息。我們在高中往往只是完成既定作業,很少自己主動獲取信息,大學就有了很大區別,不同學生的信息量可以說是差距很大的,關鍵就在於是否積極地去了解。對於程序員來說,和別人交流信息,切磋技術,往往能起到關鍵作用,既能提高技能,也可以避免個人思維誤區。有人常說貴人相助,其實貴人能做的,也就是提供優質的信息。當我們自身有著深厚的積澱,又得到了優質的信息,我們一定會成功。那些懷才不遇的人,何嘗不是自己沒有找到讓自己閃光的機會的人呢。
《我是一只IT小小鳥》(續)讀書筆記——第八周
相關推薦
《我是一只IT小小鳥》(續)讀書筆記——第八周
成績 思想 我們 編程 習慣 進行 是否 永遠 養成 第三位作者強調了大學階段規劃的重要性,作者初入大學,一切都很新鮮想嘗試,卻缺乏對學習生活的規劃。最終導致的是學習成績的下降。其實編程也是一樣,我們常常感到自己和那些大神的差距,感慨過後,往往也就罷了。而實際上我們需要的是
強化學習(RLAI)讀書筆記第八章表格方法的規劃與學習
第八章:Planning and Learning with Tabular Methods 本章為需要環境的model-based強化學習方法(如DP和啟發式搜尋)和不需要環境的model-free方法(比如MC和TD)提供一個統一的論述框架。基於模型的方法依賴規劃(planning)而無模型
《我是一只IT小小鳥》 讀書筆記
們的 str 小鳥 都對 div 經驗 項目 總結 b16 《我是一只IT小小鳥》 讀書筆記 婁雨禛 PB16060356 關鍵詞:理想 對於很多大學生來說,大學及其之後的日子充滿了未知的美好與期盼。在《我是一只IT小小鳥》中的每一位IT從業人員,在進入大學之前,都
《我是一只IT小小鳥》讀書筆記
意思 要素 心態 學習 進步 會有 數學 jks 重要 《我是一只IT小小鳥》是一本關於IT科學的學生的書,是一些IT領域前輩對學生時代的回顧和總結。這本書應該可以說是最貼近我們學生的一本關於IT的書了,讀了這本書的第一部分後,我也確實有了一些感想和共鳴。 其一
我是一只IT小小鳥讀書筆記
不同的 做事 能力 生活 習慣 做到 計算 大學生 變化 書中提到了一種不好的習慣:每看到一個題目,總是會先看答案,讓答案來指引我的思路,而不是用自己的腦子想問題。 這種學習方式在短期內的確會取得很大的成果,但卻貽害無窮。長此以往,會使人喪失判斷力、理解力和交流能力,只留下
《我是一只IT小小鳥》讀書筆記3
面試 python 體重 行業 此外 筆記 並且 span 細致 李成前輩的個人介紹,成長歷程,都讓我感到非常親切。“從小到大,一路順風,也沒有特別風光過——就是一直是好孩子但是從來沒有考過第一的意思”,“除了學習和踢足球啥也不會”,“總也減不下去的體重”,我覺得許
強化學習(RLAI)讀書筆記第十一章 Off-policy Methods with Approximation
本書第五章就已經講解過分別使用on-policy和off-policy方法來解決GPI框架裡固有的explore和exploit的矛盾。前兩章已經講了on-policy情形下對於函式近似的拓展,本章繼續講解off-policy下對函式近似的拓展,但是這個拓展比on-policy時更難更不同。在第六第
強化學習(RLAI)讀書筆記第十三章策略梯度方法(Policy Gradient Methods)
強化學習(RLAI)讀書筆記第十三章策略梯度方法(Policy Gradient Methods) 13.1 Policy Approximation and its Advantages 13.2 The Policy Gradient Theore
強化學習(RLAI)讀書筆記第十二章資格跡(Eligibility Traces)
資格跡是強化學習演算法中的一個基本機制。比如很流行的其中的指的就是資格跡的使用。基本上所有的TD演算法都能夠和資格跡進行組合從而得到一個更通用的演算法。資格跡把TD和MC方法統一了起來。當TD演算法和資格跡進行組合使用時,得到了一組從一步TD延伸到MC演算法的演算法家族。一般中間部分的演算法效果比兩
強化學習(RLAI)讀書筆記第十章On-Policy Control with Approximation
目前繼續考慮on-policy的帶逼近的control演算法。這章主要介紹半梯度Sarsa演算法,也就是半梯度TD(0)演算法對於動作值估計以及on-policy control演算法的自然延伸。雖然這個延伸對於episodic的情況是很自然的,但是對於continuing的情況,我們需要再次考慮對
強化學習(RLAI)讀書筆記第九章On-policy Prediction with Approximation
這一章學習使用on-policy的資料對狀態值函式進行逼近,也就是在策略下估計值函式。這一章的重點在於估計的值函式不是使用表格來表示而是使用引數w的函式形式。一般來說權重引數的數量是遠遠比狀態的數量要小的,而且改變一個權重的大小會影響到很多個狀態值的估計。於是一個值函式的更新會帶來很多其它值函式的改
強化學習(RLAI)讀書筆記第七章n步自舉(n-step Bootstrapping)
第七章:n-step Bootstrapping 這一章中我們把蒙特卡洛演算法(MC)和一步差分演算法(one-step TD)統一起來。MC演算法和一步TD演算法都不可能永遠是最好的。這兩個方法都是比較極端的形式,可能使用它們中間形式會更好一些。另一個看待n步TD演算法的優勢的角度是它解決了固
強化學習(RLAI)讀書筆記第六章差分學習(TD-learning)
第六章:Temporal-Difference Learning TD-learning演算法是強化學習中一個獨具特色而又核心的想法,結合了蒙特卡洛演算法和動態規劃的想法。和MC一樣不需要環境模型直接從sample裡學習,也像DP一樣使用bootstrap通過別的狀態值的估計更新當前狀態值。首先
強化學習(RLAI)讀書筆記第五章蒙特卡洛方法
第五章:蒙特卡洛方法 和前幾章講的不一樣,蒙特卡洛方法不需要對環境進行完全的建模,而只需要經驗,也就是實際或者模擬的與環境進行互動的整個樣本序列,包括狀態動作和反饋資訊。從實際互動中學習並不需要對環境建模,而從模擬互動中學習也只需要能夠產生相應的轉移樣本而不是完整的環境狀態轉移概率分佈。而且很多
強化學習(RLAI)讀書筆記第四章動態規劃
第四章:動態規劃 動態規劃是指一類在MDP下對環境有完全建模的計算最優策略的演算法。經典的DP演算法在強化學習中應用有限,不僅是因為需要對環境進行完全建模,而且還需要很多的計算資源。但是這個演算法在理論上依然很重要。實際上,書中後面章節的所有演算法都可以看成想要使用更少的計算資源而且不需要對環境
強化學習(RLAI)讀書筆記第三章有限馬爾科夫決策過程(finite MDP)
第三章 有限馬爾科夫決策過程 有限馬爾科夫決策過程(MDP)是關於評估型反饋的,就像多臂老虎機問題裡一樣,但是有是關聯型的問題。MDP是一個經典的關於連續序列決策的模型,其中動作不僅影響當前的反饋,也會影響接下來的狀態以及以後的反饋。因此MDP需要考慮延遲反饋和當前反饋與延遲反饋之間的交換。
強化學習(RLAI)讀書筆記第十六章Applications and Case Studies(alphago)
強化學習(RLAI)讀書筆記第十六章Applications and Case Studies(alphago) 16.6 Mastering the Game of Go 16.6.1 AlphaGo 16.6.2 AlphaG
強化學習(RLAI)讀書筆記第十六章Applications and Case Studies(不含alphago)
強化學習(RLAI)讀書筆記第十六章Applications and Case Studies(不含alphago) 16.1 TD-Gammon 16.2 Samuel's Checkers Player 16.3 Watson‘s Dail
我們的新書--《我是一隻IT小小鳥》
《我是一隻IT小小鳥》即將由電子工業出版社出版。這本書是由一群IT學子共同創造而成, 每個人分別講述各自的成長經歷。我參加了本書的創作隊伍,本書的第一篇文章就是我對於自己大學生活的反思以及一些對於成長的思考。 參加本書的創作純屬偶然,那是大四的下半學期,我寫了一篇關
#使用abp框架與vue一步一步寫我是月老的小工具(2) 後臺搭建初體驗
使用 IT UC 文件 情況 base https 檢查 目標 #使用abp框架與vue一步一步寫我是月老的小工具(2) 後臺搭建初體驗 一、續上前言 關於這個小玩意的產品思考,假設我暫時把他叫我是月老熱心人 這是一個沒有中心的關系鏈,每個人進入以後都