author/深圳恆波

深度學習入門--引數更新的優化

神經網路學習的目的是找到使損失函式的值儘可能小的引數。這是尋找最優引數的問題,解決這個問題的過程稱為 最優化 。而在深度神經網路中,引數的數量非常龐大,最優化問題也就十分複雜。 之前我們學過 隨機梯度

愚人節的背後:技術在一面打假,一面造假

對於日益嚴重的假新聞問題,不同的研究團隊正在利用 AI 技術去更準確的判定和甄別假新聞。但技術是相對的,另一方面,在暗處,也有著另一波人在不斷用 AI 技術生產假新聞、假評論。 今年的愚人節,你收到假新聞了

全通教育花15億元聯姻“吳曉波”有四大硬傷

導語:全通教育本身商譽較高且剛剛商譽減值爆雷等硬傷可能會成為稽核途中的攔路虎。 憑藉與吳曉波的“聯姻”預案,全通教育復牌後股價已經連續收穫兩個“一”字漲停。但在本欄看來,全通教育“聯姻”吳曉波最終要想拿到

58同城姚勁波:網際網路在農村仍有巨大的發展空間

2019年3月31日,常德柳葉湖旅遊度假區管理委員會、清科集團聯合舉辦“2019常德柳葉湖創投峰會暨柳葉湖清科基金小鎮成果展示活動”,邀請域內外知名投資機構、上市公司、創業企業匯聚常德柳葉湖,共討經濟週期下的創業與投

深度學習入門--損失函式

神經網路的學習是指從訓練資料中自動獲取最優權重引數的過程,損失函式就是用來衡量神經網路的學習的程度,學習的目的就是以該損失函式為基準,找出能使它的值達到最小的權重引數。 從資料中學習 神經網

1746144871.0288