YOLO9000, Better, Faster, Stronger論文翻譯——中英文對照 這個總結的最好
這個總結的是最好的翻譯:https://blog.csdn.net/quincuntial/article/details/78932285
一下是參考的部落格連結:
https://blog.csdn.net/u011974639/article/details/78208896
https://blog.csdn.net/small_munich/article/details/79548149
這個也算是我第一次接觸神經網路這樣型別的論文吧,為了應付計算機智慧課做個ppt,翻譯了論文,總體演算法很多還是不明白。
相關推薦
YOLO9000, Better, Faster, Stronger論文翻譯——中英文對照 這個總結的最好
這個總結的是最好的翻譯:https://blog.csdn.net/quincuntial/article/details/78932285 一下是參考的部落格連結: https://blog.csdn.net/u011974639/article/details/78208896 ht
YOLO9000: Better, Faster, Stronger論文閱讀
本文僅是對論文的解讀,供個人學習使用,如果有侵權的地方,還請聯絡我刪除博文 一、概述 之前的Yolov1模型,與Fast R-CNN相比,Yolov1有著大量的定位誤差。與基於region proposal的方法相比,Yolov1的查全率(recall)較低。新的模型側重於提高
《YOLO9000: Better, Faster, Stronger》論文筆記
1. 論文思想 在這篇論文中提出了YOLO9000網路模型,該模型可以實時建冊多達9000種目標。首先對原始的YOLO進行改進,提升之後的模型是YOLO-V2。使用新的多尺度訓練方法,相同的YOLO-V2模型可以接受不同的輸入影象尺寸,這為速度與精度之間提供了多種選擇。使用在COCO
王權富貴論文篇:Faster R-CNN論文翻譯——中英文對照
文章作者:Tyan 感謝Tyan作者大大,相見恨晚,大家可以看原汁原味的Tyan部落格哦。 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯
YOLO9000: Better, Faster, Stronger (專案主頁) 的翻譯
1. 概述 YOLO2主要有兩個大方面的改進: 使用一系列的方法對YOLO進行了改進,在保持原有速度的同時提升精度得到YOLOv2。提出了一種目標分類與檢測的聯合訓練方法,同時在COCO和ImageNet資料集中進行訓練得到YOLO9000,實現9000多種物體的實時檢測。2 更精確(Better) ba
Squeeze-and-Excitation Networks論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯絡作者刪除博文,謝謝! Squeeze-and-Excitation Networks Abstract Convolutional n
【筆記】YOLO9000: Better, Faster, Stronger
YOLO9000: Better, Faster, Stronger論文:https://arxiv.org/abs/1612.08242原始碼解析:https://zhuanlan.zhihu.com/p/25100992http://blog.csdn.net/qq_14
Inception-V3論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯絡作者刪除博文,謝謝! Rethinking the Inception Architecture for Computer
YOLO9000:Better, Faster, Stronger
Abstract 通過某種聯合訓練的方式,使得YOLO9000可以對尚未進行標記過得類別資料上對該類別進行預測。 1. Introduction 提出一種新的方式對大量已有分類資料進行管理,並且將其利用來擴大現有檢測系統的類別數目 提出一種新的訓練演算法,可
CTPN論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯絡作者刪除博文,謝謝! Detecting Text in Natural Image with Connectionist
Deformable Convolutional Networks論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯絡作者刪除博文,謝謝! Deformable Convolutional Networks Abstract Con
ImageNet Classification with Deep Convolutional Neural Networks論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 ImageNet Classification with Deep Convolutional Neural Networks Abstract We t
ResNet論文翻譯——中英文對照
文章作者:Tyan 部落格:noahsnail.com | CSDN | 簡書 宣告:作者翻譯論文僅為學習,如有侵權請聯絡作者刪除博文,謝謝! Deep Residual Learning for Image Recognition
目標檢測(六)YOLOv2__YOLO9000: Better, Faster, Stronger
eight tle rop 尋找 logs better maps 時間 wide 項目鏈接Abstract在該論文中,作者首先介紹了對YOLOv1檢測系統的各種改進措施。改進後得到的模型被稱為YOLOv2,它使用了一種新穎的多尺度訓練方法,使得模型可以在不同尺寸的輸入上運
【論文翻譯】ResNet論文中英對照翻譯--(Deep Residual Learning for Image Recognition)
【開始時間】2018.10.03 【完成時間】2018.10.05 【論文翻譯】ResNet論文中英對照翻譯--(Deep Residual Learning for Image Recognition) 【中文譯名】深度殘差學習在影象識別中的應用 【論文連結】https://arx
【論文翻譯】中英對照翻譯--(Attentive Generative Adversarial Network for Raindrop Removal from A Single Image)
【開始時間】2018.10.08 【完成時間】2018.10.09 【論文翻譯】Attentive GAN論文中英對照翻譯--(Attentive Generative Adversarial Network for Raindrop Removal from A Single Imag
Faster R-CNN 英文論文翻譯筆記
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun reference link:ht
Faster R-CNN:利用區域提案網路實現實時目標檢測 論文翻譯
Faster R-CNN論文地址:Faster R-CNN Faster R-CNN專案地址:https://github.com/ShaoqingRen/faster_rcnn 摘要 目前最先進的目標檢測網路需要先用區域提案演算法推測目標位置,像SPPnet1和Fast R-CNN2
深度學習論文翻譯解析(四):Faster R-CNN: Down the rabbit hole of modern object detection
論文標題:Faster R-CNN: Down the rabbit hole of modern object detection 論文作者:Zhi Tian , Weilin Huang, Tong He , Pan He , and Yu Qiao 論文地址:https://tryolab
Is Faster R-CNN Doing Well for Pedestrian Detection?論文翻譯
翻譯僅為學習,如有侵權請聯絡我刪除 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 摘要行人檢測被認為是特定課題,而不是一般的物體檢測。雖然最近的深度學習物件檢測器,如Fast/Faster R-CNN[1,2]在一般目標檢測方面表現出了優異的效能,但它