Chip123 科技應用創新平台

 找回密碼
 申請會員

QQ登錄

只需一步,快速開始

Login

用FB帳號登入

搜索
1 2 3 4
查看: 30425|回復: 0
打印 上一主題 下一主題

[產業學院] 20200814~基於電腦視覺之物體偵測與辨識

[複製鏈接]
跳轉到指定樓層
1#
發表於 2020-7-6 11:07:01 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
課程介紹
十幾年前由美國國防高等研究計劃署(Defense Advanced Research Projects Agency, DARPA)舉辦的無人車Grand Challenge開啟了自動駕駛汽車研發熱潮,近年來各大車廠無不積極發展自駕車技術,基於電腦視覺之物體偵測與辨識更是自駕車之核心技術之一,以色列大廠Mobileye即為本領域中之技術領先者,其它國家包含台
灣也正急起直追發展此技術。本課程首先將介紹傳統的機器學習物體偵測演算法,也就是特徵(Feature)+分類器(Classifier)之手法,並運用到汽車偵測之應用中。
從2010年開始,Imagenet所舉辦的大規模視覺辨識競賽( Imagenet Large Scale Visual Recognition Competition, ILSVRC )以前所未有的資料量(>1 million)帶起了深度學習(Deep Learning)的熱潮,從2012年開始,各種不同的卷積神經網路(Convolutional Neural Network, CNN),如Alexnet, GoogLenet, VGG,ResNet等
分類器即是此比賽的產物,其圖像分類之能力在2015年正式由ResNet突破了人類判斷的精準度。
近年來,基於CNN之物體偵測亦從Two-Stage的R-CNN, Fast R-CNN, Faster R-CNN, 一路進化One-Stage的YOLO(You Only Look Once)與SSD( Single Shot Multibox Detector)與其進階版YOLOv2與YOLOv3,而這樣的單一CNN即可同時偵測多類(行人、腳踏車、汽車、機車、巴士等)物體。然而這些模型往往需要極為強大的GPU才能達到即時運算,基於輕、薄、短、小CNN之物體偵測模型(SSD-Mobilenet, SSDLite-MobilenetV2, YOLOv3-MobilenetV2, Pelee)之辨識率雖無法達到State-Of-The-Art,但在嵌入式系統上的效能(NVIDIA TX2或NVIDIAJetson Nano)已經大略能符合各式物體偵測應用之需求。
在2014年,Ian Goodfellow提出了生成式對抗網路(Generative Adversarial Network, GAN),這種類神經網路被CNN之父Yann Lecun喻為是機器學習領域中,十年來最有趣的想法,本課程將會從其基本概念開始,內容包括了各種GAN模型(Pix2Pix, CycleGAN, UNIT, MUNIT, Pix2Pix HD, Video-to-Video, BigGAN)之差別以及 GAN
如何應用在物體偵測這個電腦視覺最重要的應用上。 本課程將分別從感測器、開發平台、演算法等角度切入物體偵測與辨識系統,並著重在機器學習及深度學習原理之介紹,期待學員能藉由此課程進入視訊監控系統、影像式先進駕駛輔助系統甚至是自駕車之研發領域。


課程目標
  • 協助具電腦視覺專長之學員切入視訊監控以及車輛電子領域
  • 未來可銜接各類程式設計/機器學習/深度學習課程
  • 協助台灣產業切入先進駕駛輔助系統(ADAS)及自駕車

講師簡介


林哲聰   老師
現職: 工研院機械所研究員
學歷: 台灣大學應用力學研究所碩士/清華大學資工系博士候選人
經歷: 工研院機械所副研究員,加州大學聖塔芭芭拉分校資工系訪問研究員
        上奇資訊-計算機概論 共同譯者
        2010 伽利略創新大賽 台灣區季軍
      2011 伽利略創新大賽 特別獎(GNSS Living Lab)得主
    2013 伽利略創新大賽 瑞士區冠軍
        2016 日本立命館大學英文演講比賽 清華大學代表
        2017 CVGIP 行人偵測競賽 亞軍
        2017 MOST 生成式對抗網路競賽 佳作
        2018第八屆兩岸清華研究生學術論壇 清華大學代表
       2019 IEEE ICIP Three Minute Thesis Competition (3MT®): Finalist
專長: Computer Vision, Image Processing, Pattern Recognition, Machine Learning, Deep Learning, GPS , Embedded System, iPhone Programming
已於車用影像安全警示系統領域中發表過二十五篇國際論文,十五篇國內論文,以及十三篇專利。


課程大綱
  • 物體偵測及其在生活中各種應用之簡介
  • 影像感測器以及各種影像缺陷簡介
  • 開發平台、辨識率以及量化分析架構簡介
  • 基於機器學習之車輛偵測(運用Haar Wavelet+SVM)簡介
  • 深度學習(Deep Learning)簡介
  • 知名卷積神經網路(CNN)簡介 / 輕、薄、短、小CNN
  • (Squeezenet, Shufflenet, Mobilenet, Xception)簡介
  • 卷積神經網路之訓練細節簡介
  • 基於CNN之物體偵測 (R-CNN, Fast R-CNN, Faster R-CNN)模型簡介
  • 基於單一CNN之物體偵測(YOLO, SSD, YOLOv2, YOLOv3)模型簡介
  • 基於單一輕、薄、短、小CNN之物體偵測 (SSD-Mobilenet, SSDLite-MobilenetV2, YOLOv3-MobilenetV2, Pelee)模型簡介
  • 生成式對抗網路(GAN)簡介
  • 知名GAN模型(Pix2Pix, CycleGAN, UNIT, MUNIT, Pix2Pix HD, Video-to-Video, BigGAN)及其於物體偵測之應用簡介


課程資訊
舉辦日期:109年08月21日、08月28日(隔週五),09:30~16:30(共12小時)
舉辦地點:工研院產業學院  產業人才訓練一部(台北) (實際地點依上課通知為準!)
報名網址:https://college.itri.org.tw/course/all-events/3CBC3DE1-6F36-4576-A05A-4C494B4AD951.html
主辦單位:經濟部工業局
執行單位:工研院產業學院  產業人才訓練一部(台北)
上課形式:「實體授課」或「同步數位課程」(二擇一)

上課價格:
1.一般身分補助 50%:每人$6,000元 整(原價 NT$12,000,政府補助 NT$6,000,學員自付 NT$6,000)
2.特定對象補助 70%:每人$3,600元 整(原價 NT$12,000,政府補助 NT$8,400,學員自付 NT$3,600)
※特定對象說明:針對具身心障礙、原住民與低收入戶之人士,報名時出具證明。身心障礙手冊正反面影本、「原住民族身分法」所定原住民身分證明及低收入戶證明之相關證明文件、生活扶助戶(低收入戶)中有工作能力者提供縣市政府或鄉鎮(區)公所開立之低收入戶身分證明文件或低收入戶卡影本一份,但該證明文件未載明身分證號碼及住址者,應檢附國民身分證正反面影本或戶口名簿影本一份。)
3.中堅企業補助 70%:每人$3,600元整(原價 NT$12,000,政府補助 NT$8,400,學員自付 NT$3,600)
※中堅企業說明:屬於經濟部工業局公佈之中堅企業名單(請參考網頁公告附件或來電洽詢),學員報名必須繳交一張公司名片、請公司開立在職證明,課程發票會開立該公司發票。
4.同步數位課程:每人$6,000
★★★同步數位旁聽★★★
為便於公務繁忙的學員能夠參加,本課程規劃以「全程數位」形式,讓學員能於所在地使用自己的電腦進行線上同步數位學習課程。
獲贈 ITRI College+帳號,享有 1 個月(不限堂數)的產業學院線上數位微課,隨時隨地學習、增進專業能力
本同步數位課程無補課機制。
(以上費用皆已包含講義及教材費。)


分享到:  QQ好友和群QQ好友和群 QQ空間QQ空間 騰訊微博騰訊微博 騰訊朋友騰訊朋友
收藏收藏 分享分享 頂 踩 分享分享
您需要登錄後才可以回帖 登錄 | 申請會員

本版積分規則

首頁|手機版|Chip123 科技應用創新平台 |新契機國際商機整合股份有限公司

GMT+8, 2024-5-2 10:07 PM , Processed in 0.103006 second(s), 17 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回復 返回頂部 返回列表