[紀錄] Raspberry Pi社群聚會 #28 會後資料(樹莓派上的台灣創新專案)

第二十八次 Raspberry Pi 社群聚會會後資料,希望透過社群活動的分享和交流,找到更多 Raspberry Pi 的可能。本次主題是「樹莓派上的台灣創新專案」。過往資訊可看共筆,報名可到 KKTIX

樹莓派自 2012 年問世後,歷經多次改版,最新的型號是 Pi 4。一開始是在教育用途上,但現在許多商用領域也可以看見樹莓派的身影。台灣也有許多公司使用樹莓派做專案或是做產品,這次的聚會有兩家台灣新創團隊分享了他們在樹莓派上的應用。

天瓏書局 2F Coding Space
這次主題吸引很多同好來瞭解技術細節,天瓏書局 2F Coding Space 又被我們擠爆了。

Swind
第一位是 CloudMosa 的 Swind,負責軟體測試開發。

CloudMosa
CloudMosa 沈修平博士在 2009 年創立,目前公司的主要開發人員在台北。

CloudMosa Products
Puffin Web Browser 是 CloudMosa 的主要產品,是一個專注在手機上的網頁瀏覽器應用程式,目前全球累積一億的下載量,DAU(Daily Active User, 日活躍使用者)有兩百萬人。而 Puffin Internet Terminal 將是今天要介紹的主題。

Puffin OS
除了 Puffin Web Browser 和主打教育市場的 Puffin Internet Terminal 以外,CloudMosa 正在做可以跑在手機上的 Puffin OS ,希望能讓低階手機更為普及,彌平世界數位落差。

Puffin Internet Terminal
Puffin Internet Terminal 是一個瀏覽器的解決方案。能讓 Raspberry Pi 3 Model B+($35)的瀏覽網頁體驗可以媲美要價上千元 ChromeBook,並降低使用網路取得資訊的門檻。
由於學校單位大量使用 Adobe Flash 技術,Puffin Internet Terminal 可以跨平台和跨瀏覽器的特性讓許多教育單位採用。

Benchmark
由於越來越多的應用程式是以網頁(Web)的方式呈現,因此 Puffin Internet Terminal 的高效能也是主打特色之一。Swind 也展示了和 Chromium 的效能比較,是使用 JetStream 做評比,分數越高越好。

Why Puffin is fast?
為什麼 Puffin Internet Terminal 可以這麼快? 這其實是 CloudMosa 累積了多年的軟體工程能量達成的。簡單說可分為這三個部份。
1. 大幅降低 Client(和樹莓派) 端運算需求。
2. 節省大約 70% 資料傳輸量。
3. 強大且快速的伺服器與網路。

Puffin architecture
要介紹 Puffin Internet Terminal 就直接介紹 Puffin Browser,兩者在架構上是一樣的。Puffin Browser 的架構是,用戶端(Browser)不會直接連到 Web Server,而是透過 Puffin Cloud Server 向 Web Server 做請求,再回傳到用戶端。這樣的技術似乎和 Proxy 很像,但 Proxy 雖然會做快取(cache)或是壓縮,但並不會幫忙做運算,因此傳回到用戶端的資料還是需要用戶端即時運算顯示。這樣的問題是現行的網頁特效很多,如果將運算都移到用戶端,那用戶端的裝置需要在一定的規格以上才能有良好體驗。

Remote browser
所以 Puffin Browser 就像是一個 Remote Browser,幫用戶端在 Puffin Cloud Server 運算完畢後再將運算結果回傳。也因為雲端已經做完運算,等於節省用戶手機上的運算流量,幫沒有網路吃到飽方案的用戶省下費用。

Puffin Cloud Server
Puffin Browser 能跑得這麼快的第二個原因是歸功於 Puffin Cloud Server 的佈建。CloudMosa 目前有三個資料中心(Data Center),近萬台獨立的中高階實體伺服器與擁有近萬個 Public IP,這樣就可以快速的和全球各地的網頁伺服器進行高速傳輸。
除了架設伺服器做 remote browser 以外,Puffin Browser 可以用資料中心超快的網路去 Web Server 取得資料,還能因此大量減少 Client 與 Server 之間 資料傳輸的次數以及傳輸量,達到快速的回應時間。

Optimal for Raspberry Pi
而 Puffin Internet Terminal 針對 Raspberry Pi 的優化包括有。
1. 因為效能考量而不使用 Windows 版本正在用的 React Native,改使用 GTK 重新開發。
2. 支援 Raspberry Pi 的 GPU。

Brian
大家對於 Puffin Internet Terminal 後端的運作原理非常感興趣,對資源分配與安全性等都提出相關問題。因此 CloudMosa 的 Brian 在 QA 時間也回答了許多技術細節。

Puffin Internet Terminal 採取訂閱製,現在正在大特價,每個月只要 USD$1 就可以讓你的 Pi 快速和安全,非常適合學校單位、國安單位、軍方單位使用。

當 Puffin 瀏覽器跑在 Raspberry Pi 上 Puffin Internet Terminal 的投影片

 

Bofu
第二位來分享的講者是 DT42 的技術長 Bofu。

DT42
DT42 成立於 2015 年,是由一群對數據分析、深度學習與運算系統充滿熱忱的資訊工程師與數據工程師組成的合作團隊,團隊成員均曾於軟體開發、影像辨識專業單位,擁有豐富的技術能量,專長包括數據分析、智慧機器學習、嵌入式系統開發、智能圖像辨識等專業領域,我們利用嵌入式系統開發、資料科學以及人工智慧演算法方面的專長,降低了人工智慧應用開發門檻,不僅支援多種資料型態,且能簡易地被佈署到多樣化的硬體平台。

BerryNet
BerryNet 是 DT42 在 2017/04 年的開源專案,使用者(或開發者)可以透過 BerryNet 快速的在 Raspberry Pi(或者其他裝置) 上打造 AI Gateway,利用 Raspberry Pi 做運算深度學習,對影像或語音做即時分析。
在 2017 年時,DT42 展示了使用 BerryNet 在 Pi 3B 上進行物件偵測(Object Detection)可以達到 1FPS,在當時是很先進的。

AIoT - 01
AI Gateway 的經典範例就是一個 AI + IoT 的實際情境。例如有一隻貓來到你家後院,可是你想把他趕走,而不用花費人力,該怎麼做?
答案有很多,其中一個可能是架設一個 BerryNet 把貓嚇走。

AIoT - 02
當你架設好 BerryNet 以後,就可以透過自訂的攝影機將影像串流到 Raspberry Pi,再透過 BerryNet 內建的深度模型進行物件偵測。當有偵測到貓時就透過 WiFi 或是其他協定控制灑水系統進行灑水驅趕貓咪。
在這個情境中,物件辨識就是屬於 A.I.,而控制灑水系統則是 IoT 的概念。BerryNet 可以在樹莓派上完美的整合這兩者,成為 AI Gateway。雖然貓咪不一定會如你預期的被嚇走,搞不好還會玩的更開心 QQ。

Server AI
Bofu 再利用 YouBike 的演進說明了 Server AI 和 Edge AI 的分別。在過去,所有借還 YouBike 必須要先使用悠遊卡在 YouBike 的基站感應,而該站台會連回雲端主機,有著運算資源充沛、中央控管和容易追蹤各裝置狀況等優點。但也有受到基礎建設的限制或是佈署花費較高等缺點。這樣透過基站來計算處理資訊的方式稱為是 Server AI,也就是 YouBike 1.0。

Edge AI
而如果現在使用 YouBike,會發現使用體驗更順暢。包括了將基站主機的功能隱藏到每台車上成為各別的閘道器,所有感測資料就透過閘道器和雲端連線,有便於攜帶、容易部署和整體成本較低等優點。但有著受到本地運算機之運算資源限制和分散式系統個別更新不易等缺點。這樣透過各別低價的閘道器和和雲端主機直接連線做資訊交換,甚至多數的計算功能可以在閘道器上直接處理掉,這樣的方式稱為是 Edge AI,也就是 YouBike 2.0。

BerryNet Design Concept
BerryNet 希望成為 AI 和 IoT 的橋樑。目前各家廠商都有提出自己的 Framework,例如 FacebookPyTorch、或是 GoogleTensorFlow。許多硬體廠商,例如 Intel 也有推 OpenVINO 或是 NVIDIATensorRT
如果你只想要做個簡單的 AI 應用,光是選哪一套框架就會開始苦惱了,何況要控制後端的硬體控制又要再學習一堆硬體相關知識。那 BerryNet 提供了一個彈性的架構,讓使用者可以快速的整 AI 和 IoT 這兩端,專注在應用方面。

BerryNet Architecture
BerryNet 的架構可以從這張圖來說明。使用者會有多種 I/O 裝置,例如攝影機、麥克風或是要控制的硬體。而這些 I/O 裝置會透過 MQTT 的協定和 Raspberry Pi 溝通。而 BerryNet 整合多種深度學習模型,讓使用者可以透過指令列就能指定輸入/輸出設備,並設定適合的網路模型與參數,快速的部署一個 AIOT 的應用。

BerryNet step-by-step
整個操作情境,可以這樣舉例。如果你有一個手機當作影像的輸入來源,接著在 Raspberry Pi 跑 BerryNet,你就可以很輕鬆的透過可能是 RTSP 的協定將影像接到 Pi 上,並初始化 BerryNet 上的 TensorFlow Lite,決定好儀表板的顯示方式輸出到外接螢幕,如此一來我們就完成一個 BerryNet 的基本設定。

BerryNet result
接著我們就可以在螢幕上顯示推論結果(Dashboard),例如物件辨識,將辨認出的物體標記出來。

AIKEA
根據上一個範例,你可以發現使用者很輕鬆的就可以搭建出 AIOT 的應用,當然你會需要先準備一些硬體,包括 Raspberry Pi 和 Pi Camera 等。
如果你不想準備這些硬體與額外的設定,DT42 也在 Kickstarter 發起了 AIKEA 的群幕專案,標的物是是家庭的私有攝影機。但如果你仔細看專案說明,就會知道支持者最後會拿到 Pi 4BPi Camera 還有一個外盒。這是 DT42 團隊想要表達,使用者不需要花大錢買昂貴的硬體,只要使用手邊的裝置就可以建構出 AIOT 的應用。

BerryNet demo in 1 day
甚至 DT42 非技術性的專案經理,可以在一天之內從無到有使用 BerryNet 做出一個 AIOT 的應用。該應用是可以偵測過馬路的行人是否為長者或是行動不便的人士,而根據行人來決定是否要延長紅綠燈的秒數,能減少更多交通意外發生。
當然如果要做這樣的應用,使用者會需要蒐集足夠的影像來訓練模型才行。但這樣的範例告訴我們,很多使用者有很實際的應用,但因為缺乏技術性所以無法實做並驗證這些應用,而 BerryNet 可以快速打造 AIOT 應用,降低了人工智慧應用開發門檻。

BerryNet Demo
最後,Bofu 的 Live Demo 是使用手機收影像後,透過 RTSP 傳到 Pi 4 上的 BerryNet 即時做人物偵測。在沒有額外的硬體加速器的情形,大概有 5FPS 左右。

BerryNet – The first deep learning gateway for edge devices 的投影片

我們很高興能邀請到台灣的一些新創團隊來社群聚會分享,讓更多人看到台灣的創新能量。如果大家有想分享的主題,可以來信告訴我們(service_AT_raspberrypi.com.tw)。

【活動】Donkey Car工作坊屏東場 | 屏東大學 | 資管系 | 人工智慧 | 自駕車 | 驢車 | Donkey Car

驢車屏東

這次 Donkey Car 人工智慧車要開到屏東啦!

繼上次在三創育成基金會舉辦的樹莓派學開車,手把手實做人工智慧自駕車(Donkey Car)工作坊,還有在中華電信學院舉辦的【課程】人工智慧自駕車(Donkey Car),這次我們和屏東大學資管系一起辦理 Donkey Car工作坊屏東場。

馬上報名:
* 【課程】人工智慧自走車(Donkey Car)兩天課程含材料,$14700
* 【課程】人工智慧自走車(Donkey Car)兩天課程自備材料,$7200

對於自駕車技術與系統總是有股衝動想要躍躍欲試嗎?你的機會來了,一次從車體開始到系統安裝,實作的過程讓你走過一次,甚至還有車道的設計,教你如何訓練資料,最後大家再來競賽,超豐富好玩。


驢車(Donkey Car),一個基於 Raspberry Pi 與機器學習的開源無人小車專案介紹 from raspberrypi-tw

【課程內容】
目標:兩天完整走過機器學習流程,包括資料收集清理、機器學習模型選擇與調整、實機訓練、測試驗證等。並透過自走車實際看學習結果。
時間:2019/12/07(六)~2019/12/08(日) 早上 09:00~下午 18:00
地點:屏東大學/屏商校區/900屏東縣屏東市民生東路51號/行政大樓 8F 國際會議聽。地圖

12/07 課程內容
09:00 – 10:00: 1. 自駕遙控車與 Donkey Car 簡介
10:00 – 11:00: 2. 樹莓派安裝與 Donkey Car 組裝
11:00 – 12:00: 3. Donkey Car 搖桿控制、網頁控制
13:00 – 14:00: 4. Donkey Car 油門轉向校正
14:00 – 15:00: 5. Donkey Car 程式專案架構介紹
15:00 – 16:00: 6. 訓練資料收集、標記
16:00 – 17:00: 7. Donkey Car 使用 CNN 實作
17:00 – 18:00: 8. Google Colab GPU 雲端訓練
12/08 課程內容
09:00 – 10:00: 1. 機器學習速成班
10:00 – 11:00: 2. 資料挑選與視覺化模型
11:00 – 12:00: 3. 模型選擇和效能驗證
13:00 – 14:00: 4. Donkey Car 使用 RNN 實作
14:00 – 15:00: 5. Google Colab GPU 雲端訓練
15:00 – 18:00: 6. 賽前準備和驢車競速賽

費用:
* 兩天課程含材料與餐點 $14,700元,包含 Donkey Car:HSP 94186 有刷有控車體、馬達驅動板、魚眼鏡頭、鋰電池擴充板、3D 列印車架、3D 列印把手、螺絲包、電源線、Pi 3B+、32G microSD、5V/2.5A 電源、PL2303HXD 傳輸線、散熱片雙風扇模組。報名
* 兩天課程與餐點(需自備全部材料) $7,200元,包含 32G microSD。報名

注意事項:
* 參加者條件:需使用過樹莓派、會基礎 Python 程式、對機器學習有興趣。
* 學員當天需自備筆電,Windows / Linux / Mac 皆可。

【三創人工智慧自駕車(Donkey Car)工作坊花絮】

馬上報名:
* 【課程】人工智慧自走車(Donkey Car)兩天課程含材料,$14700
* 【課程】人工智慧自走車(Donkey Car)兩天課程自備材料,$7200

[教學] 驢車(Donkey Car) – 基於Raspberry Pi與機器學習的自走車專案介紹

這是我們今年在 PyCon Taiwan 2019分享,投影片一樣放在 slideshare。購買材料請到 [產品] Donkey Car 學習套件


驢車(Donkey Car),一個基於 Raspberry Pi 與機器學習的開源無人小車專案介紹 from raspberrypi-tw

除了 [課程] 人工智慧自駕車(Donkey Car),我們將會和中華電信開辦一系列的課程,歡迎報名!

[課程] 人工智慧自駕車(Donkey Car) | CHT | 中華電信 | 高中科學營 | 人工智慧 | 自駕車 | 驢車 | Donkey Car

20191103_cht_donkeycar_banner_800x933

上次和三創育成基金會合辦的樹莓派學開車,手把手實做人工智慧自駕車(Donkey Car)工作坊大受好評。這次我們和中華電信學院DonkeyCar.Taipei 社群,還有十百千實驗室合作一起舉辦 【課程】人工智慧自駕車(Donkey Car),歡迎大家報名參加。

報名:【課程】人工智慧自駕車(Donkey Car)

對於自駕車技術與系統總是有股衝動想要躍躍欲試嗎?你的機會來了,一次從車體開始到系統安裝,實作的過程讓你走過一次,甚至還有車道的設計,教你如何訓練資料,最後大家再來競賽,超豐富好玩。

【課程內容】
目標:兩天完整走過機器學習流程,包括資料收集清理、機器學習模型選擇與調整、實機訓練、測試驗證等。並透過自走車實際看學習結果。
時間:2019/11/03(日)~2019/11/09(六) 早上 09:00~下午 18:00
地點:中華電信學院(新北市板橋民族路168號)

11/03 課程內容
09:00 – 10:00: 1. 自駕遙控車與 Donkey Car 簡介
10:00 – 11:00: 2. 樹莓派安裝與 Donkey Car 組裝
11:00 – 12:00: 3. Donkey Car 搖桿控制、網頁控制
13:00 – 14:00: 4. Donkey Car 程式專案架構介紹
14:00 – 15:00: 5. Donkey Car 車道設計與製作
15:00 – 16:00: 6. 訓練資料收集、標記、前處理
16:00 – 17:00: 7. Donkey Car 使用 CNN 實作
17:00 – 18:00: 8. Google Colab GPU 雲端訓練
11/09 課程內容
09:00 – 10:00: 1. AI、機器學習與深度學習
10:00 – 11:00: 2. 改善模型的方法 – 調參與影像前處理
11:00 – 12:00: 3. 模型效能驗證
13:00 – 14:00: 4. Donkey Car 使用 RNN 實作
14:00 – 15:00: 5. Google Colab GPU 雲端訓練
15:00 – 18:00: 6. 賽前準備和驢車競速賽

費用:
* $16,000元,包含 Donkey Car:HSP 94186 有刷有控車體、馬達驅動板、魚眼鏡頭、鋰電池擴充板、3D 列印車架、3D 列印把手、螺絲包、電源線、3 號電池、4 號電池、Pi 3B+、32G microSD、5V/2.5A 電源、PL2303HXD 傳輸線、散熱片雙風扇模組。

注意事項:
* 參加者條件:需使用過樹莓派、會基礎 Python 程式、對機器學習有興趣。
* 學員當天需自備筆電,Windows / Linux / Mac 皆可。

【工作坊花絮:把手實做人工智慧自駕車(Donkey Car)】

報名:【課程】人工智慧自駕車(Donkey Car)

[教學] Raspberry Pi學習路徑 | Learning Path

learning-path-v1_1800x1358

《基礎知識》
* [Link] Pi 選購指南
* [Link] Pi 設定安裝
* [Link] Linux 系統管理
* [Link]  Python 程式設計

《Raspberry Pi 基礎套件》
* [Link] 【Pi 4套餐I】Raspberry Pi 4 Model B/4G + SanDisk 32G microSD卡 + 官方原廠紅白外殼 + 官方原廠5.1V/3A電源 + 官方原廠HDMI線
* [Link] PL2303HXD USB轉TTL序列傳輸線

《I/O》
* [Link]  GPIO 學習套件
* [Link] 基礎感測器學習套件
* [Link] 進階感測器學習套件
* [Link] 空氣盒子(PiM25)套件
* [Link] Win10 開發套件
* [Link]  智慧開關套件
* [Link] Linux Driver 學習套件

《無線/IoT》
* [Link] RFID/NFC 門禁系統
* [Link] LoRa IoT 閘道器套件
* [Link] 生理資訊監控 IoT(藍牙)
* [Link] 毫米波人流/熱點監控(mmWave)
* [Link] 5G 行動寬頻人才培育計畫(物聯網平台 Raspberry Pi)

《相機/影像處理》
* [Link] 特色相機改裝套件
* [Link]  寵物小車套件
* [Link] 自控機器手臂套件
* [Link] 小鴨車套件(Duckietown)

《人工智慧》
* [Link] 驢車套件(Donkey Car)
* [Link] Google AIY Vision Kit
* [Link] Intel 神經運算棒
* [Link] Google Coral USB 加速器

《語音/訊號處理》
* [Link]  智慧音箱套件
* [Link] Google AIY Voice Kit

【課程】Raspberry Pi 相機 x OpenCV 從入門到進階:攝影拍照、人臉偵測、影像處理與實作,台中場

raspberry-pi-taiwan-camera-opencv-workshop-taichung-01

《馬上付款》
* 購買 Pi3B+ 套件 + 5MP 相機 + 相機支架,$7,350 元。  <==活動結束了,填寫候補表單!
* 購買 5MP 相機 + 16G SD 卡 + 相機支架,$5,775 元。 <==活動結束了,填寫候補表單!

我們將在台中舉辦【課程】Raspberry Pi 相機 x OpenCV 從入門到進階:攝影拍照、人臉偵測、影像處理與實作,內容將介紹如何安裝設定相機模組,使用指令列和 Python 拍照與錄影並調整參數。再來是 Webcam 和 Pi Camera 的差異性比較,第一天最後會介紹如何自己寫一個影像串流伺服器。第二天將會著重在影像處理部份,包括色彩空間轉換和仿射變換等基本概念,常用影像處理功能包括濾波、邊緣偵測與找直線、找輪廓與重心等,並搭配水表度數辨識做練習,第二天最後會介紹人臉偵測原理與訓練等,並結合兩天內容做個小專題。

【課程內容】
目標:Raspberry Pi 相機 x OpenCV 進階應用:攝影拍照、人臉偵測、影像處理與實作。
時間:2019/07/31(三)和2019/08/01(四) 早上 09:00~下午 17:30 (兩天)
地點:逢甲大學/中科校區/科研大樓-A201教室

07/31 課程內容
09:00 ~ 10:00: 1. Camera 簡介與環境設定(序列埠連線設定/WiFi設定)
10:00 ~ 11:30: 2. 控制 Camera(指令列控制/用 Python 控制)
11:30 ~ 14:00: 3. 串接網路服務(imagga 影像辨識服務/練習:自製智慧相機)
14:00 ~ 15:00: 4. Webcam & Pi Camera 介紹
15:00 ~ 18:00: 5. 影像串流(HTTP + MJPG/練習:自製影像串流伺服器)

08/01 課程內容
09:00 ~ 09:00: 1. OpenCV 3 簡介(開檔/讀檔/寫檔/建立使用者界面)
09:30 ~ 11:30: 2. 常見影像處理方法(色彩空間轉換,灰階與二值化/仿射變換/位移/旋轉/縮放/裁切/直方圖和影像強化)
11:30 ~ 16:00: 3. 常見影像處理方法(捲積/濾波/邊緣偵測與霍夫直線/練習:水表/電表度數辨識/輪廓與重心/手勢偵測)
16:00 ~ 18:00: 4. OpenCV 3 機器學習方法(人臉偵測/人臉偵測訓練/練習:訓練自己的分類器/練習:自製人臉監控串流伺服器)

先備知識:
* Raspberry Pi安裝設定

《馬上付款》
* 購買 Pi3B+ 套件 + 5MP 相機 + 相機支架,$7,350 元。 <==活動結束了,填寫候補表單!
* 購買 5MP 相機 + 16G SD 卡 + 相機支架,$5,775 元。 <==活動結束了,填寫候補表單!

注意事項:
* 學員當天需自備筆電,Windows / Linux / Mac 皆可。
* 午餐需自理。
* Pi 3B+ 套件包含 Raspberry Pi 3B+,32G microSD,5V/2.5A 電源,PL2303HXD 傳輸線,兩片式工控外殼。

[課程] 樹莓派學開車,手把手實做人工智慧自駕車 | Star Rocket | 三創 | 驢車 | DonkeyCar | Donkey Car

20190720_donkeycar-workshop-starrocket-banner_v2

我們和三創育成基金會DonkeyCar.Taipei 社群,還有十百千實驗室合作一起辦 【課程】樹莓派學開車,手把手實做人工智慧自駕車,歡迎大家報名參加。

報名:【課程】樹莓派學開車,手把手實做人工智慧自駕車

對於自駕車技術與系統總是有股衝動想要躍躍欲試嗎?你的機會來了,一次從車體開始到系統安裝,實作的過程讓你走過一次,甚至還有車道的設計,教你如何訓練資料,最後大家再來競賽,超豐富好玩。

【課程內容】
目標:兩天完整走過機器學習流程,包括資料收集清理、機器學習模型選擇與調整、實機訓練、測試驗證等。並透過自走車實際看學習結果。
時間:2019/07/20(六)~2019/07/21(日) 早上 09:00~下午 18:00
地點:三創育成基金會,台北市中正區市民大道三段 2 號 11 樓(三創生活園區 11 樓)

07/20 課程內容
09:00 – 10:00: 1. 自駕遙控車與 Donkey Car 簡介
10:00 – 11:00: 2. 樹莓派安裝與 Donkey Car 組裝
11:00 – 12:00: 3. Donkey Car 搖桿控制、網頁控制
13:00 – 14:00: 4. Donkey Car 程式專案架構介紹
14:00 – 15:00: 5. Donkey Car 車道設計與製作
15:00 – 16:00: 6. 訓練資料收集、標記、前處理
16:00 – 17:00: 7. Donkey Car 使用 CNN 實作
17:00 – 18:00: 8. Google Colab GPU 雲端訓練
07/21 課程內容
09:00 – 10:00: 1. AI、機器學習與深度學習
10:00 – 11:00: 2. 改善模型的方法 – 調參與影像前處理
11:00 – 12:00: 3. 模型效能驗證
13:00 – 14:00: 4. Donkey Car 使用 RNN 實作
14:00 – 15:00: 5. Google Colab GPU 雲端訓練
15:00 – 18:00: 6. 賽前準備和驢車競速賽

費用:
* $14,700元,包含 Donkey Car:HSP 94186 有刷有控車體、馬達驅動板、魚眼鏡頭、鋰電池擴充板、3D 列印車架、3D 列印把手、螺絲包、電源線、Pi 3B、32G microSD、5V/2.5A 電源、PL2303HXD 傳輸線。

注意事項:
* 參加者條件:需使用過樹莓派、會基礎 Python 程式、對機器學習有興趣。
* 學員當天需自備筆電,Windows / Linux / Mac 皆可。

Donkey Car 比賽參考影片:

報名:【課程】樹莓派學開車,手把手實做人工智慧自駕車

[產品] Donkey Car | 驢車 | 自走車 | DonkeyCar 學習套件

Donkey Car 是一個開源機器學習的自走車專案,車上唯一的感測器就是相機。Donkey Car 使用樹莓派和 Python,利用 Keras 深度學習框架實現自動駕駛。

最新教學請參考官方文件

《專案介紹》

驢車(Donkey Car),一個基於 Raspberry Pi 與機器學習的開源無人小車專案介紹 from raspberrypi-tw

《特色》
* 完整瞭解機器學習流程,包括資料蒐集與處理、模型選擇與調整、訓練、測試驗證等。
* 自由修改軟硬體,包括深度學習網路模型、車體和車道,直接看到學習實際成果。
* 支援多種深度學習網路模型,包括 CNNRNN

donkey-car-graphic_orig

《官方競速版規格》
* HSP 94186 1/16 無刷馬達+防水電變 RC 大腳遙控車(附原廠 2.4GHz 遙控器) x1。
* PCA9685 PWM/Servo 伺服馬達控制板 x1。
* 魚眼相機 x1。
* UPS 鋰電池擴充板(v2) x1。
* 3D 列印車架 + 3D 列印把手。
* micro USB 轉 USB 電源線 x1。
* 2.4GHz 搖桿 x1。
* 母母杜邦線 x4。
* 全車螺絲包 x1。
* 注意:本商品不包含 Raspberry Pi、SD card、電源等!。
$7800 


※若無法使用Paypal購買,請到 這裡 填寫表單購買,造成您的不便敬請見諒。


Donkey Car 競速版組裝教學 from raspberrypi-tw

donkeycar-standard-edition_1200x803

《Donkey Car 標準版規格》
* HSP 94186 1/16 有刷馬達+防水電變 RC 大腳遙控車(附原廠 2.4GHz 遙控器) x1。
* PCA9685 PWM/Servo 伺服馬達控制板 x1。
* 魚眼相機 x1。
* UPS 鋰電池擴充板(v2) x1。
* 雷射切割車架 x1。
* 相機支架 x1。
* micro USB 轉 USB 電源線 x1。
* 2.4GHz 搖桿 x1。
* 全車螺絲包 x1。
* 注意:本商品不包含 Raspberry Pi、SD card、電源等!。
$6200 

※若無法使用Paypal購買,請到 這裡 填寫表單購買,造成您的不便敬請見諒。

《教學》
* Donkey Car 官網
* Donkey Car 官方教學文件
* Donkey Car實做
* [紀錄] Raspberry Pi社群聚會 #23 會後資料(樹莓派自走車)

《Donkey Car 標準版組裝教學》

Donkey Car 標準版組裝教學
from raspberrypi-tw

* 建議加購 Raspberry Pi 3 Model B+ 入門組
(含Pi 3B+主板 + microSD卡 + 5V/2.5A電源)
 

* 建議加購 PL2303HXD 傳輸線

※請到 這裡 填寫表單購買,造成您的不便敬請見諒。

[活動] Raspberry Pi社群聚會 #26 @2019/06/24

20190624_meetup_26_donkeycar_1200x630

RSVP:Raspberry Pi Meetup #26
The 26th of the Raspberry Pi meetup, the topic is “Raspberry Pi self-driving car, part2″.

Speaker 1:Phil Alive(北一女中AI研究社指導老師)/十百千實驗室
Topic:Teaching, Learning, and Artificial Intelligence with DonkeyCar
1) Teaching(Data labeling)
2) Learning(Cloud training)
3) Artificial Intelligence(Edge device runs inference)

Additional Information:

  • 2019/06/24 19:10 ~ 21:30
  • 2F., No.105, Sec. 1, Chongqing S. Rd., Zhongzheng Dist., Taipei City
  • $150 per person

* Safeguarding

- – – – – – – – – - 以下為中文 – – – – – – – – – -

報名:Raspberry Pi社群聚會 #26

第二十六次 Raspberry Pi 社群聚會,希望能透過社群活動的分享和交流,找到更多 Raspberry Pi 的可能。本次主題是「樹莓派自走車第二彈」。

分享者1:彭百謙(北一女中AI研究社指導老師)/十百千實驗室
題目:驢車(DonkeyCar)現教現學現AI
1) 現場教(資料標記)
2) 現場學(雲端訓練)
3) 現場AI(邊緣推論)

活動資訊

  • 活動時間: 2019/06/24(週一) 19:10 ~ 21:30 (6:40pm 開始入場)
  • 活動人數上限: 100
  • 活動地點:台北市重慶南路一段105號2樓(天瓏書局)

費用

  • 每人150元場地費用
  • 帶作品展示的參加者免收場地費用

備註

  • 活動場地有提供無線網路

* 安全措施

報名:Raspberry Pi社群聚會 #26

[產品] Google Coral USB Accelerator | 人工智慧 | USB加速器 | Edge TPU | 邊緣運算

accelerator-inhand

Google Coral USB Accelerator 可以馬上讓您的 Linux 系統具有高速的人工智慧。例如,執行最先進的深度學習模型 MobileNet v2 可達到 100+ FPS。相較於 Intel Movidius 神經運算棒,Google Coral USB Accelerator 支援 USB 3.0,整體設計也較為輕便。

支援多項 TensorFlow Lite 模型,包括 MobileNet V1/V2,MobileNet SSD V1/V2,還有 Inception 等,然後編譯為在 USB 加速器上執行。

《特色》
* 使用 Google Edge TPU ML 加速器。
* 使用 USB 3.0 Type-C 界面。
* 支援 Debian Linux(包括 Raspberry Pi)。
* 支援 TensorFlow lite

google-coral-usb-accelerator-dimension

《規格》

ML accelerator: Google Edge TPU coprocessor
Connector: USB Type-C* (data/power)
Dimensions: 65 mm x 30 mm

《文件》
* [規格書] USB Accelerator datasheet

《教學》
* [教學] Get started with the USB Accelerator
* [教學] BUILD A TEACHABLE MACHINE WITH CORAL’S USB ACCELERATOR
* [教學] Hands-on with the Google Coral USB Accelerator
* [評測] Google Coral Edge TPU vs NVIDIA Jetson Nano: A quick deep dive into EdgeAI performance

《安裝 Edge TPU runtime 和 Python library》

cd ~/
wget https://dl.google.com/coral/edgetpu_api/edgetpu_api_latest.tar.gz -O edgetpu_api.tar.gz --trust-server-names
tar xzf edgetpu_api.tar.gz
cd edgetpu_api
bash ./install.sh

$3,500 

※若無法使用Paypal購買,請到 這裡 填寫表單購買,造成您的不便敬請見諒。

※請到 這裡 填寫表單購買,造成您的不便敬請見諒。

【課程】Raspberry Pi 相機 x OpenCV 從入門到進階:攝影拍照、人臉偵測、影像處理與實作

raspberry-pi-taiwan-camera-opencv-workshop-techbang-02

我們又和T客邦合作一起辦【【課程】Raspberry Pi 相機 x OpenCV 從入門到進階:攝影拍照、人臉偵測、影像處理與實作,內容將介紹如何安裝設定相機模組,使用指令列和 Python 拍照與錄影並調整參數。再來是 Webcam 和 Pi Camera 的差異性比較,第一天最後會介紹如何自己寫一個影像串流伺服器。第二天將會著重在影像處理部份,包括色彩空間轉換和仿射變換等基本概念,常用影像處理功能包括濾波、邊緣偵測與找直線、找輪廓與重心等,並搭配水表度數辨識做練習,第二天最後會介紹人臉偵測原理與訓練等,並結合兩天內容做個小專題。歡迎大家報名參加。

【課程內容】
目標:Raspberry Pi 相機 x OpenCV 進階應用:攝影拍照、人臉偵測、影像處理與實作。
時間:2019/05/25(六)和2019/06/02(日) 早上 09:00~下午 18:00 (兩天)
地點:T客邦總部,台北市中山區民生東路二段141號6F (Google 地圖)

05/25 課程內容
09:00 ~ 10:00: 1. Camera 簡介與環境設定(序列埠連線設定/WiFi設定)
10:00 ~ 11:30: 2. 控制 Camera(指令列控制/用 Python 控制)
11:30 ~ 14:00: 3. 串接網路服務(imagga 影像辨識服務/練習:自製智慧相機)
14:00 ~ 15:00: 4. Webcam & Pi Camera 介紹
15:00 ~ 18:00: 5. 影像串流(RTSP + H.264/HTTP + MJPG/練習:自製影像串流伺服器)
06/02 課程內容
09:00 ~ 09:00: 1. OpenCV 3 簡介(開檔/讀檔/寫檔/建立使用者界面)
09:30 ~ 11:30: 2. 常見影像處理方法(色彩空間轉換,灰階與二值化/仿射變換/位移/旋轉/縮放/裁切/直方圖和影像強化)
11:30 ~ 16:00: 3. 常見影像處理方法(捲積/濾波/邊緣偵測與霍夫直線/練習:水表/電表度數辨識/輪廓與重心/手勢偵測)
16:00 ~ 18:00: 4. OpenCV 3 機器學習方法(人臉偵測/人臉偵測訓練/練習:訓練自己的分類器/練習:自製人臉監控串流伺服器)

費用:
* (早鳥價)購買樹莓派 Pi3B+ 必備套件 + 5MP 專用相機模組 $8,200元,包含午餐。
* (早鳥價)購買 5MP 專用相機模組 + 16G microSD 卡 $6,600元,包含午餐。
注意事項:
* 學員當天需自備筆電,Windows / Linux / Mac 皆可。

先備知識:
* Raspberry Pi安裝設定

報名:【課程】Raspberry Pi 相機 x OpenCV 從入門到進階:攝影拍照、人臉偵測、影像處理與實作

[產品] Google Coral Dev Board | Edge TPU | TensorFlow | 人工智慧 | 人工智能

google-coral-dev-board-preview

Google Coral Dev Board 是一款單板電腦(SBC),帶有可移動的模組化系統(SOM),包含 eMMC,SOC,無線射頻和 Google 的 Edge TPU。非常適合需要快速將機器學習佈署到物聯網設備和其他嵌入式系統。

SOM 基於 NXP 的 iMX8M SOC,但其獨特的功能來自 Edge TPU 處理器。Edge TPU 是由 Google 設計的小型 ASIC,可提供低功耗的高性能 ML 推理。 例如,它可以以執行最先進的移動視覺模型,例如100+fps的MobileNet v2。

Coral Dev Board 定位為邊緣運算開發板,是相對於需要強大運算利的「中央」的雲端伺服器。此一「邊緣」指的是計算能力教弱,例如行動通訊基地台、環境監控感測器等終端設備。這樣的開發板有助於分擔雲端伺服器的負荷,並降低處理資料的延遲。

《特色》
* 支援 TensorFlow Lite
* 可快速的將雛型產品擴展到量產品。
* 已包含完整系統。
* 支援 Python、C++

google-coral-dev-board-combo

《規格》

Edge TPU Module
CPU NXP i.MX 8M SOC (quad Cortex-A53; Cortex-M4F)
RAM 1 GB LPDDR4
Dimensions 48mm x 40mm x 5mm
Flash memory 8 GB eMMC
ML accelerator Google Edge TPU coprocessor
GPU Integrated GC7000 Lite Graphics
Wireless Wi-Fi 2×2 MIMO (802.11b/g/n/ac 2.4/5GHz) Bluetooth 4.1

Baseboard
Flash memory MicroSD slot
USB Type-C OTG Type-C power Type-A 3.0 host Micro-B serial console
Video HDMI 2.0a (full size) 39-pin FFC connector for MIPI-DSI display (4-lane); 24-pin FFC connector for MIPI-CSI2 camera (4-lane)
LAN Gigabit Ethernet port
Dimensions 88 mm x 60 mm x 24mm
Power 5V DC (USB Type-C)
Audio 3.5mm audio jack (CTIA compliant) Digital PDM microphone (x2); 2.54mm 4-pin terminal for stereo speakers
GPIO 3.3V power rail 40 – 255 ohms programmable impedance ~82 mA max current

《文件》
* Datasheet
* Pre-compiled models
* Edge TPU Model Compiler
* Frequently asked questions

《教學》
* [教學] Get started guide
* [教學] Hands on with the Coral Dev Board

$6850 

※若無法使用Paypal購買,請到 這裡 填寫表單購買,造成您的不便敬請見諒。

※請到 這裡 填寫表單購買,造成您的不便敬請見諒。

[紀錄] Raspberry Pi社群聚會 #23 會後資料(樹莓派自走車)

第二十三次 Raspberry Pi 社群聚會會後資料,希望透過社群活動的分享和交流,找到更多 Raspberry Pi 的可能。本次主題是「樹莓派自走車」。過往資訊可看共筆,報名可到 KKTIX

天瓏書局(Tenlong Bookstore)
這次的活動是在天瓏書局 CodingSpace 舉辦,場地很新設備很好,小老闆很給力提供了很多協助。

Raspberry Pi社群聚會 #23(Raspberry Pi Meetup #23)
但這次因為報名人數爆棚所以略顯擁擠,下次聚會要吃 Pizza 應該會更擠吧?

樹莓派基金會贊助貼紙(Raspberry Pi Foundation donate stickers to us)
這次活動樹莓派基金會有贊助貼紙,所以來參加的朋友都很開心的拿了不同的貼紙做紀念。

如何玩Donkey Car(Donkey Car How to Play)
這次的講者李翼介紹 Donkey Car 怎麼玩。Donkey Car 是一個機器學習加上馬達控制的綜合型專案,也就是使用者先在車道上使用搖桿控制小車,並且將影像資訊和搖桿資訊記錄下來。再將蒐集到的資料訓練出對應的模型,之後再把訓練好的模型放到小車上試著讓它自走,並持續做蒐集資料、訓練模型、測試小車的動作直到符合預期結果。

Donkey Car硬體清單(The Donkey Car Hardware List)
Donkey Car 的硬體清單,包含了 Pi 3、車體、相機模組、搖桿以外,還用了冰棍做相機支架,非常有趣。


目前比較難取得的是 RC Car,還要再搭配專用擴充板,不過這都可以再進行改造的。對 Donkey Car 來說,相機模組是唯一的資料輸入來源。

Donkey Car軟體架構(The Donkey Car Software Architecture)
在 Donkey Car 的軟體架構中,包含了認知(Perception)、規劃(Planning)、控制(Control)和資料收集(Data Collection)等步驟。所謂的認知就是自駕車需要取得當前的狀態(state),包括是否正在前進還是後退?如果知道狀態以後,就可以根據條件做規劃,例如左轉、右轉或是避障等。有了規劃結果以後就可以發出控制訊號來控制馬達調整車子動作,最後就是持續把從相機讀進來的影像資料或是搖桿資料給保存下來。

Donkey Car身經網路(The Donkey Neural Network Model)
Donkey Car 的核心精神就是使用神經網路將影像和對應的動作做連結,因此選擇適合的模型與調整參數是很重要的。

Donkey Car資料類別(The Donkey Car Data)
除了有好的神經網路模型以外,如何挑選好的資料在機器學習領域也是非常重要的。對此李翼分享了自身的經驗,不能只給模型乖乖的控制資料,必須要加上一些錯誤再導正的控制資料,就像是我們人在開車時的行為。

Donkey Car車道設計(Donkey Car Lane Design)
車道設計也是大哉問,不論是地板材質、膠帶材質與顏色都會影響辨識結果,並且特別要注意車道轉彎角度必須要小於車子的迴轉半徑,才不會做出一個無法跑得賽道出來。

結語
最後的結論就是雖然神經網路是一個黑盒子,但多數的行為是可以根據訓練資料而得到的,因此除了模型設計以外,使用乾淨和有設計過的資料做訓練才會得到理想的結果,也就是 “餵什麼像什麼”。


李翼的分享非常精彩,中場休息時還被團團圍住。大家都想要在這次的分享吸收講者的經驗以減少自己摸索的時間。

驢車學走路(樹莓派在自駕遙控車的應用)的投影片下載

 

源自於MIT的小鴨車專案(Duckietown Project from MIT)
我們這次介紹小鴨城(Duckietown)專案,這是一個基於 Raspberry PiROS 的開源無人小車專案,源自於 MIT。在 2016 年課程初設計時,還是一個靠著影像辨識加控制理論所搭建的自走車平台,但到了 2017/2018 年已經可以結合機器學習做到多種環境識別與容器化等更適合在學校推廣的機器人平台。


這是在 2016 年課程(2.166)的架構,一開始會需要設定樹莓派(Duckiebot)和開發環境(Virtualbox),並且讓兩邊的網路透過名稱解析方式互通。一開始會做車輪校正(Wheel Calibration)確認小車能行走直線不偏移,再來從小車的視角去觀察世界可以看到如果要做到最簡單的車道跟隨(Lane Following)會需要找到左邊的黃色線段和右邊的白色車道,因此經過影像處理的技術,包括色彩空間轉換、濾波、邊緣偵測和找直線等可得到黃線和白線的線段座標。再經過相機校正(Camera Calibration)後,可以讓影像資訊從二維相機影像座標映射到真實世界三維座標。最後經過投票與條件機率可決定最適合的參數,再根據此一參數調整馬達控制訊號讓小車狀態改變達到能沿著車道行走的功能。

車道跟隨展示(Lane Following Demo)
sosorry 也展示了車道跟隨(Lane Following)的功能。但當天的光線太暗,黃線的部份並沒有清楚的看到,但在經過亮度補償後有改善,可以完整跑完一圈。

採果機器人展示(FarmHarvestBot Demo)
我們在之前的工作坊有遇到 FarmBotTUG 的朋友,他們開了一個新的採果機器人專案(FarmHarvestBot) ,希望能做到可以自動採收水果的機器人。我們也根據他們的想法做了一個簡單的展示,可以一邊自走 S 型車道,再一邊進行手臂控制夾取物品。未來將會做成原型車,能透過影像辨識再使用機器手臂自動抓取物品。

小鴨城(Duckietown)一個基於Raspberry Pi和ROS 的開源無人小車專案介紹投影片下載
 
我們預計在十二月還會在舉辦一次小鴨車的工作坊,活動時間與地點近期會公佈,歡迎大家一起來玩。

[活動] Raspberry Pi社群聚會 #23 @2018/10/29

raspberry_pi_meetup_23_self_driving_car_banner
RSVP:Raspberry Pi Meetup #23
The 23th of the Raspberry Pi meetup, the topic is “Raspberry Pi self-driving car”.

Speaker 1: Yi Lee/DonkeyCar.Taipei
Topic: Donkey Car – The application of RC self-driving car with Raspberry Pi
Abstract: Donkey Car is an open source project based on Raspberry Pi and Python. In this platform, the machine learning and computer vision are used for the self-driving car. We will share some experiences:
1) Donkey Car system architecture
2) Car assembly, turning and lane design
3) Performance modeling and analysis
4) The mystery of Donkey Car

Speaker 2: sosorry
Topic: The introduction of Duckietown – A self-driving car open source project based on Raspberry Pi and ROS.
1) What is the Duckietown?
2) The hardware
3) Computer vision as the input
4) Estimate and control the car by probability
5) Resources
6) DEMO

Additional Information:

  • 2018/10/29 19:10 ~ 2018/10/29 21:30
  • 2F., No.105, Sec. 1, Chongqing S. Rd., Zhongzheng Dist., Taipei City
  • $100 per person
  • - – – – – – – – – - 以下為中文 – – – – – – – – – -

    報名:Raspberry Pi社群聚會 #23

    第二十三次 Raspberry Pi 社群聚會,希望能透過社群活動的分享和交流,找到更多 Raspberry Pi 的可能。本次主題是「樹莓派自走車」。

    分享者1:李翼/DonkeyCar.Taipei
    題目:驢車學走路 – 樹莓派在自駕遙控車的應用
    大綱:Donkey Car (驢車) 是一個開源專案,這是以 python 為基礎,在 Raspberry Pi 使用機器學習和電腦視覺等方法驅動遙控車的自駕車平台,以下是我們的經驗分享:
    1) Donkey Car 系統架構
    2) 系統組裝調校與車道設計
    3) 模型效率分析
    4) 驢車傳說

    分享者2:sosorry (台灣樹莓派)
    題目:小鴨城(Duckietown),一個基於Raspberry Pi和ROS 的開源無人小車專案介紹
    1) 什麼是Duckietown?
    2) 所需硬體和環境
    3) 使用電腦視覺作為自駕車的輸入
    4) 用機率計算車道相對估計與控制
    5) 學習資源
    6) DEMO

    活動資訊

    • 活動時間: 2018/10/29(週一) 19:10 ~ 21:30 (6:40pm 開始入場)
    • 活動人數上限: 100
    • 活動地點:台北市重慶南路一段105號2樓(天瓏書局)

    費用

    • 每人100元場地費用
    • 帶作品展示的參加者免收場地費用

    備註

    • 活動場地有提供無線網路

    報名:Raspberry Pi社群聚會 #23

    [產品] AIY Projects – Vision Kit 影像套件(v1.1) | AIY Vision Kit


    大影像時代,想做物體偵測、微笑偵測、人臉偵測、影像識別嗎? AIY Projects – Vision Kit 影像套件,讓您輕鬆完成各種影像識別應用。

    raspberry-pi-aiy-vision-kit-v1p1-001-

    《特色》
    1. GoogleRaspberry Pi 合作打造的 AI 影像助理套件。
    2. 手把手教學Google Assistant SDK 範例程式
    3. 使用機器學習做 joy detect(愉悅偵測)object detect(物體偵測)face detect(人臉偵測)image classification(物體分類) 等。
    4. 搭配 Google AIY Projects App
    5. 隨套件附贈已安裝好環境的 microSD。

    《規格》
    raspberry-pi-aiy-vision-kit-materials

    1. Vision Bonnet(Intel Movidius MA2450 擴充子板) x1
    2. Raspberry Pi Zero WH(已焊好排針) x1
    3. Raspberry Pi Camera v2
    4. Long Flex(相機長排線) x1
    5. Push Button x1
    6. Button harness x1
    7. Micro USB Cable x1
    8. Piezo buzzer x1
    9. Privacy LED x1
    10. Short Flex(相機短排線) x1
    11. Button Nut x1
    12. Tripod nut x1
    13. LED bezel x1
    14. Standoffs x2
    15. Micro SD Card x1
    16. External Box x1
    17. Internal Box

    《教學》
    * 手把手教學
    * Source code for the AIY Projects “Vision Kit”
    * Google Assistant Library for Python

    《新聞》
    * AIY PROJECTS: VISION KIT: BUILD YOUR OWN INTELLIGENT CAMERA
    * Introducing AIY: Do-it-yourself Artificial Intelligence (Google I/O ’18)
    * Google再推出AIY Vision Kit套件,自己做出影像辨識迷你電腦

    $4500 


     

    加購磁性接頭鏡頭組(一組四顆鏡頭)

    4in1-lens-black

    《規格》
    1. 180度魚眼鏡 x1
    2. 0.67X廣角鏡 x1
    3. 2倍望遠鏡 x1
    4. 10倍微距鏡 x1
    5. 13mm磁性轉接環 x2

    合購價 $5000 


    ※若無法使用Paypal購買,請到 這裡 填寫表單購買,造成您的不便敬請見諒。

    [教學] Raspberry Pi Camera + Python + OpenCV投影片和範例程式 @虎科大

    20170727_NFU_Camera_Python_OpenCV_2_Days_Workshop
    七月底我們應虎科大電機工程系蔡老師的邀請,帶 Raspberry Pi + Python + Camera 兩天的工作坊。最後會實作”鄉民查水表”功能,是使用 Pi Camera 拍照後,用 OpenCV 做影像處理取得水表指針角度,就可以知道水表目前度數。學生很認真程度也很好,兩天的練習與實做都可以在時間內完成。我們未來也會和虎科大有更多的合作。

     

    這次的工作坊共分為兩天,第一天是介紹 Raspberry Pi Camera + Python。內容與時間如下:
    1. 相機原理與應用(1 小時)
    2. 控制 Raspberry Pi Camera(2 小時)
    - 使用指令列
    - 使用 Python
    3. 串接 imagga 網路服務(1 小時)
    4. Camera和 Webcam(1 小時)
    5. 影像串流(3 小時)
    - 使用 RTSP + H.264
    - 使用 HTTP + MJPG

    投影片我們已經放在 slideshare 上了。範例程式在 github 上了。
    Raspberry Pi Camera + Python + OpenCV (Day1) from raspberrypi-tw

     

    第二天是介紹 Raspberry Pi Camera + OpenCV。內容與時間如下:
    1. 色彩空間與基本影像處理(2 小時)
    - 色彩空間介紹
    - 用 Python + OpenCV 做影像處理
    2. 常用影像處理方法(3 小時)
    - 平滑,侵蝕與膨脹
    - 找邊緣與找直線
    - 找重心與找輪廓
    3. 機器學習應用與綜合練習(3 小時)
    - 人臉偵測
    - 圖形分類(手寫辨識)

    其中,在第二天工作坊中的圖形分類(手寫辨識),我們參考了 Ashing’s Blog內容,裡面有許多不錯的自學心得。

    投影片在 slideshare 上。範例程式在 github 上了。
    Raspberry Pi Camera + Python + OpenCV (Day2) from raspberrypi-tw