• #maker+t=market
  • COSPLAY 3D 建模
  • 3D列印服務
  • 1
  • 2
  • 3

FarmBot Taiwan User Group-FBTUG 造訪社團 » 用戶發文

原文網址 Cheng Hsun Tseng
2018-03-09 22:12:06

脫離上個月創了歷史記錄第二長的寒流之後,不同於北部的持續陰霾,三月初的南台灣就已迫不急待的開始溫暖如春,開春第一炮的2018 FBTUG年會就預定在生機勃勃的台南府城登場,且聽說年會參加者眾報名人數已經滿額,我猜這無非是衝著哈爸的號召力以及對於農業自動化的願景而來的。

本文簡要的示範樹莓派相機與TFT LCD如何組裝成迷你相機,以及利用PlantCV與Plant-detection兩種套件來進行植物的偵測。

Wuulong Hsu
2018-03-09 22:24:58

東西在哈爸手上,明天會場看得到。明天想辦法考考它 XD

Wuulong Hsu
2018-03-09 22:25:53

CH 大真是佛心,FBTUG 感謝您!焦點從肺部移到了胃部,笑死!

Wuulong Hsu
2018-03-12 19:36:53

歐敏銓
2018-03-13 19:39:03


原文網址 Cheng Hsun Tseng
2018-01-22 15:52:00

Kobe Yu
2018-01-23 18:07:42

好完整的分析跟實作!

Wuulong Hsu
2018-01-25 08:09:39

這跟 FBTUG 想發展的育苗情境很搭配啊

Wuulong Hsu
2018-01-25 08:17:50

回過神來看才發現這是 CH 大的分享文啊!

陳幸延
2018-01-30 09:56:41

感謝 CH 分享,我將此連結加入於開放農業月報中~(希望未來能方便索引此文章)
https://hackmd.io/s/H11Spw3SG


原文網址 Cheng Hsun Tseng
2017-12-29 00:09:08

Kobe Yu
2017-12-29 00:13:06

有人想組隊打怪嗎XD


原文網址 Cheng Hsun Tseng
2017-05-13 15:37:35

https://chtseng.wordpress.com/…/%E5%88%A9%E7%94%A8%E9%9B%B…/

Wuulong Hsu
2017-05-13 18:30:31

說明得真是有夠清楚,太專業了!

吳水豚
2017-05-13 22:04:21

大大神力


原文網址 Cheng Hsun Tseng
2017-05-06 20:07:47

計算種子發芽數目。還沒嚴謹的測試過,實際應用可能需要再調整參數。

程式碼我放在 https://github.com/ch-tseng/farmbot ,大家可以參考看看。

Eric Lin
2017-05-06 20:23:23

範圍……也是用顏色判斷?

Sam Yang
2017-05-06 20:43:59

好神阿

Wuulong Hsu
2017-05-06 20:46:31

超棒,一整個高級,即使翻過 code, 也完全不懂 XD

Wuulong Hsu
2017-05-07 19:26:33

Richard Yang
2017-05-13 23:49:19

這是很有意義的發展欸!
請問目前能做到像是:區分米粒白色和雜色,甚至能用farmbot剔除雜色米嗎?


原文網址 Cheng Hsun Tseng
2017-03-31 11:21:53

NIR-GB相片分析, 並與實際的NDVI假色圖比較。

右上方是計算出的NDVI值, 左上方分別是NIR-GB原圖及標準的假色圖, 下方三張是拆解表示為高中低NDVI的三個區域(紅>黃>綠)。此部份我是用color space方式來作, 與假色圖比較後, 發現還挺接近的, 因此並沒有依據標準的NDVI假色圖作法.

程式中thRED2, thYELLOW2, thGREEN2 這三個值可調整紅黃綠的敏感度.

我不確定這種作法是否OK, 程式放在https://github.com/ch-tseng/image-NDVI 給大家參考,未來我會整理好後, 再統一放到Farmbot git .

Shaw Wu
2017-03-31 11:36:17

看起來天空經常會出現紅色區,這代表什麼意思呢?看wiki說明,計算方式是利用紅光與近紅外光的反射,能顯示出植物生長、生態系的活力與生產力等資訊。數值愈大表示植物生長愈多。 那天空這塊會不會就變成是雜訊的來源?

林永仁
2017-03-31 12:28:36

Good job!


原文網址 Cheng Hsun Tseng
2017-03-17 21:06:12


原文網址 Cheng Hsun Tseng
2017-02-24 00:13:48

幸延上傳的瓢蟲相片, 用簡單的LAB色域分離取高光部份,可以用程式自動抓取出來。不過這不是很好的方法,未來還是用特徴比對及機器學習方式比較好。

程式碼放在https://github.com/ch-tseng/chlib,有興趣網友可執行:python test.py -i ladybug/IMAG1711.jpg 試看看。

陳幸延
2017-02-24 00:26:27

瓢蟲算是益蟲,我拍照來記錄他喜歡棲息在什麼植物上。之後看看能不能拍到菜蟲 :)

徐其中
2017-02-24 05:32:25

對種菜農友的來說因為瓢蟲是吃葷的,所以算是農夫的小幫手。

林永仁
2017-02-24 06:26:21

Cheng Hsun Tseng 可否提供NIRGB 圖片給您分析呢?目前我手上只有一台要當作改裝的參考,後續會提供幾台自己改裝的NIRGB相機給社群的朋友使用。

林永仁
2017-02-24 06:27:28

影像處理這一塊,不知道您用什麼工具?最終的目標是讓硬體跟程式可以在PI上面運行。

Wuulong Hsu
2017-02-24 07:08:38

另外 關於 NDVI 相關應用,看能不能幫忙發想Camera Commander 相關的命令。後面整合起來實作
https://hadad.hackpad.com/FarmBot-Camera-Commander......

Wuulong Hsu
2017-02-24 07:10:58

還有也鼓勵相關農友,也能幫忙拍照上傳,讓影像辨識的夥伴,有更多的材料。


原文網址 Cheng Hsun Tseng
2017-02-21 16:43:57

增加計算植物覆蓋比率的功能(包含綠色和紅色植物)。

程式碼已經更新到https://github.com/ch-tseng/farmbot,有興趣網友可以安裝opencv後, 執行: python detectWeeds.py -i images/weeds2/IMAG2601.jpg 看看.


原文網址 Cheng Hsun Tseng
2017-02-20 16:42:12

剛剛用幸延提供的相片, 發現如果色彩空間轉為L*a*b*, 取B的channel, 似乎可提取綠色植物的區域部份(可作為影像識別或機器學習的area)。

未來可加上mask(真正種植蔬菜的區域),剩下的理論上就是雜草的部份了。

再請各位看看這個方法還有沒有其它問題。程式碼我放在: https://github.com/ch-tseng/farmbot

Wuulong Hsu
2017-02-20 16:49:00

看來效果不錯!

Penlock Chen
2017-02-20 17:11:26

非純綠色的,可能要另外的方式

Weichin Hung
2017-02-20 17:38:18

雜草也一併算進去?

Weichin Hung
2017-02-20 17:39:38

建議研究一下NDVI 值生指數。

Weichin Hung
2017-02-20 17:40:32

若要機器學習 基本植物生理知識要有啊… 忠告

陳幸延
2017-02-20 18:45:36

Cheng Hsun Tseng
2017-02-20 20:22:27

再麻煩幸延看看綠色區域有否涵蓋到不同種類的雜草。

Cheng Hsun Tseng
2017-02-20 20:22:50

Cheng Hsun Tseng
2017-02-20 20:23:04

陳幸延
2017-02-20 23:01:33

請問是用什麼特徵辨識說這是雜草呢?

Cheng Hsun Tseng
2017-02-21 00:00:32

這些綠色區域只是image pre-processing, 可作為mask,扣除掉我們不感興趣的非綠色區域再進行image/feature descriptor,可減少資料和運算量。

再請問幸延幾個問題,這樣比較清楚要作什麼 ...

1. Farmbot所拍出的相片,若扣除種植蔬菜的區域,其它綠色區域是否可視為雜草?
2. 你想要從相片得到什麼訊息,比如雜草的覆蓋比率?還是雜草位置?種類?

不過在電腦視覺與機器學習,我還只是入門,只是利用這機會試著學看看,非常不專業,大家鞭小一點啊。

陳幸延
2017-02-21 07:24:27

1. 基本上 FarmBot 是會在電腦記錄蔬菜的絕對位置,其他部分暫視為雜草沒錯。戶外大面積種植的環境可能要知道作物的種植間距。
2. 如果考慮自己,會想知道雜草覆蓋率,有沒有影響目前作物的生長空間,能知道種類當然更好,因為有些為共伴作物或野菜,每個農夫習慣不一。

對了,因為有些作物不是綠色的,想到如果用紅外線攝影機拍攝後再分析不知道效果如何。這邊也 tag 一下 林永仁 :)

Cheng Hsun Tseng
2017-02-21 08:42:23

hi 幸延, 如果要抓紅色植物的話, 可以使用LBA color space中的A channel, 例如這張:

Cheng Hsun Tseng
2017-02-21 08:42:39

綠色和紅色植物兩者合併:

Cheng Hsun Tseng
2017-02-21 08:42:59

Weichin Hung
2017-02-21 08:57:32

十字花科葉菜類 與 禾本科雜草的生長型態是不太一樣 而且葉菜類經濟產量是在本葉期第3或5葉開始即行追肥,葉片積(LAI)才會增加 若能考慮作物生長分化型態的起始點 再對症處理 事半功倍

陳幸延
2017-02-21 09:06:48

也算是精準農業的價值了

陳幸延
2017-02-21 09:20:07

之前的小想法:精準農業精神應為節省成本(人力、時間、資財),不造成過多資財浪費,減少環境污染、破壞,提升食品安全。

辨識雜草 -> 減少人工或除草劑 (慣型農耕)
植物生長指標 -> 水、肥、農藥、成熟率(採收前準備)

Weichin 的想法很有真正價值的,再請多多指導。

林永仁
2017-02-21 09:36:37

陳幸延 精密定位方案已經po上去。這兩個比較可行,其他太貴的就先不po了。

Weichin Hung
2017-02-21 09:37:56

農業自動化不比工業自動化簡單的原因就在於人為的操作環境的變異與作物本身生長的能力,為什麼近來報導番茄味道只有死甜似乎少了原本應有的味道,這就關乎於人類為了只求產量與某種成分(糖度或耐儲)累積,把作物侷限在空網室內為求期產量往往忽略適地適種,進而忽略了原有作物的表現。說實在話 現今的 商業品種或育種者(BREEDER) 其實已經考量未來利於人類與機器偕同運作的植株型態,舉凡"水稻考量利於機械收穫不落粒性" 葡萄成行栽培利於大型機械收穫。然而似乎市面上還沒有看到利於植物工廠運作(如半人工光 人工光源 ) 使用的作物品種,這或許就是最初需要考量的觀點之一。 陳SIR的毅力非常佩服 小弟也是在尋求農業大數據蒐集 。凡是透過操作行為(如施肥 澆水 中耕 除草)這些看似要來解決人力的部分 背後操作的時機點(TIMING) 都存在農夫的經驗內 如何讓外界監測數據與操作處理適當點取得對作物經濟產量(EI)效果,不斷驗證與試驗設計結果與機器學習似乎可以合而為一(當然我這論點對於傳統農業觀點也是有挑戰的)

林永仁
2017-02-21 09:40:52

Weichin Hung 我也覺得大數據應該先用來傳承(分析)前人智慧,然後再來開創新局的。我家住台南關廟附近,怎麼都覺得現在的鳳梨很甜很好吃,但是好像少了些什麼?

Cheng Hsun Tseng
2017-02-23 09:14:18

請問永仁, NDVI套色的圖片, 顏色由綠, 黃至紅。愈紅的代表NDVI值愈高嗎?

林永仁
2017-02-28 15:19:00

那個是用別人的軟體算的。基本上他就是-1 到 +1 的數值,要套上什麼假色,看我們怎麼定義了。


 

討論主題