• #maker+t=market
  • 3D列印服務
  • COSPLAY 3D 建模
  • 1
  • 2
  • 3

ROS.Taiwan 造訪社團 » 建議

原文網址 林浩鋕
2018-03-25 21:55:38

[ROS系列文章] 第10篇 - ETHZ RSL (ANYmal)
系列文章強勢回歸(自己說XD)
上次介紹ETHZ非常有名ASL (Autonomous Systems Lab)
(基本上學術界做VIO都要跟他們的ROVIO, OKVIS比較)
這次來介紹另一個很有名的Lab: RSL
(Robotic Systems Lab)
最有名的是他們的quadrupedal robot: ANYmal
https://youtu.be/ZdeRi_5xK5U
最近的video, ANYmal隨音樂起舞XD
https://youtu.be/kHBLaw5nfzk

我對quadrupedal不太熟
但是ETHZ依舊保持一貫作風
上層架構完全建立在ROS上並且開源!!
free_gait:
An Architecture for the Versatile Control of Legged Robots
Video: https://youtu.be/5BkoGug8HhE
Github: https://github.com/leggedrobotics/free_gait
Slide:
https://www.ethz.ch/…/rs…/ROS2017/case_study_2018_anymal.pdf

透過架構可以看到整合諸多ETHZ本身開發的ROS pkg
像是ASL早期推出(目前還有在維護的) libpointmatcher
用作3D mapping & localization
加上 elevation_mapping 作為dense map generator
最後再導入grid_map以及OMPL(RRT*)
使ANYmal能透根據周遭複雜環境做
path planning & control

另外RSL的leader: Prof: Hutter, Marco
亦有開設ROS初階入門課程
(包含ROS架構, coding技巧, 實際演練與題目等)
算是我看這麼多教學裡面最紮實也最用心的課程
http://www.rsl.ethz.ch/education-stude…/…/robotdynamics.html
Video: https://youtu.be/0BxVPCInS3M

另外一門Robot Dynamics
其所有slides也是公開
強烈建議剛踏入機器人領域的人參考
畢竟ROS裡面很多pkg的參數調整
都是需要相關學術背景才能處理!!
http://www.rsl.ethz.ch/education-stude…/…/robotdynamics.html

Don Si
2018-03-26 08:42:42

感謝小林老師的分享

不知道老師對grid_map和elevation_mapping這兩個包的使用有否建議或分享


原文網址 Wei Lin
2018-03-12 15:27:33

請問 各位建議直接從 ROS2 開始學嗎? 好像差蠻多的。

蔡宗廷
2018-03-12 16:02:07

建議先學ROS1

林浩鋕
2018-03-12 16:38:59

我來分享一下看法~
如同 蔡宗廷 大大的說法
我也大力推從 ROS 1.0開始 …… 查看更多

李翼
2018-03-13 09:04:01

藉這個話題順便問一下。如果要將ROS2套在上次入門工作坊使用的minibot,還缺哪些功能或套件?以目前ROS2開發進程來推估,何時比較適合學習ROS2(假設以minibot為學習平台而非開發產品)?

林浩鋕
2018-03-13 09:10:09

喔喔
這要說明一下
上次開課的 或是 現在放在github上的 …… 查看更多


原文網址 林浩鋕
2018-02-16 14:17:56

[ROS系列文章] 第8篇 - SPENCER Project
各位新年快樂阿~~
今天來繼續介紹 FP7 & Horizon 2020的機器人計畫
照例開始之前先來一段有趣的影片:
https://youtu.be/ir_Ku4rCOO8

雖然是比較早期的計畫(2013開始)
但他成功整合了早期各式視覺辨識演算法
像是HOG + SVM, Depth Template matching
結合像是leg tracker等偵測訊號
放到loosely coupled EKF裡面
便能對周遭人群追蹤/分群
(會畫出移動方向/移動軌跡/人物ID等)

其中像是 full-body HOG detector
係由RWTH開發, 也有借助CUDA加速

雖然跟現在的CNN等方式比起來遜色不少
但其最大的架構 Multi-modal detection and fusion
寫得非常模組化, 完全跟ROS對接
簡單來說, 整個SPENCER計畫
並沒有發展出"某個獨特的演算法"
而是將當時比較有名的演算法
通通移植到ROS環境下
整合到真實的機器人上(如影片)
並在阿姆斯特丹機場真實測試

我自己使用這一年多來, 主要心得如下:
1. document 非常完善
2. 學習launch file的好機會XD
本計畫launch file的複雜度是我見過最高的
3. 對sensor要求比較高
(採用kinect or xtion pro, 但都停產了)
4. 雖然計畫是用超高階的電競筆電
但我用odroid xu4也可以運行(2Hz吧...)

Official Website: http://www.spencer.eu/
Github: https://github.com/spencer-project/spencer_people_tracking

有興趣的人可以先運行他的bag file:
Demo:
Multimodal tracking in RGB-D and 2D laser from a bagfile
另外因為他的monocular-vision HOG detector
坑比較多(太舊了), 建議可以直接跳過
所以建議使用binary安裝即可(sudo apt-get install )
我都是在此架構上再去跟其他第三方演算法對接

祝各位2018年事事順利
尤其是使用ROS時的痛苦指數低一點XD

林浩鋕
2018-02-16 14:19:17

Don Si
2018-02-16 14:24:09

一直在看這個專案 感謝小林老師的指教


 

全不選 發文排行