ROS.Taiwan 造訪社團 » 測試

原文網址 陳曜承
2018-04-22 15:22:15

好玩的測試,差點撞機
Multiple Parrot Bebop 2 remote control using ROS

林浩鋕
2018-04-22 19:18:41

Joe Hou
2018-04-22 21:48:05

Hou Chen
2018-04-23 11:57:13

陳曜承
2018-04-23 12:33:39


原文網址 林浩鋕
2018-04-02 22:46:09

Hypha ROS Workshop 說這專頁讚 2018年4月2日

[HyphaROS] Legged Robot Simulation, Trajectory Optimization and Visualization

又是一個小編最近在進行的side project
這是用之前提到的ETHZ-RSL所有的開源ROS Package呈現出來的成果, 背後是套用ipopt去解nonlinear optimization的問題(效能與成果會與選用的CPU chip有關~)

目前支援多種model (1足, 2足, 4足 & 多旋翼)
可切換多種地形 (亦可自行建立model or 地形)

測試影片如下:
https://youtu.be/BXWUi822rKA

最後
對ROS有興趣的, 歡迎加入 # ROSTaiwan

LeggedRobot: 3D Simulation, Trajectory Optimization with Nonlinear Solvers (ROS) All source code are released by ETHZ (BSD) HyphaROS: https://hypharosworksho... 關於這個網站 youtube.com Legged Robot Simulation, Trajectory Optimization and Visualization LeggedRobot: 3D Simulation, Trajectory Optimization with Nonlinear Solvers (ROS) All source code are released by ETHZ (BSD) HyphaROS: https://hypharosworksho... LeggedRobot: 3D Simulation, Trajectory Optimization with Nonlinear Solvers (ROS) All source code are released by ETHZ (BSD) HyphaROS: https://hypharosworksho...

吳亭範
2018-04-03 00:07:47

圖中影片似乎只考慮contact points, 沒有考慮腳跟地面碰撞問題...仔細看影片幾乎每個規劃的腳都跟地面相撞/沈入了

林浩鋕
2018-04-03 00:39:04

我也有發現類似問題
但我不確定是不是沒有考慮碰撞?
因為我的電腦連算簡單的平儀都有點問題
(不知道是ipopt solver設定錯誤 還是 CPU要掛了XD)

我要再確認一下他的架構才能回答

吳亭範
2018-04-03 03:26:12

well一個簡單的解法就是把腳上貼滿contact points. 不是只有末端腳掌而是均勻分布 這樣就可以解決碰撞問題 甚至可以學會用膝蓋走路 只是這麼一來要contact solver要檢查的contact就多了...會更慢

Don Si
2018-04-03 11:14:10

感覺像wu大大所說 planning scene 只考慮了points 沒有做ploygon intersection檢查


原文網址 林浩鋕
2018-02-16 14:17:56

[ROS系列文章] 第8篇 - SPENCER Project
各位新年快樂阿~~
今天來繼續介紹 FP7 & Horizon 2020的機器人計畫
照例開始之前先來一段有趣的影片:
https://youtu.be/ir_Ku4rCOO8

雖然是比較早期的計畫(2013開始)
但他成功整合了早期各式視覺辨識演算法
像是HOG + SVM, Depth Template matching
結合像是leg tracker等偵測訊號
放到loosely coupled EKF裡面
便能對周遭人群追蹤/分群
(會畫出移動方向/移動軌跡/人物ID等)

其中像是 full-body HOG detector
係由RWTH開發, 也有借助CUDA加速

雖然跟現在的CNN等方式比起來遜色不少
但其最大的架構 Multi-modal detection and fusion
寫得非常模組化, 完全跟ROS對接
簡單來說, 整個SPENCER計畫
並沒有發展出"某個獨特的演算法"
而是將當時比較有名的演算法
通通移植到ROS環境下
整合到真實的機器人上(如影片)
並在阿姆斯特丹機場真實測試

我自己使用這一年多來, 主要心得如下:
1. document 非常完善
2. 學習launch file的好機會XD
本計畫launch file的複雜度是我見過最高的
3. 對sensor要求比較高
(採用kinect or xtion pro, 但都停產了)
4. 雖然計畫是用超高階的電競筆電
但我用odroid xu4也可以運行(2Hz吧...)

Official Website: http://www.spencer.eu/
Github: https://github.com/spencer-project/spencer_people_tracking

有興趣的人可以先運行他的bag file:
Demo:
Multimodal tracking in RGB-D and 2D laser from a bagfile
另外因為他的monocular-vision HOG detector
坑比較多(太舊了), 建議可以直接跳過
所以建議使用binary安裝即可(sudo apt-get install )
我都是在此架構上再去跟其他第三方演算法對接

祝各位2018年事事順利
尤其是使用ROS時的痛苦指數低一點XD

林浩鋕
2018-02-16 14:19:17

Don Si
2018-02-16 14:24:09

一直在看這個專案 感謝小林老師的指教


原文網址 Alan Chen
2018-02-06 23:12:56

終於終於 ADLINK 正式加入了 ROS-I
今年開始有更多的 industrial 資源將與 ROS 相容與測試
也會有 DDS 與 fog 等商業級軟體產品 open source
希望能為各位 ROS 先進與開發者們帶來幫助與交流
最新的釋出同步將於 ROS.Taiwan 分享給大家
預祝大家新年快樂 :) 注意保暖R

林浩鋕
2018-02-06 23:13:46

yoooo 台灣第一家
我ARPG我驕傲 XD

蔡宗廷
2018-02-06 23:16:01

mmorpg表示

林浩鋕
2018-02-06 23:25:33

黃柏瑋
2018-02-06 23:43:00

gogogo

Eric Ko
2018-02-07 01:35:49

學長好帥