11.07.2015 Views

센서 융합 기반의 자가 재결합 로봇을 위한 위치 인식 시스템 - KAIST

센서 융합 기반의 자가 재결합 로봇을 위한 위치 인식 시스템 - KAIST

센서 융합 기반의 자가 재결합 로봇을 위한 위치 인식 시스템 - KAIST

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

제 4 회 한국로봇공학회 하계종합 학술대회 논문집2009 년 7 월 1 일 – 3 일<strong>센서</strong> <strong>융합</strong> <strong>기반의</strong> <strong>자가</strong> <strong>재결합</strong> <strong>로봇을</strong> <strong>위한</strong><strong>위치</strong> <strong>인식</strong> <strong>시스템</strong>김지성, 태용민, 유연걸, 김시종, 정명진<strong>KAIST</strong>Localization for Self-Reconfigurable RobotBased on Sensor FusionKim, Ji-Sung; Tai, Yong-Min; Ryu, Yeon Geol; Kim, Si-Jong; Chung, Myung Jin<strong>KAIST</strong>e-mail : {jisung, neotym, ygryu, terre}@rr.kaist.ac.krmjchung@ee.kaist.ac.kr요약본 논문은 선형 <strong>위치</strong> 추정 알고리즘을 이용하여 iGS <strong>센서</strong>와 전방향 비전 <strong>센서</strong>를 <strong>융합</strong>해서 로봇의 정확한 <strong>위치</strong>를 추정하는 <strong>시스템</strong>을 제안한다.1. 서론2. 본론<strong>자가</strong> <strong>재결합</strong> 로봇이란 로봇 모듈끼리 결합하여 모양을 바꾸거나 고장 난 기능을 수리하는 등 주어진환경과 상황에 맞게 로봇 모듈을 재구성 하여 새로운 기능을 할 수 있는 로봇이다.[1]미지 영역에 대한 탐사용 필드로봇은 주어진 임무수행에 적합하게 재구성 되어야 하고, 이를 위해서는로봇들이 스스로 결합하는 <strong>자가</strong> <strong>재결합</strong> 기술이 필요하다.로봇이 <strong>자가</strong> <strong>재결합</strong>을 하려면 현재 나의 <strong>위치</strong>와상대방 로봇의 <strong>위치</strong>를 결합 가능한 <strong>위치</strong> 오차 범위이내로 알아야 하고 이를 위해 본 연구에서는 iGS<strong>센서</strong>와 전방향 비전 <strong>센서</strong>를 <strong>융합</strong>해서 로봇의 정확한<strong>위치</strong>를 추정하는 기술을 연구 하였다.2.1 전방향 비전 <strong>센서</strong>를 이용한 로봇의 방위 각도측정l비전 <strong>시스템</strong>에서는 상대방 로봇의 각도 θk, 로봇표식 색상의 평균 mk , color과 분산 Σk , color을 입력으로정확한 로봇 상대 각도를 계산한다. 전체 알고리즘은l: 로컬좌표번째로봇 , k:k그림 1과 같다. ( )정확한 로봇 상대 각도의 추정을 위해서는mk , color, Σk , color를 통해 계산된 마할라노비스 거리(Mahalanobis Distance)를 이용한다. 전방향 비전 이미지에서 예상 로봇 영역을 구하고, 이를 통해 주어진 상대 로봇 각도에 해당되는 로봇 영역을 추출한다. 추출된 로봇 영역을 바탕으로 정확한 로봇 상대l각도( θk , vision)를 추정한다.- 1 -


제 4 회 한국로봇공학회 하계종합 학술대회 논문집2009 년 7 월 1 일 – 3 일input : θ , m , Σlk k , color k , coloryMahalanobis Distance : rrpT−( pi -mk , color ) k , color ( pi -mk , color )T[ ] : -2 1i= Σ=R G B i th pixel value vector2( x2,y2)( xy , )θ k( xk,yk)( xn,yn)2r< ThresholdYN( x1,y1)xSave pixel point ( x i)그림 2. 로봇의 <strong>위치</strong>와 방향NEnd of searchsinθ ⋅x−cosθ ⋅ y = sinθ ⋅x −cosθ⋅ y (1)k k k k k kExtract true robot pixels ( x i , true)l−1θ = tan x − cCalculate robot angle ( θ )θxYnl−1k , visiontan ⎜ ∑ xi,truen i=1i,trueki ,lk , vision⎛1⎞= − c⎟⎝⎠: robot pixels ( Landmark pixels )c : image center( )θ − λ < θ < θ + λl l lk ki , kλ : angle variation그림 1. 전방향 비전 <strong>시스템</strong> 알고리즘 순서도i그리고 식 (1)을 n개 로봇으로 확장하면 식 (2)와같고,⎛sinθ1 −cosθ1⎞ ⎛ sinθ1⋅x1−cosθ1⋅y1⎞⎜ ⎟ ⎜ ⎟⎜sinθ2 −cosθ2⎟⎛x⎞ ⎜sinθ2⋅x2 −cosθ2⋅y2⎟⎜ ⎟=(2)⎜ ⎟⎝y⎠⎜ ⎟⎜ sinθn −cosθ ⎟ ⎜nsinθn ⋅xn −cosθn ⋅y⎟⎝ ⎠ ⎝ n⎠이 식은 식 (3)과 같이 일차 선형 방정식으로 표현할 수 있다.2.2. 선형 <strong>위치</strong> 추정(LPE) 알고리즘Ax=b (3)제안하는 선형 <strong>위치</strong> 추정 알고리즘(Linearposition estimation algorithm)은 다른 로봇들의 <strong>위치</strong> (x,y)와 방향(θ) 정보를 이용하여 자신의 <strong>위치</strong>를추정하는 알고리즘이다. 일반적으로 iGS에서 제공하는 로봇의 <strong>위치</strong>는 상대적으로 정확하지 않고, 전방향비전 <strong>센서</strong>는 정확하다. 그림 2와 같이 로봇들이 배치되어있을 때, 자신의 <strong>위치</strong> ( x,y)<strong>위치</strong> ( , )xkyk와 방향k표현 할 수 있다.는 상대방 로봇의θ 를 이용하여 식 (1)과 같이위 (3)식의 방정식은 A 매트릭스의 계수(rank)가2인 경우, 아래 식 (4)와 같이 최소 오차를 같는 근사해 x*을 식 (5)와 같이 구할 수 있다.argX2( min )T−( ) 1Ax-b (4)Tx* = A A A b (5)- 2 -


제 4 회 한국로봇공학회 하계종합 학술대회 논문집2009 년 7 월 1 일 – 3 일2.3. <strong>센서</strong>의 <strong>융합</strong>을 통한 로봇의 <strong>위치</strong> 추정Initialization :θgmy= θgmy,initial일반적인 iGS는 월드 좌표계에 대한 <strong>위치</strong> 좌표 (x,y)를 제공한다. 하지만 이 <strong>센서</strong>는 비컨 사이 거리에비례하는 거리오차를 발생하여, 로봇 사이의 <strong>자가</strong> 결합에 어려움이 발생한다. 이 문제를 보완하기 위해아래 그림 3과 같이 iGS와 정확한 방향(θ)을 제공하는 전방향 비전 <strong>센서</strong>를 <strong>융합</strong>하여 <strong>자가</strong> 결합에서 요구하는 정확한 로봇 <strong>위치</strong> 값을 추정 하였다.Input : iGPS data( X , Y ),Omni Vison Sensor Image( x x y y )θ = arctan − , −l g gθ = θ −θg g g g gk k my k myk k myl( θ, , )ˆ lθ = IP , μ , Σk k k color k colorIP : image processing(ˆ)n1∑( ˆ)ˆ θ = E Θ −Θ = θ −θg g l g lnmy k kk = 1ˆg θk ˆl ˆg= θk + θmy⎛ ˆgsinθ1 cos ˆg− θ ⎞1⎜⎟ˆgˆg⎜sinθ2 −cosθ⎟2A = ⎜ ⎟⎜ ⎟⎜ ˆg⎝sinθncos ˆg− θ⎟n ⎠where, Θ =gθ ,g, θ ,lΘ =lθ ,l, θg{ 1 } ˆ { ˆ ˆn1n}rank ( A) = 2N그림 3. iGS와 전방향 비전 <strong>센서</strong>의 <strong>융합</strong><strong>센서</strong> <strong>융합</strong> 알고리즘은 그림 3와 같이 현재 iGS에서 제공하는 각 로봇들의 <strong>위치</strong> 정보(X,Y)와 전방향비전<strong>센서</strong>에서 제공하는 이미지를 입력으로 사용하여로봇의 <strong>위치</strong>와 방향을 추정한다. 이 알고리즘은 앞 1,2절에서 설명한 알고리즘이 통합된 알고리즘이다. 간략하게 설명하면, iGS에서 제공하는 <strong>위치</strong> 정보를 바g탕으로 상대 로봇의 월드 방향각( θk)과 로컬 방향각( θ )을 계산하고, 전방향 비전 <strong>시스템</strong> 알고리즘을 이lk용하여 각 로봇의 정확한 상대 각도를 계산한다. 그림 4의 A 매트릭스의 계수가 2인 경우에만 앞 2절에서 설명한 선형 <strong>위치</strong> 추정 알고리즘을 이용하여로봇의 <strong>위치</strong>를 추정한다. (A 매트릭스의 계수가 2보다 작은 경우에는 LPE 알고리즘의 해가 의미 없는경우이다.) 추정된 로봇의 <strong>위치</strong> xˆ gmy와 iGS에서 측정g된 <strong>위치</strong> x 의 차이가 iGS의 오차보다 크면 iGS에서my측정한 로봇 <strong>위치</strong>를 사용한다.( xˆmy, yˆ) = LPE ( X , Y , Θˆ)g g g g gmyLPE : Linear Position Estimation Algorithm( Θ ˆ ) = {( ˆ gθ1) ( ˆ gθn)}g g g g g g g1 1 n nwhere, X , Y , x , y , , , x , y ,Nd= Dist ( x , xˆ)g gmy my( ) xˆ ( ˆ ˆ )where, x = x , y , = x , yg g g g g gmy my my my my myd > Threshold distˆ gmyxYY= xgmyg: ˆ , : ˆgPosition x Rotation θmy그림 4. <strong>센서</strong> <strong>융합</strong> 알고리즘 순서도2.4. 시뮬레이션 결과my그림 5. 2대의 로봇 시뮬레이션 결과- 3 -


제 4 회 한국로봇공학회 하계종합 학술대회 논문집2009 년 7 월 1 일 – 3 일그림 11. Y축 방향으로 이동에 따른 에러그림 9. 로봇 개수 변화에 따른 에러시뮬레이션 결과 iGS의 오차 보다 LPE의 오차가항상 작은 것을 확인 할 수 있었다. 또한 로봇의 개수가 증가 할수록 로봇의 <strong>위치</strong> 추정 오차가 작아지는 것을 확인 할 수 있었다.2.5. 실험 결과3. 결론선형 <strong>위치</strong> 추정 알고리즘을 이용하여 iGS <strong>센서</strong>와전방향 비전 <strong>센서</strong>를 <strong>융합</strong>한 <strong>자가</strong> <strong>재결합</strong> 가능한 로봇의 <strong>위치</strong> 추정 기술을 개발하였다. iGS에서 제공하는 <strong>위치</strong> 데이터는 15cm 이내의 <strong>위치</strong> 추정 오차를보이는데, 제안하는 알고리즘은 4cm 정도의 <strong>위치</strong> 추정 오차를 보여 제안한 알고리즘이 로봇의 <strong>위치</strong>를좀 더 정확하게 추정 함을 확인 할 수 있었다.시뮬레이션 결과를 확인 하기 위하여 Pioneer 3이동 로봇에 iGS와 전방향<strong>센서</strong>를 장착하여 실험을하였다. 그 결과 iGS는 정밀도 15cm이내의 <strong>위치</strong> 결과가 나왔고 제안한 알고리즘은 4cm 이내의 <strong>위치</strong>결과가 나와서 제안한 알고리즘을 통해 로봇의 <strong>위치</strong>추정 결과가 정확해 진 것을 확인 할 수 있었다.iGS LPE정밀도 15cm이내 4cm 이내참고문헌[1]Akiya Kamimura, Satoshi Murata, EiichiYoshida, Haruhisa Korokawa, Kohji Tomitaand Shigeru Kokaji, ”Self-ReconfigurableModular Robot –Experiments onReconfiguration and Locomotion-“ IEEE/RSJIneternational Conference on IntelligentRobots and Systems, 2001[2] Margrit Betke and Leonid Gurvits, "MobileRobot Localization Using Landmarks," IEEETRANSACTIONS ON ROBOTICS ANDAUTOMATION, VOL. 13, NO. 2, APRIL 1997[3] Francesca Calabrese and Giovanni Indiveri,“An Omni-vision Triangulation-like Approachto Mobile Robot Localizaton,” Proceedings ofthe 2005 IEEE International Symposium onIntelligent Control, 2005그림 10. X축 방향으로 이동에 따른 에러- 4 -

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!