• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Robotics and Automation Engineering, Hoseo University, Korea.)
  2. (Dept. of Robotics and Automation Engineering, Hoseo University, Korea.)



Automotive mobile robot, Computer vision, Image processing, Grid tracking robot

1. 서 론

최근 로봇의 위치 인식 기술에 기반을 둔 실내 자율주행 로봇 기술이 주목을 받고 있다(1-3). 로봇의 위치 인식은 이동 로봇의 위치와 방향을 인식하거나 파악하는 기술이다(1). 이동 로봇의 핵심 기술이라 할 수 있는 위치 인식은 로봇이 속한 공간에서 2차원 좌표와 로봇이 향한 방향 정보를 파악하는 것이다(2). 그동안 위치 인식 연구는 주로 엔코더(Encoder), 적외선, 초음파 등을 장착하여 오도메타(Odometer) 정보에 의존해 로봇의 자기 위치 지표를 인식하고, 장애물의 여부를 인식하였다(3).

최근에는 이동 로봇이 미지의 영역을 주행하면서 주변 환경을 인지하고 지도를 작성하면서 동시에 그 환경에 대한 로봇의 상대적인 위치를 추정하는 SLAM(Simultaneous Localization And Mapping)이 많이 활용되고 있다(4). 로봇의 이동 환경에 대한 정보는 주로 로봇에 부착된 거리 센서(LiDAR, Laser, 초음파, 적외선 등)를 이용하여 획득하는 방법과 비전(Vision) 센서를 이용하여 영상 처리 과정을 통하여 정보를 획득하는 방법이 있다(5-7).

현재까지 연구된 다양한 로봇의 위치 인식과 네비게이션 기술은 인공지표나 비전을 기반으로 진행하고 있으며, 이와 같은 기술은 위치 인식의 오차범위가 일정 기준 이상 발생하고, 기초 시공비용이 높아 보다 정확한 위치 인식과 낮은 시공비용이 요구되는 기술을 필요로 한다(1).

인간의 시각 지능은 시각적 환경을 자신의 생존에 맞게 활용하는 역량을 의미한다. 인간은 시각 지능을 이용하여 미지의 실내 공간에서 다른 감각의 도움 없이 시각 인지 정보만으로도 목표 위치를 찾아갈 수 있다. 예를 들어 배달 라이더가 처음 방문하는 건물의 호실 정보만 알고 있다고 하더라도 라이더는 다른 감각에 의존 하지 않고 오직 시각 정보만을 이용하여 배달 장소를 찾을 수 있다. 이와 같이 인간의 시각 지능을 이용하면 실내 공간에 설치된 최소한의 시각 정보만으로도 로봇의 실내 자율주행이 가능하게 될 것이다.

본 논문에서는 인간의 시각 지능을 모방하여 로봇이 실내 공간의 바닥 면에 설치된 타일의 격자무늬 정보를 이용하여 위치를 인식하고 주행 방향을 결정하는 방법을 제안한다. 이와 같은 로봇의 실내 주행 방법은 실내 로봇 시스템을 위한 별도의 시공이나 장치의 추가 없이 단일 카메라의 정보만으로 이동 로봇의 위치 인식과 주행 제어를 가능하게 하므로 기존의 방법에 비해 간단하고 경제적이다.

2. 이동 로봇 시스템 설계

본 논문에서는 실내 바닥 타일의 격자무늬를 이용하여 인간의 시각 지능을 모방한 실내 자율주행 로봇을 구현하였다.

로봇의 구동을 위하여 2개의 BLDC 모터를 이용한 차동구동방식을 적용하였다. 로봇의 하단 중앙 양쪽에는 2개의 BLDC 모터를 장착하였고, 전면과 후면에는 구동부가 없는 4개의 보조 바퀴를 구성하였다. 전면 상단에는 바닥 면의 타일을 촬영하기 위해 CMOS 카메라를 사용하였으며, 주행 방향의 장애물을 인식하기 위해 초음파 센서를 사용하였다. 아래 그림 1은 본 논문에서 실험을 위해 제작한 실내 자율 주행 로봇의 외형이다.

그림. 1. 타일 격자무늬 추적 자율주행 로봇

Fig. 1. Autonomous mobile robot that tracks tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig1.png

2.1 이동 로봇 시스템 구성

그림 2는 본 논문에서 구현한 실내 자율주행 로봇 시스템의 기능 블록도이다. 제어부는 Microchip사의 PIC16F884기반 임베디드 보드를 사용하였다. 영상 촬영과 컴퓨터 비전 알고리즘 처리, 그리고 로봇의 주행 제어를 위해 노트북을 사용하였으며, 이동 로봇의 실시간 주행 모니터링과 원격 제어를 위해 별도의 PC를 사용하였다.

그림. 2. 타일 격자무늬 추적 자율주행 로봇 시스템 기능 블록도

Fig. 2. System function block diagram of an autonomous mobile robot that tracks tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig2.png

2.2 이동 로봇 시스템 제어기 설계

이동 로봇 시스템 제어기의 하드웨어 구성은 그림 3과 같다. CPU는 Microchip사의 PIC16F884 8bit 마이크로컨트롤러를 사용하였다. 로봇을 구동하기 위한 모터는 2개의 In-Wheel BLDC 모터를 사용하였다. 장애물 감지를 위하여 전방과 후방에 각각 1개의 초음파 센서를 사용하였으며, 영상획득을 위하여 노트북과 웹캠(Webcam)을 사용하였다. 획득한 영상은 위치 추정 알고리즘을 이용해 이동 로봇의 현 위치를 추정하는데 사용되고, 계산된 현 위치는 주행 제어 알고리즘을 이용하여 CPU에 차동 주행 신호를 전송하기 위해 사용된다. 이를 통해 실내 자율주행 로봇의 주행 방향과 속도를 제어할 수 있다.

그림. 3. 타일 격자무늬 추적 자율주행 로봇 시스템 제어기의 하드웨어 구성

Fig. 3. Hardware configuration for system controller of an autonomous mobile robot tracking tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig3.png

3. 이동 로봇의 위치 추정

3.1 가이드라인 추출을 위한 이미지 전처리

이동 로봇의 현재 위치와 진행 방향의 주행 정보를 획득하기 위해서 바닥 타일의 영상으로부터 가이드라인(Guideline)을 추출한다. 그림 4는 카메라를 통해 획득한 바닥 타일의 원본 이미지이다.

그림. 4. 바닥 타일 원본 이미지

Fig. 4. Original images of tiles installed on the floor

../../Resources/kiee/KIEE.2021.70.6.945/fig4.png

그림 5는 바닥 타일 원본 영상으로부터 타일의 격자무늬 정보를 얻고 이를 통해 가이드라인을 추출하기 위한 이미지 전처리 과정을 보여주는 순서도이다.

3.2부터 3.6까지는 이동 로봇의 위치 인식과 주행 제어에 사용될 가이드라인 추출을 위한 이미지 전처리 과정을 상세히 설명한다.

그림. 5. 가이드라인 추출을 위한 이미지 전처리 절차

Fig. 5. Image pre-processing procedure for guideline extraction

../../Resources/kiee/KIEE.2021.70.6.945/fig5.png

3.2 노이즈 제거

카메라로부터 받아진 영상은 조명 등의 영향으로 인하여 많은 노이즈를 포함하고 있다. 흐림효과(Blurring)와 모폴로지(Morphology) 연산을 이용하여 영상에 포함된 노이즈를 최소화 한다(8). 그림 6은 카메라를 통해 획득한 원본 타일 이미지(그림 4의 floor_1)에 가우시안 흐림 효과(Gaussian blur)와 히트미스 모폴로지(Hit-or-miss morphology) 연산을 적용하여 원본 영상으로부터 노이즈를 제거한 이미지이다.

3.3 이진화

전처리 과정을 통해 노이즈를 축소한 이미지를 그레이스케일(Grayscale)로 변환한 후 처리 속도 향상과 잔여 노이즈 제거를 위해 이진화(Binarization)를 수행한다.

본 논문에서는 모폴로지 연산 수행 후 이미지에 남아있는 잔여 노이즈 제거를 위해 가중평균(Weighted average) 적응형 임계값(Adaptive threshold) 이진화 알고리즘을 사용하였다. 가중평균 적응형 이진화 알고리즘은 각 픽셀(Pixel) 주변의 (Block size) × (Block size) 영역에 대한 가중평균을 계산한다. 이후 가중평균에서 상수(Constant)를 감산한 값을 계산해서 픽셀마다 적응형 임계값을 설정한다. 각 픽셀에 적용된 적응형 임계값에 따라 임계값 보다 낮은 픽셀값은 0으로 변경하고, 임계값 보다 높은 픽셀값은 최댓값으로 변경한다. 그림 7은 적응형 이진화 알고리즘를 적용해 그림 6의 그레이스케일 이미지를 백색과 검정색의 이진 이미지로 변경한 결과이다.

그림. 6. 가우시안 흐림 효과와 히트미스 모폴로지 연산 적용 전(위)과 후(아래)

Fig. 6. Before(up) and after(down) applying gaussian blur and hit-or-miss morphology operations

../../Resources/kiee/KIEE.2021.70.6.945/fig6.png

그림. 7. 적응형 이진화 알고리즘 적용 결과

Fig. 7. The result of applying binarization algorithms using adaptive threshold

../../Resources/kiee/KIEE.2021.70.6.945/fig7.png

3.4 원근 적용

카메라를 통해 획득한 이미지는 촬영 각도에 따라 일정한 원근 성분을 포함하고 있다. 이는 오류 요소가 될 수 있다. 원근 성분에 의한 오류 요소를 제거하기 위해 획득된 이미지에 투시 변환(Perspective transform)을 적용한다. 투시 변환은 아홉 개의 원소를 갖는 3×3 행렬을 사용한다. 투시 변환을 표현하는 행렬을 $M_{P}$라고 하면, 입력 영상의 픽셀 좌표 $(x,\:y)$가 행렬 $M_{P}$에 의해 이동하는 결과 영상 픽셀 좌표 $(x',\:y')$는 다음 식 (1)과 같다.

(1)
$\left[\begin{array}{c}\alpha x^{\prime} \\ \alpha y^{\prime} \\ \alpha\end{array}\right]=M_{0}\left[\begin{array}{l}x \\ y \\ 1\end{array}\right]=\left[\begin{array}{l}p_{11} p_{12} p_{13} \\ p_{21} p_{22} p_{23} \\ p_{31} p_{32} p_{33}\end{array}\right]\left[\begin{array}{l}x \\ y \\ 1\end{array}\right]$

식 (1)에서 $\alpha$는 결과 영상의 좌표를 표현할 때 사용되는 비례 상수이며 식 (2)와 같다. 그러므로 $M_{P}$에 의해 이동하는 결과 영상 픽셀 좌표의 $x'$과 $y'$은 식 (3), 식 (4)와 같다.

(2)
$\alpha =p_{31}x+p_{32}y+p_{33}$

(3)
$x'=\dfrac{p_{11}x+p_{12}y+p_{13}}{p_{31}x+p_{32}y+p_{33}}$

(4)
$y'=\dfrac{p_{21}x+p_{22}y+p_{23}}{p_{31}x+p_{32}y+p_{33}}$

이때 행렬 $M_{P}$는 입력 영상에서 네 점의 좌표와 이 점들이 이동한 결과 영상의 좌표 네 개를 이용하여 계산한다.

그림 8의 위 그림은 카메라를 통해 획득한 원본 타일 이미지이며, 그림 8의 아래 그림은 아핀(Affine) 원근 변환 알고리즘을 적용해 원본 이미지로부터 원근 요소를 제거한 이미지이다.

그림. 8. 아핀 원근 변환 알고리즘 적용 전(위)과 후(아래)

Fig. 8. Before(up) and after(down) applying affine and perspective transform algorithms

../../Resources/kiee/KIEE.2021.70.6.945/fig8.png

3.5 가장자리 검출과 직선 검출

그림 8의 아래 이미지로부터 이미지 내의 가장자리 검출을 위해 케니 엣지 검출 알고리즘(Canny edge detection algorithms)을 사용한다. 케니 엣지 검출 알고리즘은 크게 네 개의 연산 과정을 포함한다. 그림 9는 케니 엣지 검출 알고리즘에 포함된 4가지 연산 과정을 보여준다.

케니 엣지 검출 알고리즘은 다른 엣지 검출 알고리즘에 비해 에러율이 낮고 엣지 추출이 정확하기 때문에 이미지로부터 엣지를 검출할 때 많이 사용되고 있다(9). 그림 10그림 8의 아래 이미지(아핀 원근 변환 알고리즘 적용 후)에서 노이즈를 제거하고 이진화한 후, 케니 엣지 검출 알고리즘을 적용한 결과이다.

그림. 9. 케니 엣지 검출 알고리즘 연산 과정

Fig. 9. The operation procedure of Canny edge detection algorithms

../../Resources/kiee/KIEE.2021.70.6.945/fig9.png

그림. 10. 케니 엣지 검출 알고리즘 적용 결과

Fig. 10. The result of applying Canny edge detection algorithms

../../Resources/kiee/KIEE.2021.70.6.945/fig10.png

케니 엣지 검출 알고리즘을 수행해 얻은 그림 10의 이미지로부터 타일의 직선 성분을 추출한다. 본 논문에서는 표준 허프 변환(Standard Hough transform)을 이용한 직선 추출 알고리즘을 이용한다.

허프 변환은 2차원 $xy$좌표에서 직선의 방정식을 파라미터 공간으로 변환하여 직선을 찾는 알고리즘이다(10). 일반적으로 직선의 방정식은 식 (5)의 형태로 사용한다. 그러나 이와 같은 직선의 방정식은 $y$축과 평행한 수직선을 표현하지 못하기 때문에 허프 변환을 구현할 때는 식 (6)과 같은 극좌표 형식의 직선의 방정식을 사용한다.

(5)
$y = ax + b$

(6)
$x\cos\theta + y\sin\theta =\rho$

식 (6)에서 $\rho$는 원점에서 직선까지의 수직 거리를 나타내고, $\theta$는 직선에 수직이며 원점을 지나는 선이 $x$축과 이루는 각도를 의미한다. 이는 $xy$공간에서 한 점이 $\rho\theta$공간에서 삼각함수 그래프 형태의 곡선으로 표현되고, $\rho\theta$공간에서의 한 점은 $xy$공간에서 직선의 형태로 나타낼 수 있음을 보여준다. 그림 11은 $\rho\theta$파라미터를 이용한 직선 표현식 예시 그래프이다. 그림 11의 (a)는 2차원 $xy$ 좌표계이며, 직선의 방정식은 $x\cos\theta + y\sin\theta =\rho$이다. 이 직선 위의 두 점에 대하여 각 점에 대응하는 $\rho\theta$공간에서의 곡선은 그림 11의 (b)와 같다. $\rho\theta$공간에서 두 곡선은 하나의 점에서 교차하며, 이 점의 좌표 $(\rho_{0},\:\theta_{0})$가 그림 11(a)의 직선을 나타내는 파라미터가 된다.

그림. 11. $\rho\theta$파라미터를 이용한 직선 표현식 예시 그래프

Fig. 11. Example graph of linear expression using $\rho\theta$ parameters

../../Resources/kiee/KIEE.2021.70.6.945/fig11.png

허프 변환을 이용하여 직선을 찾으려면 $xy$ 공간에서 엣지로 판별된 모든 점을 이용하여 $\rho\theta$ 파라미터 공간에 곡선으로 표현하고, 축적 배열을 이용하여 곡선이 많이 교차되는 점을 찾는다. 이 점은 $xy$ 공간에서의 선을 의미한다.

그림 12는 엣지 검출과 허프 변환 직선 검출 알고리즘을 통해 검출된 직선을 원본 이미지 위에 도시한 그림이다.

그림. 12. 허프 변환 직선 검출 알고리즘을 통해 검출된 직선

Fig. 12. Straight lines detected through line detection algorithms using hough transform

../../Resources/kiee/KIEE.2021.70.6.945/fig12.png

그림. 13. 타일 격자무늬 추적 자율주행 로봇의 주행 제어를 위한 수평 및 수직 가이드라인

Fig. 13. Horizontal and vertical guideline for driving control of autonomous mobile robot tracks tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig13.png

3.6 가이드라인 추출

그림 12의 이미지에 있는 다수의 선들 중에서 이미지의 중심을 2차원 평면의 원점으로 가정할 때, 직선의 기울기를 $a$라 하면, $a$의 크기가 $-1\le a\le 1$인 선과 그 외의 선들로 분리할 수 있다. 기울기에 따라 두 종류로 분류된 각각의 선들에 대하여 선의 길이와 기울기의 유사도를 비교하여 기울기가 유사한 선 중 가장 길이가 긴 두 종류의 선을 추출한다. 타일의 크기가 작아 이미지에 다수의 타일 있는 경우에는 원점에서 가장 가까운 타일의 격자무늬를 기준으로 직선 추출 과정을 수행한다. 그림 13그림 12의 다수의 선들 중에서 선의 기울기를 대표하고 가장 길이가 긴 선만 추출한 후 원본 이미지의 가장자리까지 선을 연장하여 그린 이미지이다. 이 두 개의 선은 이동 로봇의 현재의 위치와 주행 방향을 의미하며, 주행 제어를 위한 수직, 수평 가이드라인으로 사용된다. 특히 수평 가이드라인은 주행 거리를 측정하기 위한 엔코더(Encoder)로 활용된다.

4. 이동 로봇 주행 제어

4.1 주행 제어 시스템 설계

본 논문에서 이동 로봇의 주행 제어를 위해 사용될 주행 제어기의 구조는 다음과 같다. 그림 14는 로봇의 주행 제어를 위한 PID 제어 시스템의 블록도이다.

조작량 $u(t)$는 연속신호로서 아래 식 (7)과 같다. $u(t)$는 목표값과 측정값 사이의 에러 $e(t)$에 대한 비례(Proportional)항. 적분(Integral)항, 미분(Differential)항의 합으로 이루어진다. 각 항에는 비례상수($K_{p}$), 적분상수($K_{i}$), 미분상수($K_{d}$)를 사용한다.

그림. 14. 타일 격자무늬 추적 자율주행 로봇의 주행 제어를 위한 PID 제어 시스템 블록도

Fig. 14. Block diagram of PID control system for driving control of autonomous mobile robot that tracks tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig14.png

(7)
$u(t)=K_{p}e(t)+K_{i}\int_{0}^{t}e(\tau)d\tau +K_{d}\dfrac{de(t)}{dt}$

식 (7)을 불연속 신호로 변경하면 식 (8)와 같다. 식 (8)의 조작량 $u[n]$은 n번째 측정값으로, 계산된 목표값과 측정값 사이의 에러 $e[n]$을 사용하여 만든 제어 신호다. $\triangle t$는 에러값을 측정하고 조작량을 인가하는 주기를 나타낸다. 본 논문에서 각항의 계수 $K_{p}$, $K_{i}$, $K_{d}$는 경험치로 구하였다.

(8)
$u[n]=K_{p}e[n]+K_{i}\sum_{i=0}^{n}e[n]\triangle t+K_{d}\dfrac{e[n]-e[n-1]}{\triangle t}$

4.2 주행 제어

그림 15는 주행 로봇의 주행 방향 제어를 위한 방법을 설명하기 위한 그래프이다. 로봇의 주행 시작점에서 획득한 수평 가이드라인과 수직 가이드라인을 초기 가이드라인(Initial Guideline)이라 하고, 로봇이 주행을 시작한 후에 획득한 수평 가이드라인과 수직 가이드라인을 주행시간 가이드라인(Runtime Guideline)이라 정한다. 그래프에서 $O$는 로봇의 주행 시작점에서 획득한 타일 영상의 수평 가이드라인과 수직 가이드라인의 교차점이다. 이 교차점을 원점이라 한다. 주행 시작 후 획득한 이미지로부터 추출된 수평 가이드라인과 수직 가이드라인이 원점을 지나는 수평선과 만나는 점을 $X_{h}$와 $X_{v}$라고 한다.

임의의 시간에 수평 가이드라인과 원점을 지나는 수평선이 이루는 각을 $\theta(t)$, 수직 가이드라인과 원점을 지나는 수평선의 교점 $X_{v}$와 원점까지의 거리를 $d(t)$라 하면, 로봇의 초기 위치와 현 위치 사이의 차이 $e(t)$를 식 (9)과 같이 정의할 수 있다. 식 (9)에서 가중값은 경험치로 구할 수 있다.

그림. 15. 타일 격자무늬 추적 자율주행 로봇의 주행 제어를 위한 파라미터

Fig. 15. Parameters for driving control of autonomous mobile robot tracking tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig15.png

(9)
$e(t)=\theta(t)+ Wd(t)$, $W : 가중값(Weighted Value)$

이를 이미지의 특정 프레임에 대해 계산하기 위해 이산 식으로 바꾸면 식 (10)이 되며, 주행 로봇이 바닥 타일을 따라 직선 주행을 하기 위한 조건식은 식 (11)와 같다.

(10)
$e[n]=\theta[n]+ Wd[n]$, $W : 가중값(Weighted Value)$

(11)
$\left[\begin{array}{l}\text { if } e[n]=0 \text { then RPM_R_Wheel = RPM_L_Wheel } \\ \text { if } e[n]>0 \text { then RPM_R_Wheel > RPM_L_Wheel } \\ \text { if } e[n]<0 \text { then RPM_R_Wheel < RPM_L_Wheel } \\ \text { where RPM_R_Wheel is RPM of right wheel, } \\ \text { RPM_L_Wheel is RPM of left wheel }\end{array}\right]$

주행 로봇의 초기 구동 시 좌우 모터를 구동하기 위한 PWM(Pulse Width Modulation) 듀티비(Duty ratio)는 동일하다. 주행 로봇이 직선 주행을 하기 위해서는 $e[n]$이 0보다 크면 좌측 모터의 RPM을 고정하고 PID 제어 알고리즘에 따라 우측 모터를 제어한다. $e[n]$이 0보다 작으면 그 반대 방법으로 제어를 수행한다.

5. 실험 결과

본 논문에서 구현한 실내 자율 주행 로봇의 성능을 평가하기 위한 실험을 수행하였다. 실험 환경은 바닥에 타일이 설치된 실내 공간이며, 실험 공간의 천장과 벽면에는 다수의 조명과 투명창이 설치되어 있다.

그림 16은 타일 격자무늬 추적 자율주행 로봇의 주행 성능 평가를 위한 실험 방법을 보여주는 그림이다. 로봇은 정해진 시작점(Start)에서 출발하여 정해진 정지 위치(End)까지 직선 주행 후, 역주행하여 다시 시작점까지 돌아오도록 프로그래밍되었다. 이때 주행 거리는 로봇이 인식한 타일의 개수를 엔코딩하여 거리로 환산하도록 하였다.

그림. 16. 타일 격자무늬 추적 자율주행 로봇의 주행 성능 평가를 위한 실험 방법

Fig. 16. Experimental method for evaluating driving performance of autonomous mobile robot tracking tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig16.png

다음 그림 17은 타일 격자무늬 추적 자율 주행 로봇의 주행 성능 평가 실험 결과이다. 실험 결과 그래프에서는 시작점에서 출발하여 정해진 목표점에 도착 후 역주행하여 다시 시작점에 도착했을 때 로봇의 초기 위치 가이드라인과 현 위치 가이드라인 사이의 오차 각 $\theta$와 수직 가이드라인의 오차 거리 $d$를 보여준다.

본 논문에서 구현한 타일 격자무늬 추적 자율 주행 로봇의 주행 성능 실험을 수행한 결과 그래프에서 D1과 θ1은 12m 왕복 주행 실험에서 초기 위치 가이드라인과 주행 종료 시점 현 위치 가이드라인 사이의 오차 각($\theta$)과 오차 거리($d$)이며, D2과 θ2은 24m 왕복 주행 실험에서 초기 위치 가이드라인과 주행 종료 시점 현 위치 최종 가이드라인 사이의 오차 각($\theta$)과 오차 거리($d$)이다. 각 거리에 대한 총 20회의 왕복 주행 결과에서 12m 왕복 주행 시 최대 오차 각($\theta_{\max 12}$)과 오차 거리($d_{\max 12}$)는 9.3°와 87mm이고, 24m 왕복 주행 시 최대 오차 각($\theta_{\max 24}$)과 오차 거리($d_{\max 24}$)는 -9.6°와 88mm이다. 이와 같은 결과는 타일 격자무늬 추적 자율주행 로봇의 직선 주행 성능이 매우 우수함을 보여준다.

그림. 17. 타일 격자 추적 자율주행 로봇의 주행 성능 평가 실험 결과

Fig. 17. Experiment results for evaluating driving performance of autonomous mobile robot tracking tile grid pattern

../../Resources/kiee/KIEE.2021.70.6.945/fig17.png

실험이 실시된 실내 바닥에 설치된 타일의 크기는 60cm×60cm이다. 그러므로 시작 위치와 정지 위치 사이에 설치된 타일의 개수는 주행 거리 12m는 20개, 주행 거리 24m는 40개이다. 실험 결과 타일 격자무늬 추적 자율주행 로봇은 주행 중 인식된 타일의 수를 정확하게 카운트하는 것을 확인하였다.

본 논문에서 구현한 타일 격자무늬 추적 실내 자율 주행 로봇은 주행 중 발생하는 누적 오차가 타일이 바뀔 때마다 소거되어 원거리, 장시간 주행에도 주행 경로를 이탈하지 않고 정확한 경로를 주행하는 것을 실험 결과를 통해 확인할 수 있다.

6. 결 론

주행 로봇의 위치를 인식을 하려는 시도는 아주 오랜 기간 진행되어 왔다. 하지만 로봇의 정확한 위치를 인식하는 기술에는 많은 어려움이 있다. 현재 로봇의 위치 인식과 네비게이션(Navigation) 기술은 인공지표나 비전(Vision)을 기반으로 진행되고 있다. 하지만 이와 같은 기술은 위치 인식의 오차 범위가 일정 기준 이상 발생하고 기초 시공비용이 높아 정확한 위치 인식과 낮은 시공비용이 요구되는 기술을 필요로 한다(1).

본 논문에서는 로봇이 인간의 시각 지능을 모방하여 실내 공간의 바닥 면에 설치된 타일의 격자무늬 정보를 분석해서 위치를 인식하고 주행 방향을 결정하는 방법을 제안하였다. 제안된 방법으로 제작된 실내자율 주행 로봇의 성능 평가를 위해 수행한 주행 실험 결과에 의해 타일 격자무늬 추적 자율주행 로봇은 바닥에 타일이 설치된 실내 공간에서 로봇에 부착된 단일 카메라만으로 약속된 주행 경로를 누적 오차 없이 장시간 주행할 수 있음을 확인하였다. 본 논문에서 제안된 타일 격자무늬 추적 자율주행 방법은 별도의 시공비용이 없으며 정확한 위치 인식과 누적 오차가 없는 주행 성능을 갖고 있으므로 향후 다양한 분야에서 활용이 가능할 것으로 기대된다.

References

1 
Su-Yong An, Jeong-Gwan Kang, Lae-Kyeong Lee, 2010, SLAM with Visually Salient Line Feature in Indoor Hallway Environments, Journal of Institute of Control, Robotics and Systems, Vol. 16, No. 1, pp. 40-47DOI
2 
Se-Jun Park, 2013, A Study on Design of Intelligent Mobile Robot based on Localization Sensor for Unmanned Transport Logistics, The Journal of Korean Institute of Information Technology, Vol. 11, No. 9, pp. 7-13Google Search
3 
Ki-Sung You, 2011, Development of Localization Sensor System for Intelligent Robot, Journal of Institute of Control Robotics and Systems, Vol. 17, No. 2, pp. 116-124DOI
4 
Andrea. Garuli, Antonio. Giannitrapani, Andrea. Rossi, Antonio. Vicino, 2005, Mobile robot SLAM for line-based environment representation, IEEE Conference on Decision and Control and the European Control Conference, pp. 2041-2046DOI
5 
V. J. Lumelsky, T. Skewis, 1990, Incorporating range sensing in the robot navigation function, IEEE Transactions on Systems Man and Cybernetics, Vol. 20, No. 5, pp. 1058-1069DOI
6 
Young-Suk Kim, Tae-Wan Kim, Chang-Goo Lee, 2002, A Study of Line Recognition and Driving Direction Control on Vision based AGV, The Korean Institute of Electrical Engineers(KIEE) Summer Conference 2002, Vol. 2002, No. 7, pp. 2341-2343Google Search
7 
Man-Hee Lee, Whang Cho, 2005, Indoor Environment Recognition Method for Indoor Autonomous Mobile Robot, The Transaction of The Korean Institute of Electrical Engineers D, Vol. 54, No. 6, pp. 366-371Google Search
8 
Mi-Ran Gu, Kang-Seok Lee, Dae-Seong Kang, 2010, Image Noise Reduction using Modified Gaussian Filter by Estimated Standard Deviation of Noise, The Journal of Korean Institute of Information Technology, Vol. 8, No. 12, pp. 111-117Google Search
9 
Hye-Kyoung Jang, 2012, The more environmentally robust edge detection of moving objects using improved Canny edge detector and Freeman chain code, The Journal of the KICS, Vol. 37, No. 2, pp. 37-42Google Search
10 
Jeong-Su Oh, 2018, Straight Line Detection Using PCA and Hough Transform, Journal of the Korea Institute of Information and Communication Engineering, Vol. 22, No. 2, pp. 227-232DOI

저자소개

김정주 (Jung-Ju Kim)
../../Resources/kiee/KIEE.2021.70.6.945/au1.png

He received his B.S in Electronics Engineering, M.S. degree and PH.D. Cand. in Electronics Engineering from Hoseo University, Asan, Korea.

He is currently Professor in Robotics and Automation Engineering at Hoseo University, Asan, Korea since 2021.

His research interests are pattern recognition, image processing, deep learnig, embedded system application, and automotive mobile robot.

김동진 (Dong-Jin Kim)
../../Resources/kiee/KIEE.2021.70.6.945/au2.png

He received his B.S. in Control and Instrumentation Engineering, and M.S. and PH.D. degree in Electronics Engineering from Hoseo University, Asan, Korea, in 1998, 2000 and 2007, respectively.

He is currently Professor in Robotics and Automation Engineering at Hoseo University, Asan, Korea since 2007.

His research interests sensors, embedded system application, and smart factories.

구경완 (Kyung-Wan Koo)
../../Resources/kiee/KIEE.2021.70.6.945/au3.png

1983 Chungnam National University, Department of Electronics Engineering.

1992 Chungnam National University, Department of Electronics Engineering (Ph.D.)

1987~1989 Hyundai Electronics Senior Researcher. 1989~1994 Assistant Professor, Dept. of Electronics, Chungcheong Junior College.

1994~2005 Associate Professor, School of Electronic and Information Engineering, Yeungdong University.

2005~present Professor, Department of Automotive ICT Engineering, Hoseo University.

E-mail: alarmkoo@hoseo.edu