김한규
(Hann-Gyoo Kim)
1iD
이승환
(Seung-Hwan Lee)
†iD
-
(School of Electronic Engineering at KIT (Kumoh National Institute of Technology),
Gumi, 39177, Republic of Korea. E-mail : rlarb100@kumoh.ac.kr )
Copyright © The Korea Institute for Structural Maintenance and Inspection
Key words
Map Matching, Map Merging, Temporal Map, Probabilistic Reliability Map, Dynamic Objects, Multi-robot System
1. 서 론
다수의 동적 객체가 존재하는 복잡한 환경에서의 지도 병합 기술(Map Merging)은 다중 로봇 시스템의 좌표계 통일, 정보 공유, 정확한 위치
추정과 환경 인식을 위해 필수적인 요소로, 물류, 제조, 군사, 도시 감시와 같은 다양한 분야에서 그 중요성이 나날이 증가하고 있다[1-3]. 지도 병합 기술은 다중 로봇 시스템에서 각 로봇이 수집한 로컬 지도를 통합하여 환경에 대한 포괄적인 전역 지도를 생성하고, 동시에 복수의 로컬
좌표계를 하나의 전역 좌표계로 일치시키기 위해 필수적인 기술이다. 이를 통해 각 로봇의 위치 및 자세 추정의 불확실성이 극복되고, 통합된 좌표계 내에서
효율적인 작업 수행이 가능하다[4,5].
Carpin과 Birk등은 확률적 격자를 기반으로 다중 로봇이 수집한 로컬 지도를 병합하는 방법을 제시하였다[1,6,7]. 이들은 지도 회전과 평행 이동을 통한 중첩 영역 탐색 알고리즘으로 병합 정확성을 높였으며, 불확실성을 다루고 모호성을 줄이기 위해 휴리스틱 유사도
지표를 적용하였다. 병합에 필요한 변환을 생성하고 불확실한 상황을 효과적으로 구별하는 기법을 제안하여, 병합 과정에서 발생할 수 있는 모호성을 감소시키고
병합 속도를 높였다.
Ma 등[8]은 서로 다른 해상도의 격자 지도를 병합하기 위해 특징 기반 스케일 불변 특징 변환(SIFT)과 절단 평균 제곱 오차를 사용하는 TsICP 알고리즘을
개발하였다. 이 기법은 초기 변환 추정을 위해 RANSAC 알고리즘도 활용하였다. Topal 등[9]은 구조 환경에서 병합을 위한 SIFT 기반 방법을 제안하여, 비구조적 환경에서도 안정적으로 작동할 수 있는 기술을 개발하였다. 이러한 접근법들은
다양한 해상도와 중첩 영역이 부족한 경우에도 우수한 병합 성능을 발휘하며, 비구조적 환경에서도 유용하다. Jiang 등[10]은 사전 정보 없이도 서로 다른 해상도의 격자 지도 집합을 동시에 병합할 수 있는 지도 증강 및 특징 융합 기반 병합 알고리즘을 제시하였다. 이 방법은
서로 다른 해상도를 지닌 다수의 지도를 동시에 병합하는 데 우수한 성능을 보였다. Lee 등은 초기 정보가 불충분한 격자 지도 병합을 위해 로봇 간
단방향 관측 측정을 활용[11]하거나 라돈 변환과 스펙트럼 정보를 활용하는 방법을 제안하였다[12]. 이를 통해 중첩 영역이 적거나 초기 정합이 부족한 상황에서도 효과적인 지도 병합이 가능해졌으며, 실시간으로 지도 병합이 필요한 환경에서 효율적으로
적용될 수 있음을 보였다. Yu 등[13]과 Andersone[3]은 다양한 지도 유형에 로봇 SLAM에서 발생하는 주요 기술적 도전 과제를 제시하였다. 특히 [3]의 연구에서 다중 로봇의 이질성으로 인해 발생하는 센서 데이터 병합 문제에 주목하여, 다양한 센서 사양을 가진 시스템에서의 안정적 지도 병합을 위한
설계 방향을 제안하였다. Sunil 등[14]은 공간 점유 확률을 처리하고, 국부적으로 적응하는 비선형 확산 필터링을 통해 특징을 감지하는 효과적인 특징 기반 지도 병합 접근법을 제안하였다.
제안된 방법은 낮은 중첩률, 다양한 격자 해상도와 같은 다양한 매핑 조건에서도 기하학적으로 일관된 특징을 식별하는 데 적합함을 보였다. Konolige는
일관된 자세 추정 알고리즘 제시하고 지도 연결 그래프 내의 문제를 추상화하여, 계산 효율성을 높이는 방법을 제시하였다. 이를 통해 대규모의 지역을
효율적으로 매핑할 수 있음을 보였다[15]. Sun 등[16]은 개선된 유전 알고리즘을 사용한 병합 기법을 제안하였다. 이를 통해 중첩 영역이 부족하거나 잡음이 심한 환경에서도 효과적인 지도 병합을 가능케 했다.
하지만 기존의 지도 병합 기술은 다양한 동적 환경에서 높은 공간적 및 시간적 변동성을 효과적으로 처리하지 못해, 신뢰도와 정확성에 한계가 있는 경우가
많다. 예를 들어, 로봇들이 서로 다른 시간대에 수집한 데이터가 병합될 경우, 동적 객체의 이동으로 인해 지도 간 불일치가 발생할 가능성이 높으며,
이로 인해 지도 병합의 신뢰성이 떨어질 수 있다. 본 연구에서는 기존 연구에서 충분히 다루어지지 않았던 동적 객체가 존재하는 환경에서의 지도 병합
문제를 해결하기 위해 시간적 정보와 공간적 정보를 통합적으로 활용한 확률적 지도 병합 기법을 제안한다. 이를 통해 제안된 방법은 동적 객체로 인한
오류를 효과적으로 배제하여 보다 정확한 병합 결과를 도출하며, 실시간으로 변화하는 환경에서도 높은 정확도로 지도 병합을 수행할 수 있다. 본 논문의
주요 기여는 시간적 지도와 확률적 신뢰성 지도를 결합하여 동적 환경에서의 지도 병합 성능을 크게 향상시킬 수 있는 방법론을 제시하는 데 있다. 제안된
방법은 동적 객체가 다수 존재하는 환경에서도 지도 병합의 신뢰성을 보장하며, 자율 시스템이 다양한 상황에서 더욱 안정적이고 효율적으로 작동할 수 있는
기반을 제공한다. 논문의 구성은 다음과 같다. 2장에서는 제안한 방법의 파이프라인과 시간적 지도 생성, 확률적 신뢰성 지도 생성 등 주요 기법에 대해
다룬다. 3장에서는 제안한 방법의 성능을 검증하기 위해 다양한 시뮬레이션을 수행하고, 그 결과를 기존 방법과 비교하여 분석한다. 마지막으로 4장에서
본 연구의 결론과 향후 연구 방향에 대해 고찰한다.
2. 제안한 지도 병합 방법
2.1 제안한 파이프라인
본 논문에서는 동적 객체가 다수 존재하는 환경에서 지도 병합의 성능을 개선하기 위한 시간 및 공간 정보 기반 확률적 지도 병합 방법을 제안한다. 제안한
방법의 전체 파이프라인은 그림 1에 제시되어 있다. 개별 로봇이 센서 데이터를 취득하여 SLAM(Simultaneous Localization and Mapping)을 수행하여 경로($P_{R}$)를
추정하고, 동시에 공간적 지도($M_{S}$)를 생성한다. 이 두 정보는 서버로 전송된다. 서버는 입력받은 개별 정보를 바탕으로 시간적 지도($M_{T}$)를
생성한다. 시간적 지도는 셀, 복셀 등과 같이 공간적 지도를 구성하는 기본 요소들이 생성 및 갱신된 시점과 최신 시각의 차이를 저장하는 지도이다.
시간적 지도를 생성한 뒤, 시간적 지도를 기반으로 하여 확률적 신뢰성 지도($M_{Pro}$)가 생성된다. 확률적 신뢰성 지도는 공간적 지도 내부에
존재하는 동적 객체 혹은 이동 가능한 객체가 일정 시간이 지난 후에도 그 자리에 남아 있을 가능성을 반영한 지도이다. 확률적 신뢰성 지도를 생성하기
위해 크게 두 가지 과정이 수행된다. 첫 번째는 공간적 지도에서 동적 객체를 추출하는 것이다. 두 번째는 시간적 지도에 기반하여, 취득한 동적 객체가
지도에 작성된 시점에 따라 확률적으로 제거되는 것이다. 개별 생성된 신뢰성 지도를 기반으로 다중 지도의 정합 및 병합이 수행되고 최종 통합 지도가
출력된다.
그림 1. 제안한 방법의 전체 구조
Fig. 1. Overall pipeline of the proposed method
2.2 시간적 지도 생성
공간적 지도는 종류에 따라 셀, 복셀 등과 같은 기본 구성 요소를 지니고 있다. 시간적 지도($M_{T}^{i}$)는 $i$번째 로봇의 공간적 지도의
기본 구성 요소들이 생성 및 갱신된 시점과 최신 시각의 차이를 저장하는 지도이며 다음과 같이 공간적 지도($M_{S}^{i}$)와 개별 로봇의 추정된
경로($P_{R}^{i}$)를 입력으로 받아 계산된다.
여기에서 $TMG(\bullet)$는 시간적 지도를 생성하기 위한 함수이다.
초기 시간적 지도는 공간적 지도와 동일한 크기로 초기화된다. 이후 로봇의 추정 경로 정보를 통해 로봇의 이동 벡터를 계산한다. 이동 벡터에 따라 갱신
시점을 추정할 수 있으며, 이때 시간에 따라 예상되는 변화의 크기는 다음과 같이 Exponential 함수로 모델링할 수 있다.
$\tau $는 시간에 따른 감쇠 비율을 나타내는 상수이다. $t_{T}$은 현재 시각이며 $t_{x,\: y}$는 $M_{S}^{i}(x,\: y)$가
기록된 시각이다.
그림 2(a)는 점유 격자 지도(Occupancy Grid Map)를 바탕으로 생성된 공간적 지도를 나타낸 것이다. 점유 격자 지도는 공간을 해상도에 따라 2차원
격자로 나눈 뒤, 각 셀의 상태를 3가지로 구분한 지도이다. 각 셀은 자유(Free, $M_{S}^{i}(x,\: y)=0$), 점유(Occupied,
$M_{S}^{i}(x,\: y)=1$), 그리고 미확인(Unknown, $M_{S}^{i}(x,\: y)=0.5$) 상태로 구분된다. 시간적 지도
$M_{T}^{i}(x,\: y)$에서는 좌표 $(x,\: y)$의 갱신된 시점이 오래될수록 미확인 상태에 가까워지도록 표현되며 수식으로 표현하면
다음과 같다.
그림 2. (a) 점유 격자 지도, (b) 시간적 지도, (c) 확률적 신뢰성 지도.
Fig. 2. (a) Occupancy grid map, (b) Temporal map, (c) Probabilistic reliability map
2.3 확률적 신뢰성 지도 생성
앞서 언급한 것처럼 확률적 신뢰성 지도 생성 알고리즘은 크게 두 가지 과정으로 구분된다. 첫 번째는 공간적 지도에서 동적 객체를 추출하는 것이고 두
번째는 시간적 지도에 기반하여, 취득한 동적 객체를 확률적으로 제거하는 것이다.
사람에 해당되는 동적 객체를 추출하는 방법의 경우 공간적 지도를 이루는 구성 요소에 따라 다르게 선택할 수 있으며 2D LiDAR 데이터를 기반으로
생성한 점유 격자 지도의 경우 추출 방법으로 윤곽선 검출 기법을 채택한다. 보통의 동적 객체의 특성을 고려해 추출한 윤곽선($C_{j}$) 중 다음
면적 조건을 만족하는 윤곽선을 동적 객체의 윤곽선($D_{j}$)으로 선정한다.
여기서 $k_{1}$과 $k_{2}$는 동적 객체의 평균적 면적을 고려해 설정된다.
동적 객체 추출 후, 시간적 지도의 격자 정보에 기반하여 추출된 동적 객체를 확률적으로 제거한다. 이때 동적 객체 $D_{j}$의 시간차 정보 $\overline{M_{TD_{j}}}$는
$D_{j}$를 구성하는 개별 좌표의 시간적 지도에서의 값의 평균이며 다음과 같이 정의된다.
여기서 n은 $D_{j}$를 구성하는 요소의 개수이다.
시간차 정보 $\overline{M_{TD_{j}}}$를 통해 시간이 지난 정도에 따라 동적 객체 $D_{j}$가 동일한 위치에 존재할 확률 $P_{D_{j}}$을
계산할 수 있으며 이는 다음과 같이 정의된다.
확률 $P_{D_{j}}$이 낮을수록 동적 객체 $D_{j}$의 개별 요소들의 제거 비율이 높아지며, 모든 동적 객체에 대한 제거 메커니즘이 수행된
후 확률적 신뢰성 지도가 $M_{Pro}$가 생성된다. 그림 2(c)는 최종 완성된 확률적 신뢰성 지도 $M_{Pro}$를 나타낸 것이다. 시간상 오래전에 지도상에 표현된 영역의 동적 객체들이 신뢰성을 잃어 확률적으로
많이 제거된 것을 알 수 있다.
3. 실험 및 결과
모든 실험은 2D LiDAR 기반 SLAM[17]을 이용하여 작성된 점유 격자 지도를 공간적 지도로 사용한다. 지도 병합을 위한 정합 알고리즘은 SURF(Speeded-Up Robust Features)알고리즘[18]을 사용하였다.
각각의 시나리오에는 로봇 1, 로봇 2, 동적 객체인 사람 무리가 등장한다. 각 지도상 1번으로 표시된 위치가 각 로봇의 시작 지점이며 2번으로 표시된
위치가 각 로봇의 도착 지점이다. R1으로 표시된 지도는 로봇 1이 생성한 공간적 지도이고 R2로 표시된 지도는 로봇 2가 생성한 공간적 지도이다.
Ref로 표시된 지도는 비교를 위한 기준 지도이다.
3.1 시뮬레이션 – Intel Research Lab
Intel Research Lab에서 작성된 공간적 지도를 바탕으로 시뮬레이션이 수행되었다. 각 시뮬레이션에서는 사람의 수, 이동 정도 및 환경 구조를
달리하여 제안된 방법의 성능이 검증되었다. 첫 번째 시나리오는 로봇 1이 북쪽 복도의 우측에서 좌측으로 이동하며 로봇 2는 동쪽 복도의 하단에서 상단으로,
사람은 로봇 1의 시작 지점에서 로봇 2의 종료 지점으로 이동한다. 두 번째 시나리오는 로봇 1이 서쪽 복도의 하단에서 상단으로, 로봇 2가 북쪽
복도의 좌측에서 우측으로, 사람은 로봇 1의 시작 지점에서 로봇 2의 종료 지점으로 이동한다. 세 번째 시나리오는 로봇 1이 서쪽 복도의 하단에서
상단으로, 로봇 2가 동쪽 복도 상단에서 남쪽 복도 좌측으로, 사람이 로봇 2의 시작 지점에서 로봇 1의 종료 지점으로 이동한다. 네 번째 시나리오는
로봇 1이 남쪽 복도 우측에서 좌측으로, 로봇 2가 동쪽 복도 상단에서 하단으로, 사람이 로봇 2의 시작 지점에서 로봇 1의 종료 지점으로 이동한다.
그림 3은 각 시나리오에 따른 제안한 방법과 기존 방법의 지도 병합 결과를 보여준다. 4가지 시나리오 모두 기존의 방법은 동적 객체인 사람의 이동으로 인해
병합에 실패한 결과를 보인다. 하지만, 제안한 방법은 동적 객체로 인한 많은 변화에도 불구하고 확률적 신뢰성 지도를 이용하여 상대적으로 정확히 병합된
모습을 보인다.
그림 3. Intel Research Lab 시뮬레이션 기준 지도, 시나리오, 개별 작성된 공간적 지도 및 지도 병합 비교 결과. (a) 시나리오
1의 결과, (b) 시나리오 2의 결과, (c) 시나리오 3의 결과, (d) 시나리오 4의 결과.
Fig. 3. Intel Research Lab Simulation Reference map, scenarios, individually mapped
spatial maps and results of map merging. (a) Result of Scenario 1, (b) Result of Scenario
2, (c) Result of Scenario 3, (d) Result of Scenario 4.
3.2 시뮬레이션 – Freiburg, Building 079
그림 4는 Freiburg의 Building 079의 점유 격자 지도를 바탕으로 수행한 시뮬레이션이다. 해당 시뮬레이션 시나리오는 사람의 시작과 종료 지점이
로봇 1, 로봇 2의 시작 및 종료 지점 인근에 위치한 것이 아닌, 그 중간 지점에 위치한 것이 특징이다. 로봇 1은 건물의 서쪽에서 중앙으로, 로봇
2는 건물의 중앙에서 동쪽으로, 사람은 로봇 1의 경로의 중앙에서 로봇 2의 경로의 중앙으로 이동한다. 앞선 실험과 마찬가지로 기존의 방법은 동적
객체로 인해 오매칭된 결과를 보이나 제안한 방법은 시각적으로 정확히 병합된 결과를 보인다.
그림 4. Freiburg, Building 079 시뮬레이션 시나리오 및 결과. (a) 기준 지도 및 시나리오, (b) 개별 작성된 공간적 지도
(c) 제안된 방법과 기존 방법의 지도 병합 결과
Fig. 4. Freiburg, Building 079 Simulation scenarios and results. (a) Reference map
and scenario, (b) Individually mapped spatial map, (c) Results of map merging of proposed
and conventional methods.
3.3 시뮬레이션 – Kumoh National Institute of Technology, Digital Building
그림 5은 국립금오공과대학교의 디지털관의 공간적 지도를 바탕으로 수행한 시뮬레이션이다. 해당 시뮬레이션 시나리오는 다른 시뮬레이션 대비 로봇 1과 로봇 2가
생성한 지도에 중복되는 면적이 넓은 것이 특징으로 각각의 지도가 작성된 면적 중 절반이 중복된다. 로봇 1은 북쪽 복도의 중앙 실험실에서 시작하여
동쪽 복도의 하단으로 이동하며 로봇 2는 북쪽 복도의 좌측에서 우측으로, 사람은 로봇 1의 시작 지점에서 로봇 2의 종료 지점으로 이동한다. 기존의
방법은 동적 객체로 인해 잘못된 병합 결과를 보이나 제안한 방법은 정확히 병합된 모습을 보인다.
3.4 오차 분석 (수치적 결과)
표 1와 그림 6은 기존 방법과 제안한 방법의 기준 지도 병합 결과 대비 평행 이동 오차 $E_{M}$을 수치와 그래프로 나타낸 것으로 다음의 수식으로 계산되었다.
$X_{Ref}$와 $X_{Method}$는 각각 기준 지도에 대한 지도 병합 평행 이동 벡터와 각 방법을 토대로 계산된 지도 매칭 평행 이동 벡터이다.
표와 그림을 통해 알 수 있듯이, 기존 방법은 모든 시뮬레이션에서 동적 객체의 영향으로 큰 매칭 오차를 보였지만, 제안한 방법은 모든 시뮬레이션에서
오차가 1픽셀 이하로 줄어들어 크게 개선된 결과를 나타냈다.
그림 5. 국립금오공과대학교 디지털관 시뮬레이션 시나리오 및 결과. (a) 기준 지도 및 시나리오, (b) 개별 작성된 공간적 지도 (c) 제안된
방법과 기존 방법의 지도 병합 결과
Fig. 5. Kumoh National Institute of Technology, Digital Building Simulation scenarios
and results. (a) Reference map and scenario, (b) Individually mapped spatial map,
(c) Results of map merging of proposed and conventional methods.
표 1 환경별 기존 방법과 제안한 방법의 평행 이동 오차 $E_{M}$ (unit: pixel)
Table 1 Translation errors $E_{M}$ for the conventional method and the proposed method
in the different environments (unit: pixel)
|
Conventional
|
Proposed
|
Intel 1
|
694.834
|
0.5114
|
Intel 2
|
1539.587
|
0.0043
|
Intel 3
|
1600.812
|
0.3679
|
Intel 4
|
1744.192
|
0.2166
|
Freiburg
|
910.953
|
0.0012
|
Kumoh
|
1660.152
|
0.6004
|
그림 6. 환경별 기존 방법과 제안한 방법의 평행 이동 오차 $E_{M}$ 그래프 (unit: pixel)
Fig. 6. Translation error $E_{M}$ graph for the conventional method and the proposed
method in the different environments (unit: pixel)
4. 결 론
본 연구에서는 동적 객체가 다수 존재하는 환경에서 지도 병합의 신뢰성과 정확성을 높이기 위해 시간적 지도와 확률적 신뢰성 지도를 결합한 새로운 지도
병합 기법을 제안하였다. 기존 지도 병합 방법은 높은 공간적 및 시간적 변동성으로 인해 동적 객체가 포함된 환경에서 정확도가 저하되는 한계가 있었으나,
본 연구의 방법은 객체의 업데이트 시점을 시간적 정보로 기록하고, 확률적 신뢰성 평가를 통해 동적 객체로 인한 불확실성을 효과적으로 처리한다. 특히,
확률적 신뢰성 지도는 시간 경과에 따른 객체의 신뢰도를 고려해 동적 객체를 확률적으로 제거함으로써 더욱 정밀한 지도 병합을 보장한다. 시뮬레이션 결과,
제안된 방법은 다양한 환경 및 시나리오에서 기존 기법보다 시각적, 수치적 모두 우수한 성능을 보였다. 향후 연구에서는 이 기법을 3차원 환경으로 확장하여
적용성을 높이고, 실제 환경에서 성능을 검증하여 실용성을 강화할 계획이다.
Acknowledgements
This research was supported by Kumoh National Institute of Technology (2024~2026).
References
S. Carpin, A. Birk, V. Juncikas, “On map merging,” Robotics and Autonomous Systems,
vol. 53, no. 1, pp. 1~14, 2005. DOI:10.1016/j.robot.2005.07.001

S. Yu, C. Fu, A. K. Gostar, and M. Hu, “A Review on Map-Merging Methods for Typical
Map Types in Multiple-Ground-Robot SLAM Solutions,” Sensors, vol. 20, no. 23, pp.
1~20, 2020. DOI:10.3390/s20236988

I. Andersone, “Heterogeneous Map Merging: State of the Art,” Robotics, vol. 8, no.
3, pp. 1~29, 2019. https://doi.org/10.3390/robotics8030074

S. Lee, H. Kim, and B. Lee, “An Efficient Rescue System with Online Multi-Agent SLAM
Framework,” Sensors, vol. 20, no. 1, pp. 1~17, 2019. DOI:10.3390/s20010235

J. Vaščák, D. Herich, “Map Merging for Multi-Robotic Applications,” 2023 IEEE 21st
World Symposium on Applied Machine Intelligence and Informatics (SAMI), pp. 21~26,
2023. DOI:10.1109/SAMI58000.2023.10044522

A. Birk, S. Carpin, “Merging Occupancy Grid Maps from Multiple Robots,” Proceedings
of the IEEE, vol. 94, no. 7, pp. 1384~1397, 2006. DOI:10.1109/JPROC.2006.876965

S. Carpin, “Fast and accurate map merging for multi-robot systems,” Autonomous Robots,
vol. 25, no. 3, pp. 305~316, 2008. DOI:10.1007/s10514-008-9097-4.

L. Ma, J. Zhu, L. Zhu, S. Du, J. Cui, “Merging Grid Maps of Different Resolutions
by Scaling Registration,” Robotica, vol. 34, no. 11, pp. 2516~2531, 2016. DOI:10.1017/S0263574715000168

S. Topal, D. Erkmen, A. M. Erkmen, “A Novel Map Merging Methodology for Multi-Robot
Systems,” in Proceedings of the World Congress on Engineering and Computer Science,
San Francisco, CA, USA, vol. I, pp. 383~387, October 2010.

Z. Jiang, J. Zhu, C. Jin, S. Xu, Y. Zhou, and S. Pang, “Simultaneously merging multi-robot
grid maps at different resolutions,” Multimedia Tools and Applications, vol. 79, pp.
14553~14572, 2020. DOI:10.1007/s11042-018-7109-8

H. Lee, S. Lee, “Extended Spectra-Based Grid Map Merging With Unilateral Observations
for Multi-Robot SLAM,” IEEE Access, vol. 9, pp. 79651~79662, 2021. DOI:10.1007/s11042-018-7109-8

H. Lee, S. Lee, “Grid Map Merging with Insufficient Overlapping Areas for Efficient
Multi-Robot Systems with Unknown Initial Correspondences,” 2020 IEEE International
Conference on Systems, Man, and Cybernetics (SMC), pp. 1427~1432, Oct. 2020. DOI:10.1109/SMC42975.2020.9282932

S. Yu, C. Fu, A. K. Gostar, and M. Hu, “A Review on Map-Merging Methods for Typical
Map Types in Multiple-Ground-Robot SLAM Solutions,” Sensors, vol. 20, no. 23, pp.
1~20, 2020. DOI:10.3390/s20236988

S. Sunil, S. Mozaffari, R. Singh, B. Shahrrava and S. Alirezaee, “Feature-Based Occupancy
Map-Merging for Collaborative SLAM,” Sensors, vol. 23, no. 6, pp. 1~21, 2023. DOI:10.3390/s23063114

K. Konolige, “Large-Scale Map-Making,” Proceedings of the National Conference on Artificial
Intelligence (AAAI), pp. 457~463, 2004. DOI:10.1109/ACCESS.2021.3083936

Q. Sun, T. Liao, H. Du, Y. Zhao and C. C. Chen, “A Method of Merging Maps for MUAVs
Based on an Improved Genetic Algorithm,” Sensors, vol. 23, no. 1, pp. 1~15, 2023.
DOI:10.3390/s23010447

MD T. A. Ratul, M. S. A. Mahmud, M. S. Z. Abidin, and R. Ayop, “Design and development
of GMapping based SLAM algorithm in virtual agricultural environment,” Proceedings
of the 2021 11th IEEE International Conference on Control System, Computing and Engineering
(ICCSCE), pp. 109~113, 2021. DOI:10.1109/ICCSCE52189.2021.9530991

H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, “Speeded-up robust features (SURF),”
Computer Vision and Image Understanding, vol. 110, no. 3, pp. 346~359, 2008. DOI:10.1016/j.cviu.2007.09.014

저자소개
He received his B.S degree in electronic engineering from Kumoh National Institute
of Technology, Gumi, Rep. of Korea, in 2023. Since 2023, he has been pursing his M.S
degree in the Department of Electronic Engineering, Kumoh National Institute of Technology.
His interests include Multi-robot SLAM.
He received the B.S. degree in electronic engineering and computer sciences from Kyungpook
National University, Daegu, South Korea, in 2008, and the M.S. and Ph.D. degrees in
electrical engineering and computer sciences from Seoul National University, Seoul,
South Korea, in 2010 and 2015, respectively. From 2015 to 2018, he was a Senior Researcher
with the Samsung Electronics Mechatronics and Manufacturing Technology Center, Suwon,
South Korea. Since 2018, he has been an Associated Professor with the School of Electronic
Engineering, Kumoh National Institute of Technology, Gumi, South Korea. His research
interests include Multi-robot SLAM, Multi-robot coverage path planning, and Human-like
navigation.