김선목
(Sun-mok Kim)
1iD
이상덕
(Sang-Duck Lee)
2iD
최정아
(Jung-A Choi)
1iD
이기백
(Ki-beak Lee)
†iD
-
( Dept. of Electrical Engineering, KwangWoon University, Korea.)
-
(Dept. of Logistics System Research Division, Korea Railroad Research Institute, Korea.)
Copyright © The Korean Institute of Electrical Engineers(KIEE)
Key words
Camera Vision, Deep Learning, Logistics Automation, Object Detection, Real-Time
1. 서 론
거점 물류센터와 같은 대규모 물류의 자동화 시스템은 기업의 생산성과 밀접한 관계에 있어 관련한 연구 또한 최근 많은 관심을 받고 있다(1). 하지만 물류센터의 상하역 현장에서는 대부분의 집하, 분류 및 적재 과정을 사람이 직접 수행하고 있고 결과적으로 컨베이어 벨트 전후의 입출 과정을
포함한 상하역 시스템 사이사이에 고질적인 병목 현상이 발생하게 된다.
이러한 병목 현상을 해결하기 위해서는 자동화 시스템 구축이 필수적이고, 이와 관련하여 물류 내 화물 체적의 자동 인식 등 주로 기존에 병목으로 지적받은
부분들의 자동화의 관점에서 다수의 연구가 진행되고 있다(2)-(4). 하지만 기존에 검증된 연구 결과에서는 상자와 같은 정형화된 화물에만 적용할 수 있다는 한계를 보여주었다. 그래서 거점 물류센터와 같이 크기, 모양,
무게 등이 서로 다른 물류가 모두 포함된 상하역 현장에서는 기존의 연구들이 적용된 사례가 없다. 또한, 기존의 연구는 정적인 이미지에 기반을 두어
화물을 분류하였기 때문에 컨베이어 벨트와 같은 운송 장치를 통한 동적인 화물 시스템에 적용하기 어렵다는 한계 또한 분명하다. 즉, 동적인 화물 시스템이
효율적으로 설계되었다 하더라도, 그 말단에서 사람이 직접 체적 및 물류의 종류 등의 종합적인 정보를 분류해야 한다면 문제의 근원이 해결됐다고 할 수
없다. 결론적으로, 충분히 실용적인 자동화 시스템을 위해서는, 기존의 효율적인 컨베이어 벨트 시스템 내에서 다양한 물류의 크기, 모양 및 부피를 어느
정도 인식할 수 있어야 하며, 특히 현재 사람이 직접 담당하고 있는 핵심 병목 임무인 화물의 종류 인식 및 적재를 위한 체적 계산 등의 과정이 추가로
자동화되어야만 한다.
이에 본 논문에서는, 컨베이어 벨트에 기반을 둔 동적인 시스템하에서 효과적인 물류 자동화를 구현하기 위해, 다양한 형태의 화물의 체적을 계산하는 알고리즘과
딥러닝 모델에 기반을 둔 화물의 분류 기법을 포함하는 종합적인 프로세스를 제안한다. 제안된 프로세스는 먼저 컨베이어 벨트 앞단 위에 부착된 LiDAR에
의해 얻은 3D 포인트 클라우드를 사용하여 체적을 계산한다. 컨베이어 벨트의 빠른 움직임을 고려해 LiDAR를 사용했는데 RGB-D 카메라나 초음파
촬영기기에 비해 포인트 클라우드 데이터를 빠르고 정확하게 얻을 수 있다는 장점이 있고, 특히 레이저 조명을 사용하므로 어두운 환경에서도 문제없이 측정
가능하다는 장점이 있다. 그리고 후방에 부착된 카메라를 통해서 화물의 상단을 보고 그 분류를 딥러닝 모델로 정밀하게 추정한다. 이때, 카메라는 grayscale로
이미지를 취득하는데 이는 빠르게 움직이는 컨베이어 벨트를 감안하여 고화질의 이미지를 약 0.5m/s의 고속의 속도로 취득함과 동시에, 다양한 환경(조명
세기, 색온도 등)에서도 일관적인 화물 이미지를 취득하여 모델의 범용성을 높이기 위함이다. 특히 본 논문에서 제안한, 1단계로 화물을 인식하고 2단계로
화물을 분류하는, 다단 구조의 프로세스는 화물로 여겨지는 물체가 인식되었을 때만 이를 분류하도록 할 수 있고, 비교적 연산 부하가 큰 딥러닝 과정이
화물당 단 한 번만 수행된다. 보통 화물의 유무와 관계없이 딥러닝 모델이 반복 호출되는 기존 연구와 비교했을 때, 연산량이 획기적으로 줄어든다는 이점이
있다.
딥러닝 모델의 학습은 실제 물류센터 현장을 참고해 컨베이어 벨트 시스템을 소규모 장치로 구현하고, 이렇게 묘사된 장치로부터 다양한 데이터를 직접 촬영하고
라벨링 해 활용한다. 실제 택배 화물들을 다량 수집한 후 모양에 따라 10개의 클래스(class)로 나누었고, 하나의 화물을 다양한 배치로 여러 번
컨베이어 벨트를 통과시키며 다수의 이미지를 취득하였다. 딥러닝 모델의 기본 구조는, 다중 객체 인식 모델로 잘 알려진 YOLOv3(5)의 구조를 차용한다. YOLOv3는 작은 객체 인식의 정확도도 안정적이고, 학습 속도 또한 비교적 빠르다는 장점이 있는데, 이는 데이터로 활용하는
이미지가 비교적 고화질이고, 이미지 내의 작은 크기에 해당하는 화물도 인식해야 하는 본 연구의 특성에 적합하다.
본 논문의 이후 구성은 다음과 같다. 2절에서 제안하는 방법과 관련된 연구 동향을 소개한다. 3절에서 제안한 방법의 자세한 내용과 차별성을 설명하고
4절에서 그 결과를 분석한다. 마지막으로 5절에서 결론을 맺는다.
2. 관련 연구
2.1 객체 체적 측정 연구
최근 수행된 객체 체적 측정 연구에는 RGB-D 카메라를 기반으로 체적을 측정하는 방법이 있다(6). 하단에 위치한 카메라를 향해 물체를 들고 이동해 체적을 계산하는 방법으로, 피커(picker) 장치가 물제를 잡은 후RGB-D 카메라 시야의 중앙으로
이동해 깊이(depth) 데이터를 측정한다. 이 깊이 데이터를 바탕으로 객체 영역을 추출한 후 물체의 2D 윤곽선 및 높이를 계산한다. 이때, Intel
Realsense D435를 RGB-D 센서로 사용했으며, 피커가 물체를 위에서 파지하기 때문에 하단에 카메라를 설치하였다. 이러한 방법은 컨베이어
벨트 위에서 빠르게 이동하는 화물에 적용하기 어려우므로, 이를 감안한 새로운 알고리즘을 개발하는 것이 필요하다.
2.2 객체 탐지
객체 탐지(object detection)는 이미지 또는 비디오에서 객체를 식별하고 찾는 것과 관련된 컴퓨터 비전 분야이다. 딥러닝 기반 객체 탐지
모델은 보통 2단계 검출기와 1단계 검출기로 분류한다.
2단계 검출기는 물체의 위치 추정(regional proposal) 단계 후 분류(classification) 단계로 순차적으로 진행한다. 위치 추정이란
물체가 있을 만한 영역을 빠르게 찾아내는 과정을 뜻한다. 두 단계가 분리되어 있어 상대적으로 속도는 느리지만, 정확도가 높다는 특징이 있다. 대표적인
2단계 검출기는 R-CNN(7)과 Fast R-CNN(8)이 있다.
1단계 검출기는 물체의 위치 추정과 분류가 한 단계에서 동시에 수행된다. 즉, 2단계 검출기보다 상대적으로 정확도는 떨어지지만, 속도가 빠르다는 특징을
가지고 있다. 대표적인 1단계 검출기로는 CornerNet(9), YOLO(10), SSD(11) 등이 있다.
2.3 YOLOv3
YOLO는 You only look once의 약자로 이미지나 동영상에서 객체를 인식하고 그 위치를 예측하는 신경망 기반 객체 탐지 알고리즘이다.
이미지를 여러 장으로 분할해 해석하지 않기 때문에 기존의 모델보다 빠른 성능으로 실시간 객체 검출이 가능하다. 이미지를 그리드로 나누고 각 그리드
셀에 대해 객체의 위치와 클래스를 예측한다. YOLO는 2016년에 발표된 v1에서부터 여러 기법을 추가하여 지속적인 성능 개선 모델이 발표되고 있다.
YOLOv3는 v2의 backbone인 Darknet-19에서 skip connection 개념을 추가하여 정확도를 개선한 모델인 Darknet-53
모델을 사용했다. 이는 속도와 연산량 측면에서 ResNet-152(12)보다 약 1.5배 더 나은 성능을 보이면서 정확도가 비슷하다. 또한 FPN(feature pyramid network)(13)과 유사한 구조로 3개의 scale을 사용하여 최종 결과를 예측하기 때문에 보다 높은 정확도로 예측이 가능하다. 클래스를 예측할 때에는 softmax
대신 개별 클래스별로 sigmoid를 활용한 이진 분류(binary classification)로 다분류(multi-class classification)를
수행한다.
이에, 본 논문의 화물 분류를 위한 다중 객체 인식 모델로는 YOLO를 사용했으며, 여러 버전 중에서 컨베이어 벨트 위를 빠르게 지나는 화물들의 정보를
확인해야 한다는 점과 화물의 특성상 다중 레이블 분류가 필요하다는 점을 고려하여 속도와 정확도에서 이점을 보이는 YOLOv3 구조를 차용해 모델을
구성했다.
3. 제안한 화물 인식 및 분류 방법
3.1 파이프라인 구조
본 논문에서는 대규모 물류센터라는 특수한 환경에 적용하기 위한 화물 인식 및 분류 방법을 제안한다. 화물 인식 및 분류 과정의 전체 파이프라인은 그림 1에 제시되어 있다. 화물의 정보를 확인하는 과정은 크게 체적 측정, 화물 종류 분류 두 단계로 나눌 수 있다. 먼저, LiDAR 센서가 컨베이어 벨트
위를 지나는 화물 영역의 깊이 정보를 측정한다. 검출된 ROI(region of interest)의 깊이 정보를 이용해 제안한 알고리즘에 따라 화물의
윤곽을 추정한다.
LiDAR 센서가 화물을 인식하고 난 뒤, RGB 카메라가 화물을 포함한 영역을 grayscale로 촬영한다. 이 이미지가 화물의 분류를 위한 데이터로
학습된 딥러닝 모델의 입력으로 들어가서, 컨베이어 벨트 위를 지나는 화물의 종류를 분류한다.
제안하는 파이프라인 구조에서 체적 측정하는 과정을 통해 화물의 존재 유무를 알 수 있으므로, 화물 분류 모델은 화물이 들어올 때마다 한 번씩만 수행하도록
한다. 이는 기존의 연구들이 화물 분류 모델을 지속적으로 동작시켜 화물의 유무와 관계없이 반복수행하는 것에 비해 연산량을 줄여 효율적인 모델이라고
할 수 있다. 만약 모델이 물체 기준의 학습 데이터에만 과최적되어 있는 경우 분류 성능이 떨어지게 된다. 하지만 제안하는 모델은 컨베이어 벨트를 빠르게
가동시키는 와중에도 일반적인 분류 성능을 향상시킬 수 있도록 과업 기준의 학습 데이터도 다량 수집하여 학습하였고, 실제 현장에서 요구되는 수준의 강인한
물체 검출 및 분류 성능을 실현하였다.
그림 1 제안한 프로세스의 파이프라인
Fig. 1 Pipeline of the proposed process
3.2 체적 측정 알고리즘
LiDAR는 컨베이어 벨트 상단에 설치된다. 체적을 측정하는 전체 과정은 그림 2에 제시되어 있다. 컨베이어 벨트와 LiDAR 사이의 거리는 고정되어 있으므로, 일정한 임계값(threshold)을 설정하여 화물의 존재 유무를 검출할
수 있다. 화물이 검출되면, 검출된 ROI의 깊이 정보를 기준으로 화물의 윤곽을 추정한다. 검출된 윤곽의 꼭짓점을 기준으로 화물의 폭과 너비(w,
h)를 산출하고, 검출된 윤곽 내 깊이 정보를 바탕으로 화물의 깊이(d)를 산출한다. 화물의 깊이는 사전에 LiDAR가 설치된 높이를 바탕으로 기저
평면을 설정하고, 기저 평면과 측정된 값 사이의 상대 거리를 이용해 산출한다.
검출된 윤곽의 꼭짓점 데이터를 실 좌표로 변환 후에 화물의 폭과 너비를 꼭짓점 3개를 가지고 산출하는 알고리즘은 다음과 같다.
그림 3과 같이 좌표 공간의 3개의 꼭짓점을 선정하여 각 꼭짓점 사이의 거리를 좌표 사이의 거리 구하는 공식을 통해 구하게 된다. 그림 3에서 회색 꼭짓점은 사용하지 않고 검은색 꼭짓점 3개를 사용하여 거리를 구하는 식은 다음과 같다. 식 (1)은 두 개의 꼭짓점 좌표인 $(x[0],\:y[0])$와 $(x[1],\:y[1])$ 사이의 거리를 구하는 공식으로 w를 얻게 된다. 동일한 방식으로
식 (2)는 $(x[2],\:y[2])$와 $(x[1],\:y[1])$ 사이의 거리를 구해 h를 얻는 공식이다. 이렇게 얻어진 w, h의 값과 d 값을 이용하면
그림 2 (d)와 같은 좌표 평면상의 체적 정보를 얻을 수 있게 된다.
이와 같은 알고리즘으로 정형, 비정형을 포함하는 다양한 종류의 화물의 체적을 구하게 된다. 비닐 화물 같은 비정형 화물의 경우 특성상 꼭짓점 좌표
변환 전인 윤곽 인식 결과 값을 체적 정보로 활용하는 것이 더욱 정확한 체적 값을 산출할 수 있다. 하지만 화물 적재를 위한 체적 정보는 화물의 가로,
세로, 높이의 값을 통해 최적의 적재 시나리오를 구성하므로 윤곽 인식에서 좌표 평면상의 체적으로 가공된 정보를 활용한다.
그림 2 체적 측정 과정
Fig. 2 The volumetric measurement process
그림 3 체적 측정
Fig. 3 The volumetric measurement
3.3 딥러닝 기반 화물 분류 모델
앞선 체적 측정 알고리즘을 통해 화물의 존재 유무를 알 수 있으므로, 화물 분류 모델은 화물이 들어올 때마다 단 한 번씩만 수행하면 된다. 이는 물체의
유무와 관계없이 분류 모델을 반복 수행해야 하는 기존 연구와 대비해 연산량이 획기적으로 줄어든다는 장점이 된다(4),(14)-(16). 화물 분류 모델의 전체 구조는 그림 4에 제시되어 있다. 화물 분류 모델은 잘 알려진 객체 탐지 네트워크 중의 하나인 YOLOv3를 기반으로 한다.
카메라를 통해 획득한 이미지 내에서 각 항목을 인식하는 과정은 다음과 같다. 우선, 카메라를 통해 5320x4600의 grayscale 이미지가 촬영된다.
Grayscale을 선택한 이유는 빠르게 움직이는 컨베이어 벨트를 감안하여 고화질의 이미지를 약 0.5m/s의 고속의 속도로 취득함과 동시에, 다양한
환경(조명 세기, 색온도 등)에서도 일관적인 화물 이미지를 취득하여 모델의 범용성을 높이기 위함이다.
학습에 필요한 이미지는 물류센터 내 컨베이어 벨트 시스템 환경을 최대한 반영해 수집한다. 우선 실제 현장을 참고해 컨베이어 벨트 시스템을 소규모 장치로
구현한다. 구현된 장치는 그림 5에 제시되어 있다. 학습 데이터를 위한 화물 또한 실제 택배 화물들을 다량 수집해 활용한다. 수집된 실제 택배 화물들을 모양에 따라 10개의 클래스로
나누고 각각의 화물마다 다양한 배치로 여러 번 컨베이어 벨트를 통과시키며 최대한 다수의 이미지를 취득한다. 취득한 이미지는 클래스에 따라 라벨링하고
딥러닝 모델 학습에 활용한다.
실제 화물을 분류할 때 RGB 카메라에 의해 촬영된 이미지는 학습 데이터를 이용해 학습이 완료된 YOLOv3 모델의 입력으로 들어간다. 출력으로는
검출된 화물의 분류 정보가 vector 형태로 나오게 된다. 출력 vector의 자세한 구성은 표 1에 자세히 설명되어 있다. 화물 하나를 여러 번 중복해 검출할 수도 있고, 이에 여러 가지 분류 후보를 결과로 얻을 수 있지만, 최종 화물의 분류는
vector 내 confidence 값이 가장 높은 바운딩 박스의 클래스로 결정한다.
그림 4 객체 인식 모델 구조(YOLOv3)
Fig. 4 Object detection model structure(YOLOv3)
그림 5 구현한 화물정보 인식기
Fig. 5 Cargo information recognizer
표 1 객체 인식 모델을 통과한 출력 vector의 구조
Table 1 The structure of the output vector of the object detection model
$x_{\min}$
|
Coordinates of the Predicted Bounding Box
|
$y_{\min}$
|
$x_{\max}$
|
$y_{\max}$
|
$confidence$
|
Probability that the Bounding Box Contains an Object
|
$class$
|
Predicted Class
|
4. 실험 및 결과
4.1 데이터 세트의 구성
화물 인식 학습에 사용된 데이터는 실제 컨베이어 벨트를 통과하는 화물로부터 취득한 이미지이다. 이때, 앞서 모델 설명에서 언급한 바와 같이 이미지는
grayscale로 취득한 이미지를 사용한다. 취득한 이미지의 화물 종류별 예시는 그림 6에 요약되어 있다. 총 10종으로, 0: 소형박스(Small Box), 1:대형박스(Large Box), 2:정형무늬박스(Patterned Box),
3:스티로폼(Styrofoam), 4:긴박스(Long Box), 5:흰색 비정형(White Unstructured), 6:검정색 비정형(Black
Unstructured), 7:무늬 비정형(Pattern Unstructured), 8:반사 비정형(Reflective Unstructured),
9:원통형(Cylindrical)으로 구성하였다. 학습 효율 증대 및 다양한 상황에서의 범용성을 위하여 PASCAL VOC 2007 데이터 세트(17)로 YOLOv3 모델을 사전 학습했다. 컨베이어 벨트를 통과하는 화물로부터 취득한 학습 데이터는 총 9860개, 테스트 데이터는 총 2420개로 각
화물 종류당 자세한 수량은 표 2, 표 3에서 확인할 수 있다.
그림 6 화물 학습 데이터 셋
Fig. 6 Cargo training dataset
표 2 10개 종류의 화물에 대한 학습 데이터 수량
Table 2 Quantity of Training Data for Cargo
Structured
|
Small Box
|
1017
|
Large Box
|
1190
|
Patterned Box
|
1310
|
Styrofoam
|
996
|
Long Box
|
1002
|
Unstructured
|
White
|
856
|
Black
|
798
|
Pattern
|
885
|
Reflective
|
921
|
Cylindrical
|
885
|
Total Train Data
|
9860
|
표 3 10개 종류의 화물에 대한 테스트 데이터 수량
Table 3 Quantity of Testing Data for Cargo
Structured
|
Small Box
|
255
|
Large Box
|
298
|
Patterned Box
|
328
|
Styrofoam
|
250
|
Long Box
|
201
|
Unstructured
|
White
|
214
|
Black
|
200
|
Pattern
|
222
|
Reflective
|
230
|
Cylindrical
|
222
|
Total Test Data
|
2420
|
해당 학습 데이터를 통해 PASCAL VOC 2007 데이터 세트(17)로 사전 학습된 YOLOv3 모델에 Fine Tuning 하였다.
4.2 화물 체적 계산 결과
화물의 체적 계산은 화물 분류에 앞서 컨베이어 벨트를 지나가는 모든 화물에 대해 제안한 알고리즘을 통해 진행했다. 알고리즘의 검증은 모든 화물에 대해
화물의 실제 체적 대비 알고리즘이 측정한 체적의 비율을 백분율로 계산해 정리하였다. 결과는 표 4와 같이 10종의 화물 종류에 대해서 보통 90% 이상으로 일치하는 결과를 얻었고, 가장 안 좋은 경우 흑색 비정형 화물에서 약 80%, 전체 평균으로는
93.44%의 정확도를 얻었다. 비정형 화물의 경우 상자의 형태가 아니므로 어느 정도 압력에 의해 부피가 줄어들 수 있음을 감안하면 충분히 의미 있는
결과라고 할 수 있다.
표 4 10개 종류의 화물에 대한 화물 체적 결과 값
Table 4 Cargo volumetric measurement result
Structured
|
Small Box
|
91.11%
|
Large Box
|
99.54%
|
Patterned Box
|
97.96%
|
Styrofoam
|
99.98%
|
Long Box
|
98.59%
|
Unstructured
|
White
|
87.63%
|
Black
|
79.56%
|
Pattern
|
89.16%
|
Reflective
|
90.98%
|
Cylindrical
|
99.94%
|
4.3 화물 분류 결과
화물 인식을 위한 모델은 마찬가지로 컨베이어 벨트를 지나는 모든 테스트용 화물에 대해 이미지를 촬영하고 이를 제안한 분류 모델을 통과시켜 진행했다.
당연히 모든 이미지가 학습 데이터에는 포함되지 않았던 처음 보는 이미지이며, 표 2의 총 2420개의 테스트 데이터를 통해 표 5과 같이 mAP(Mean Average Precision) 97.28%를 얻었다. 각 화물에 대한 종류 분류 결과 예시는 그림 7에서 확인이 가능하다. 체적 인식은 LiDAR를 통해 활용하므로 그림 7의 결과에서 표시된 바운딩 박스 등의 위치 좌표는 활용하지 않는다.
표 5 10개 종류의 화물에 대한 화물 인식 결과 값
Table 5 Cargo classification result
Structured
|
Small Box
|
100%
|
Large Box
|
100%
|
Patterned Box
|
81.4%
|
Styrofoam
|
100%
|
Long Box
|
100%
|
Unstructured
|
White
|
100%
|
Black
|
100%
|
Pattern
|
100%
|
Reflective
|
91.41%
|
Cylindrical
|
100%
|
4.4 물류센터 환경에서의 시나리오 실험 결과
실제 물류센터의 상하차 환경을 감안하여, 1m/s의 고속의 속도로 컨베이어 벨트가 가동되는 환경에서 중간에 정지하지 않고 균일하지 않은 간격으로 연속으로
무작위의 화물을 투입하는 시나리오로, 화물 체적 계산과 화물 분류를 테스트하였다.
그림 7 10개 종류의 화물에 대한 화물 분류 결과 예시
Fig. 7 Cargo classification examples for 10 types of cargo
시나리오 실험을 진행하기 위해 정상 화물 10개 종류로 구성된 화물군을 구성하고 무작위로 투입할 수 있도록 정리하였다. 특히 화물군의 구성은 화물의
종류 구분에는 합치하지만, 해당 종류의 학습데이터에 포함된 이미지들의 외관(크기, 송장 위치 및 모양 등)과 최대한 유사하지 않은 화물들로 구성하여
실험의 난이도를 높였다. 또한, 화물 투입 순서와 화물을 투입하는 컨베이어 벨트 상의 위치 및 자세를 달리하여 같은 화물군을 총 10회 반복하여 재투입하였다.
구성한 화물군은 그림 8에서 확인할 수 있다.
그림 9는 10개의 화물로 구성된 화물군을 10회 반복 수행한, 총 100회의 체적 계산을 연속으로 수행한 결과이다. 그림에서 확인할 수 있듯이 평균적으로
86.7%의 정확도를 얻었다.
그림 10은 마찬가지로 10개의 화물로 구성된 화물군을 10회 반복 수행한, 총 100회의 화물 분류를 연속으로 수행한 결과이다. 그림에서 알 수 있듯이 총
분류 정확도 100%를 달성했다.
기존의 연구들은 정형화된 상자를 통한 체적 및 화물의 분류를 진행했지만 본 논문에서 제안하는 프로세스는 시나리오 실험에서 비정형 화물을 포함한 다양한
화물에 대해서 높은 정확도를 달성했다. 기존의 연구에서의 체적 인식은 반사가 잘 되는 흰색 상자에 대한 성능이 높고 반사가 안 되는 색상 및 재질의
상자에 대한 성능은 다소 저조하다. 이에 반면 우리의 모델은 그림 9에서 확인할 수 있듯이 재질과 색상에 상관없이 일정한 성능을 보였다. 즉, 상자의 인식은 잘 수행할지라도 화물의 종류를 파악하지 못하는 기존 연구에
비해 제안하는 기술은 10개의 종류로 구분할 수 있는 총 2420개의 화물 테스트 데이터에 대해 mAP 97.28%로 구분할 수 있다. 또한, 실제
시나리오 실험을 통해 100%의 분류 정확도를 보여줬기 때문에 제안하는 프로세스는 효율적인 적재 시나리오를 설정할 수 있다.
그림 8 시나리오 실험 화물군
Fig. 8 Test Cargo cluster for scenario experiment
그림 9 화물 체적 시나리오 실험 결과
Fig. 9 Experimental results for cargo volume scenarios
그림 10 화물 인식 시나리오 실험 결과
Fig. 10 Experimental results for cargo recognition scenarios
5. 결 론
물류센터의 자동화는 기업의 생산성에 큰 영향을 미친다. 물류의 집하 및 상하역 작업은 여전히 인간의 개입이 크게 요구되는 상황이기 때문에, 병목 현상이
뒤따른다. 이를 해결하기 위해 다양한 연구가 진행되어가고 있으나, 현재의 연구는 주로 정형화된 물류에 초점을 맞추고 있기에 다양한 형태의 물류에 대한
분류에 대한 자동화에 대한 문제 해결이 필수적인 상황이었다. 이에 우리는 이러한 문제를 해결하기 위해 LiDAR를 활용한 포인트 클라우드 알고리즘을
통해 물류의 체적을 측정하고, YOLOv3를 통해 화물 분류가 가능하도록 구현했다.
결과적으로 평균 93% 수준의 체적 계산 정확도와 97% 수준의 화물 분류 정확도를 달성했다. 또한, 실제 물류 환경을 감안한 시나리오 실험에서도
평균 87% 정도의 체적 계산 정확도와 100%의 화물 분류 정확도를 보여주었다. 제안된 시스템을 통해 다양한 형태와 크기의 물류의 정보를 실시간으로
정확하게 수집할 수 있고, 이는 추후 물류센터의 자동화에 의미 있는 기여를 할 것으로 기대된다.
Acknowledgements
This paper was supported by Korea Evaluation Institute of Industrial Technology(KEIT)
grant funded by the Korea Government(MOTIE) (1415184991, Development Program for Core
Technology of Robot Industry).
References
Chang-ng Seo, Shin-Jin Jeong, Seok-Chan Kim, 2018, Construction of Smart Factory for
Improvement of Corporate Productivity, The Journal of The Korean Institute of Communication
Sciences, Vol. 35, No. 6, pp. 43-49
Jinrong Yang, Wu Shengkai, Gou Lijun, Yu Hangcheng, Lin Chenxi, Wang Jiazhuo, Wang
Pan, Li Minxuan, Li Xiaoping, May 2022, SCD: A Stacked Carton Dataset for Detection
and Segmentation, Sensors, Vol. 22, No. 10, pp. 3617
Jong-Un Won, Min-Hong Park, Sang-won Park, Jae-Hoon Cho, Yong-Tae Kim, 2019, Deep
Learning Based Cargo Recognition Algorithm for Automatic Cargo Unloading System, Journal
of Korean Institute of Intelligent Systems, Vol. 29, No. 6, pp. 430-436
Seung Hwan Park, Hyo Beom Heo, Jihoon Kang, 2021, Shape Inference of Conveyor Objects
with Depth Sensor Analysis, The Journal of Korean Institute of Information Technology,
Vol. 19, No. 4, pp. 45-53
2018, REDMON, Joseph; FARHADI, Ali. Yolov3: An incremental improvement. arXiv preprint
arXiv:1804.02767
Young-Dae Hong, Young-Joo Kim, Ki-Baek Lee, no 16: 4448 2020, Smart Pack: Online Autonomous
Object-Packing System Using RGB-D Sensor Data, Sensors 20
Ross B. Girshick , Jeff Donahue, Trevor Darrell, Jitendra Malik., 2013, Rich Feature
Hierarchies for Accurate Object Detection and Semantic Segmentation, 2014 IEEE Conference
on Computer Vision and Pattern Recognition, pp. 580-587
2015, GIRSHICK, Ross. “Fast r-cnn,” Proceedings of the IEEE international conference
on computer vision, pp. 1440-1448
H. Law, J. Deng, 2018, Cornernet: Detecting objects as paired keypoints, Proceedings
of the European conference on computer vision (ECCV), pp. 734-750
J. Redmon, S. Divvala, R. Girshick, A. Farhadi, 2016, You only look once: Unified,
real-time object detection, Proceedings of the IEEE conference on omputer vision and
pattern recognition, pp. 779-788
W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C. Y. Fu, A. C. Berg, Amsterdam,
Ssd:Single shot multibox detector, Computer Vision–ECCV 2016: 14th European Conference
Kaiming He, X. Zhang, Shaoqing Ren, Jian Sun, 2015, Deep Residual Learning for Image
Recognition, 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)
pp. 770-778
Tsung-Yi Lin, Piotr Dollár, Ross B. Girshick, Kaiming He, Bharath Hariharan, 2016,
Feature Pyramid Networks for Object Detection, 2017 IEEE Conference on Computer Vision
and Pattern Recognition (CVPR) pp. 936-944
Young Joon Jeon, Ye Seul Kim, Sun Kyu Ahn, Seok Chan Jeong, 2022, A Study on the Method
of Non-Standard Cargo Volume Calculation Based on LiDar Sensor for Cargo Loading Optimization,
Journal of Korea Multimedia Society, Vol. 25, No. 4, pp. 559-567
V. Vaquero, E. Repiso, A. Sanfeliu, 2018, Robust and Real-Time Detection and Tracking
of Moving Objects with Minimum 2D LiDAR Information to Advance Autonomous Cargo Handling
in Ports, Sensors, Vol. 19, No. 1, pp. 107
Seongho Son, Donggyu Choi, Jongwook Jang, 2021, Research on Development of a Deep
Learning-based Parcel Detection and Classification System, Proceedings of the Korea
Information and Communications Society Conference, pp. 323-325
M. Everingham, L. V. Gool, C. K. I. Williams, J. Winn, A. Zisserman, 2010, The PASCAL
Visual Object Classes (VOC) Challenge, International Journal of Computer Vision, Vol.
88, pp. 303-338
저자소개
He received his BS degree in electrical engineering from Kwangwoon University, Seoul,
Rep. of Korea, in 2016.
Since 2016, he has been pursuing his phD degree in the Department of Electrical Engineering,
Kwangwoon University.
He received his B.S. and Ph.D. degrees in Mechanical Engineering from Korea University
in 2009 and 2016, respectively.
Dr. Lee is currently a senior researcher at the Logistics System Research Division
of the Korea Railroad Research Institute.
His research interests include robotic logistics systems and logistics services utilizing
AI.
She received the B.S degree in Electrical Engineering from Kwangwoon University, Seoul,
Rep. of Korea, in 2022.
Since 2022, She is currently working toward an M.S. degree in Electrical Engineering
from Kwangwoon University, Korea.
Ki‐Baek Lee received his BS and PhD degrees in electrical engineering from the Korea
Advanced Institute of Science and Technology, Daejeon, Rep. of Korea, in 2005 and
2014, respectively.
Since 2014, he has been an associate professor with the Department of Electrical Engineering,
College of Electronics and Information Engineering, Kwangwoon University, Seoul, Rep.
of Korea.
He has researched computational intelligence and artificial intelligence, particularly
in the area of swarm intelligence, multiobjective evolutionary algorithms, and machine
learning.
His research interests include real‐world applications such as object detection and
natural language processing.