• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of System Safety Research, Korea Railroad Research Institute, Korea E-mail : sej22@krri.re.kr)



Railway Safety, Artificial Intelligence, Optical Flow, Train Access Information, Object Detection

1. 서 론

최근 오봉역 작업자 사상사고(2022.11.5.), 구로역 작업자 사상사고(2024.08.09)와 같이 사회적 파장이 크고 좀처럼 줄어들지 않는 철도 종사자 사망사고를 선제적으로 예방하기 위하여 현장에서 간편하게 사용할 수 있는 휴대용 안전 보조시스템의 필요성이 대두되고 있다. 작업자 인명사고는 발생시 철도교통 안전성 저감, 운행 중단으로 인한 후속 피해 등 심각도가 높아서 적극적인 대응이 필요하다. 휴대용 안전 보조시스템을 통해 철도 작업 현장 특히, 운행 중인 열차가 있는 구간의 선로변 작업시 열차 접근을 실시간으로 검출하여 작업자에게 실시간으로 알림으로써 작업자 사망사고를 효과적으로 예방할 수 있다. 기존의 안전 관리 방식은 감시 인원과 안전 보조 인원의 배치를 필수로 요구하지만, 이는 인적, 경제적 자원이 크게 소모되며 비효율적이라는 문제가 있다. 또한, 많은 기존 안전 시스템이 현장 작업자의 취급에 의존하고 있어 인적 오류로 인한 오작동 가능성이 존재한다. 이에 따라 신뢰성과 사용 편의성을 갖춘 새로운 안전 시스템 개발이 절실하며, 휴대용 안전 보조시스템은 그 대안이 될 수 있다. 최근 AI 영상 분석 기반의 객체 인식 기술이 매우 고도화되어 있고, 이를 활용한 도로 상태의 이상유무 검출 등의 기술이 보급되어 교통 안전 시스템 등에 적용되고 있는 상황이다. 실시간 철도 안전관제시스템[1-3]과 연계하여 현장과 안전관제 사이의 효과적인 커뮤니케이션 방안을 확보할 수 있어 실시간 안전관리와 선제적인 안전관리체계 구축에 기여할 수 있다.

2. 본 론

2.1 철도 종사자 안전 현황 및 관련 연구 사례

그림 1그림 2는 우리나라에서 지난 14년 간 발생한 열차운행 중 작업자 사고 현황으로서 꾸준히 감소하고 있는 추세이지만 아직도 매년 사망자, 부상자가 발생하고 있다. 14년간 작업자 사고수는 487건, 사망자 74명, 부상자 302명이다. 이 중 작업자 열차치임 사고수는 87건, 사망자 49명, 부상자 48명이다. 특히 작업자 열차치임 사고로 인한 사망자 수 전체 통계에서는 약 71.43%를 차지하며, 한국철도공사의 경우 작업자 열차 치임 사고로 인한 사망자 수는 전체 작업자 사망사고의 92.86%로 높은 수준을 보이고 있다.

곽상록(2020)[4]은 작업자 사망의 가장 큰 원인인 선로에서 작업 중 열차에 치여 발생하는 사고의 위험을 분석하였다. 이 연구에서 작업자와 열차 간의 충돌 원인 시나리오를 구성하였으며 관련 예방 조치의 효과성과 보완 방안을 제시하였다. 김동명(2023)[5]은 차단 작업 승인 시간에 비해 실제 작업에 소요되는 시간이 길어 작업시간이 부족한 점이 안전확보를 소홀히 한 채 작업에 몰두하여 열차치임사고가 발생하는 주요 원인으로 파악하였다. 운행선 내에서 이루어지는 시설 분야 5종의 작업을 측정·분석해 산출된 표준작업 시간을 데이터베이스로 구축하여 차단 작업 승인 시간 부여 기준을 마련하도록 차 운행선 작업자들의 산업재해 예방 방안을 제시하였다.

그림 1. 작업자 사고 현황

Fig. 1. Current Situation of ‘Accident to staff’

../../Resources/kiee/KIEE.2024.73.10.1794/fig1.png

그림 2. 작업자 열차 충돌 사고 현황

Fig. 2. Current Situation of ‘Staff hit by train’Accidents

../../Resources/kiee/KIEE.2024.73.10.1794/fig2.png

2.2 AI 영상분석 기반 열차 접근 검출 알고리즘

2.2.1 열차접근 영상 취득

AI 영상분석 알고리즘을 개발하기 위해서는 열차 선로상에서 촬영한 열차접근 영상이 필요하다. 선로상 열차접근 영상 촬영을 위해 먼 거리의 열차 검출이 용이하도록 망원렌즈를 활용하여 추후에 사용하게 될 물체 검출 인공지능 모델의 훈련데이터를 지닌 이미지상에서의 열차 크기와 유사한 크기로 촬영되도록 광학 시스템을 구성하였다. Microsoft Common Objects in Context(MSCOCO)[6]는 물체 검출 인공지능 모델의 훈련에 가장 많이 사용되는 데이터셋으로 약 20,000장의 다양한 열차 데이터를 보유한다. 열차의 이미지 크기는 평균적으로 341x201이며 열차 데이터의 경우 평균 이미지 크기는 577x484로 이미지에서 약 60%의 폭과 40% 높이를 지녔다. 본 연구에서의 열차 검출은 먼 거리에 있는 열차를 검출하는 것이 중요하기에 이미지상에서 열차의 크기가 크게 촬영되어야 한다.

그림 3. 얇은 렌즈에 대한 기하광학

Fig. 3. Geometrical Optics of Thin Lenses

../../Resources/kiee/KIEE.2024.73.10.1794/fig3.png
(1)
$\dfrac{1}{d_{o}}+\dfrac{1}{d_{i}}=\dfrac{1}{f}$
(2)
$h_{i}=-\dfrac{d_{i}}{d_{o}}h_{o}$

(1)은 렌즈 방정식 식이고 식 (2)는 이미지 평면상에서 물체 높이 식이다. $d_{o}$는 물체와 렌즈 사이의 거리, $d_{i}$는 이미지와 렌즈 간의 거리, $f$는 렌즈의 초점거리, $h_{i}$는 이미지상에서의 물체의 높이, $h_{o}$는 물체의 높이이다. 임베디드 시스템에서 주로 사용하는 3$\mu m$ 픽셀 크기인 CMOS 센서와 현재 사용되는 초점거리 3mm를 갖는 렌즈를 사용하였다. 거리가 300m 떨어져 있는 폭 2.9m, 높이 4.1m인 KTX 차량의 정면 촬영시 $d_{o}$는 300m, $d_{i}$는 0.003m, $h_{o}$는 4.1m를 식 (2)에 대입시 $h_{i}$는 41$\mu m$이며, 이를 통해 이미지상에서 폭 29$\mu m$/3$\mu m$ = 10pixel, 높이 41$\mu m$/3$\mu m$ = 14pixel의 사이즈로 이미지상에 보이게 된다. 1280x720 이미지 크기에서 폭 1%, 높이 2%밖에 차지하지 않기에 매우 작아 열차를 검출하는데 불리하다. 초점거리가 100mm인 렌즈를 사용하면 455pixel의 높이를 지니게 되어 이미지 상에서 약 63%의 높이가 나타나게 되고, 초점거리가 75mm인 렌즈를 사용하면 341pixel 높이로 약 47.3%의 높이로 접근하는 열차가 이미지상에서 나타난다. 초점거리가 50mm인 렌즈를 사용 시 227pixel, 31.6% 높이가 된다. 본 연구에서는 1/3 inches CMOS센서와 초점거리가 50mm인 렌즈를 사용하여 거리가 약 300m가 되는 곳에서 촬영된 열차의 정면 높이 비율이 해상도가 HD에서 약 31%가 되도록 하여 MSCOCO 데이터셋의 열차 높이 비율이 40%와 비슷하게 되도록 설정하였다. 75mm나 100mm 렌즈를 사용할 시 열차가 접근하였을 때 열차가 부분적으로 확대되어 검출 성능이 낮아질 수 있고, 수광 능력이 저하하여 야간에서 밝기가 감소하기에 제외하였다.

2.2.2 AI 영상분석 기반 객체 인식 알고리즘

물체 검출을 기반으로 하는 열차접근 검출 알고리즘의 경우 이미지상에서 열차가 검출되지 않을 시 검출율이 급격히 하락하게 되는 문제가 있고, 특히 야간의 경우 열차의 전조등과 조도 부족에 의해 열차 검출에 필요한 특징을 인공지능 모델이 추출하기 어려워 물체를 검출하는 성능이 더욱 하락한다. MSCOCO 데이터셋에 높은 성능을 지닌 실시간 물체 검출이 가능한 인공지능 모델의 평균 정밀도는 60% 미만이므로, 물체가 검출되지 않는 순간들이 다수 존재하므로 물체가 검출되지 않더라도 물체 접근 검출이 가능한 열차 검출 알고리즘이 필요하다. 그림 4는 고도화 연구를 통해 개발된 열차접근 검출 AI 영상분석 알고리즘의 개념을 나타낸 것으로 시간차를 두고 촬영한 과거 와 현재 이미지를 이용하여 인공지능을 통해 광학 흐름을 추정한다. 현재 이미지에서 물체 검출 인공지능으로 열차를 검출 및 레이더를 이용하여 보완적으로 움직이는 물체 정보를 취득 후 세 가지 정보를 조합해 열차 접근을 판단한다.

그림 4. 열차접근 검출 AI 영상분석 알고리즘 개념도

Fig. 4. Concept Diagram of AI-Based Video Analysis Algorithm for Train Approach Detection

../../Resources/kiee/KIEE.2024.73.10.1794/fig4.png

광학 흐름(optical flow)은 두 이미지에서 동일한 물체 혹은 픽셀의 움직임을 이미지상에서 나타내며, 이미지의 각 픽셀에서 수직, 수평 방향 변화량을 값으로 가진다. 그림 5는 두 이미지에서 동일한 물체 A에 대한 광학 흐름을 나타내는 예시로, Frame 1에서 A는 (x1, y1)에, Frame 2에서는 (x2, y2)에 위치한다. 두 이미지상에서 A의 위치 변화는 Frame 1을 기준으로 (x2-x1, y2-y1)이며, Frame 1의 A 위치인 (x1, y1)에서 해당 값을 갖도록 광학 흐름 데이터가 구성한다. 그림 6은 영상에서 짧은 시간 차로 추출한 두 이미지를 활용해 광학 흐름 추정 결과를 나타낸 것이다. 실제 광학 흐름 데이터는 2채널로 구성되어 있어 8-bit보다 큰 값을 지닐 수 있기 때문에 직접적으로 시각화할 수 없지만 정규화 등 과정을 거친 뒤 이동 방향과 크기에 따라 색을 적용해 간접적으로 나타낸다. 그림 7은 촬영된 열차접근 영상을 이용해 광학 흐름을 추정한 결과로 접근 열차 없을 시 두 이미지 사이 변화가 거의 존재하지 않아 노이즈처럼 나타났으며 열차가 접근 시 추정된 광학 흐름으로 열차가 존재하고 움직인 위치에 광학 흐름이 명확히 구분되어 나타났다.

그림 5. 광학 흐름 예시

Fig. 5. Example of Optical Flow

../../Resources/kiee/KIEE.2024.73.10.1794/fig5.png

그림 6. 실제 이미지에 대한 광학 흐름 추정 결과

Fig. 6. Optical Flow Estimation Results on Actual Images

../../Resources/kiee/KIEE.2024.73.10.1794/fig6.png

그림 7. 열차 접근 유무에 따른 광학 흐름 차이

Fig. 7. Optical Flow Differences Depending on Train Approach

../../Resources/kiee/KIEE.2024.73.10.1794/fig7.png

심층 학습 이전의 광학 흐름 추정은 Lucas-Kanade 방법을 이용해 진행되었다. Lucas-Kanade 방법은 두 이미지 간의 흐름이 기본적으로 일정하다는 가정으로 심층 학습 이전의 광학 흐름을 추정하였다. 두 이미지 간 밝기가 변하지 않고, 어떤 픽셀 주변은 유사 동작을 가정 후 각 이미지에 모서리, 꼭짓점과 같은 두드러진 특징을 추출 후 두 이미지 간 동일 시 여겨지는 특징을 짝지어 위치 차이를 이용해 흐름을 추정하였다. 각 이미지에 대한 윈도우를 적용해 연산을 진행하기에 윈도우 크기보다 큰 움직임은 추정하는 데 실패하고, 윈도우 크기가 커질 시 연산량이 증가하게 된다. 특징점을 통해 추정해 최근 이미지 전역을 사용하는 방법에 비해 정확도가 낮다. 심층 학습 이후, FlowNet[7]이후 수많은 연구가 진행되고 있다. FlowNet은 처음으로 광학 흐름 추정을 심층 학습을 이용해 해결한 성공적인 연구로 FlowNet 2.0[8]으로 발전하였다. 그림 8은 FlowNet의 두 가지 구조를 나타낸 것이다. FlowNetSimple은 FlowNetCorr에 비해 간소화된 구조로 두 이미지를 채널 방향으로 합쳐 모델에 입력 후, 하나의 convolutional block에서 특징을 추출한다. FlowNetCorr은 두 이미지를 두 개의 독립된 convolutional block에 입력해 특징 추출 후 correlation layer를 통해 정보를 통합한다. FlowNetSimple 구조의 경우 모델의 가중치가 상대적으로 작기에 빠른 속도로 추론할 수 있지만 입력 이미지 간의 움직임이 클 경우 광학 흐름 추정 오차가 증가할 수 있다. FlowNet 2.0은 FlowNetSimple과 FlowNetCorr을 합쳐 모든 변위에 최적화된 구조를 구성한다. 그림 9는 FlowNet2.0의 구조를 보여준다. 큰 변위 광학 흐름을 계산하기 위해 입력 이미지를 FlowNetC에서 처리 후 다시 입력 이미지와 워프 된 이미지, 광학 흐름, 밝기 에러를 통합해 FlowNetS에 입력한다. 작은 변위 광학 흐름은 FlowNet-SD를 적용 후 큰 변위, 작은 변위 융합해 최종 광학 흐름을 출력한다. 여러 FlowNet을 조합해 하나의 모델로 구성했기에 연산속도는 약 8배가 증가하며 그림 10은 FlowNet과 FlowNet2.0 비교시 FlowNet2.0이 훨씬 더 높은 품질을 보여주는 것을 확인할 수 있다.

그림 8. FlowNetSimple(상부), FlowNetCorr(하부)[7]

Fig. 8. FlowNetSimple(Upper), FlowNetCorr(Lower)[7]

../../Resources/kiee/KIEE.2024.73.10.1794/fig8.png

그림 9. FlowNet 2.0 구조[8]

Fig. 9. FlowNet 2.0 Structure[8]

../../Resources/kiee/KIEE.2024.73.10.1794/fig9.png

그림 10. FlowNet과 FlowNet 2.0 비교

Fig. 10. Comparison of FlowNet and FlowNet 2.0

../../Resources/kiee/KIEE.2024.73.10.1794/fig10.png

성능 유지 및 향상, 추론 속도 가속을 위해 PWC-Net[9], LiteFlow[10] 등 연구가 진행 중이다. PWC-Net은 이미지 피라미드와 특징 피라미드를 이용해 연산량을 감소시켰으며, LiteFlowNet은 특징 피라미드와 분리된 흐름 추론 및 흐름 정규화를 도입한다. 그림 11그림 12는 각각 PWC-Net의 동작 구조와 LiteFlowNet의 동작 개념을 보여주고 있다.

그림 11. PWC-Net[9]

Fig. 11. PWC-Net[9]

../../Resources/kiee/KIEE.2024.73.10.1794/fig11.png

그림 12. LiteFlowNet[10]

Fig. 12. LiteFlowNet[10]

../../Resources/kiee/KIEE.2024.73.10.1794/fig12.png

본 연구에서는 추론 속도가 빠른 모델 중 최근 발표한 FastFlowNet[11]을 이용해 광학 흐름을 추정하였다, FastFlowNet은 이미지 피라미드 추출을 위해 head enhanced pooling pyramid(HEPP), 가벼운 compact volume을 건설하기 위해 center dense dilated correlation(CDDC) layer, 흐름 추정 가속에 효율적인 shuffle block decoder(SBD)를 각각의 피라미드 레벨에 적용하여 정확도를 유지, 빠른 추론 속도를 달성하였다. 표 1은 다른 연구와 비교표이며, FastFlowNet의 가중치 수와 연산량, 추론 시간이 가장 작은 것을 확인할 수 있다.

그림 13. FastFlowNet 구조[11]

Fig. 13. FastFlowNet Structure[11]

../../Resources/kiee/KIEE.2024.73.10.1794/fig13.png

표 1 FastFlowNet 성능 비교[6]

Table 1 FastFlowNet Performance Comparison[6]

Sintel Clean Test (AEPE)

KITTI 2015 Test (Fl-all)

Params (M)

FLOPs (G)

Time (ms) 1080Ti

Time (ms) TX2

FlowNet2

4.16

11.48%

162.52

24836.4

116

1547

SPyNet

6.64

35.07%

1.20

149.8

50

918

PWC-Net

4.39

9.60%

8.75

90.8

34

485

LiteFlowNet

4.54

9.38%

5.37

163.5

55

907

FastFlowNet

4.89

11.22%

1.37

12.2

11

176

물체 검출 AI 모델인 YOLOv7[12]은 매우 높은 성능, 추론 속도를 가진 물체 검출 모델로 TensorRT와 같은 GPU 가속화 지원하여 임베디드 시스템에서 빠른 추론 속도를 확보할 수 있다. 본 연구에서는 MSCOCO 데이터셋으로 훈련된 YOLOv7 모델을 사용하였고, YOLOv7은 약 104 GFLOPs의 연산량이 요구되며, MSCOCO val 데이터에 대해 51.2%의 평균 정밀도를 나타낸다. 이와 비슷한 연산량을 지닌 YOLOv7-L[8]의 경우 49%, PPTOLOE-L[9]은 50.9%, YOLOR-CSP[10]는 50.8%로 YOLOv7의 성능이 상대적으로 높다. YOLOv7-tiny-SiLU 모델의 경우 13.8 GFLOPs의 연산량으로 매우 빠른 추론 속도를 나타내지만 38.7%의 평균정밀도로 성능저하가 나타난다. 그림 14에서는 YOLOv7과 다른 물체 검출 모델과의 성능 및 속도를 도식화하여 비교하고 있다.

2.2.3 광학 흐름 추정 AI 모델 기반 열차 접근 판단 알고리즘

그림 15는 열차접근 판단 알고리즘 순서도로 열차접근 판단을 위해 광학 흐름(OF) 정보, 물체 검출 정보, 레이더 정보를 이용한 알고리즘의 순서도를 나타낸다. 과거, 현재 이미지를 사용해 추정된 광학 흐름의 절댓값이 문턱값 T를 초과하고, 이렇게 초과한 광학 흐름의 넓이가 A를 초과 시 열차가 접근 중인 것으로 판단한다. 과거, 현재 이미지는 약 1초 차이를 두고 영상에서 추출되었다. 두 이미지 간 차이가 거의 없는 경우 발생하는 광학 흐름 노이즈의 평균은 0~2 사이의 절댓값으로 나타나며, 열차가 접근할 경우 광학 흐름은 20~200 사이 절댓값을 나타내기에 광학 흐름 절댓값에 대한 문턱값 T는 10으로 설정, 광학 흐름의 넓이에 대한 문턱값 A를 200으로 설정하여 작은 물체나 노이즈에 대한 영향을 제외한다. 물체 검출 모델은 광학 흐름에서 검출된 움직임이 열차에 의한 것인지 판단하는 데 사용되었다. 열차가 아닌 다른 물체가 검출될 경우 해당 물체의 위치에 대한 광학 흐름 값을 제거한 뒤 광학 흐름을 처리하여 다른 물체의 영향을 제외했다. 열차가 검출될 시 열차접근 최종 판단에 적용하였고, 망원렌즈를 사용하게 되면서 레이더 시야는 카메라보다 넓어지게 되었지만 카메라 외부 물체까지 레이더에 검출되기에 레이더 시야를 카메라 시야에 맞춰 제한해야 한다. 영상 촬영에 사용한 광학 시스템은 50mm 렌즈와 1/3 inches 센서로 약 5.5°의 수평 시야를 지니고 여기에 맞춰 레이더에 검출된 물체의 위치가 좌우 2.75° 초과시 열차접근 판단에 사용하지 않았다.

그림 14. YOLOv7과 다른 모델들의 성능 및 속도 비교[8]

Fig. 14. Comparison of YOLOv7 and Other Models in Terms of Performance and Speed[8]

../../Resources/kiee/KIEE.2024.73.10.1794/fig14.png

그림 15. 열차 접근 판단 알고리즘 순서도

Fig. 15. Flowchart of the Train Approach Detection Algorithm

../../Resources/kiee/KIEE.2024.73.10.1794/fig15.png

3. 실 험

3.1 실험실 환경 실험

실험실 환경에서 열차접근 검출 검증을 위해 그림 16과 같이 YouTube 열차접근 영상을 활용해 개발한 알고리즘 열차접근 검출율을 검증했다. 실험실 환경의 경우 레이더 데이터는 활용할 수 없어 레이더 데이터 처리 부분은 제외하였다. 평가지표인 검출율은 재현율(Recall)이라 하며, 전체 검출 대상 중 실제 검출된 대상의 비율을 나타낸다.

(3)
True (T)=TP+F
(4)
Detection Rate=TP/(TP+FN)
(5)
Accuracy= TP/(TP+FP)

(3)은 전체 검출 대상 수, 식 (4)는 검출율, 식 (5)는 정밀도 식이다. 여기서 TP는 True Positive이며 검출 대상을 검출한 수, FN은 False Negative로 검출 대상을 검출하지 못한 수, FP는 False Positive로 검출 대상이 아닌데 검출한 경우를 의미한다. 실험실 환경 검출율 평가 시험결과는 위 식들을 기반으로 도출된 값으로 표 2에 정리하였다. 주간 영상과 야간영상 각 20개의 영상 중 10개의 영상만이 열차가 존재하는 영상이다. 주간과 야간 모두 검출율이 목표치인 100%를 달성했다. 그림 17은 YouTube에서 열차 진입 영상을 활용해 실험실 환경에서 개발한 알고리즘을 검증한 결과이다. 주간 영상의 경우 물체 검출 모델이, 야간 영상의 경우 광학 흐름 추정 모델이 잘 작동하여 열차접근을 검출했다. YouTube 영상 대부분 감시카메라, 스마트폰으로 촬영해 광각렌즈로 촬영되었기에 열차가 근접하지 않으면 광학 흐름 추정이 잘 되지 않는 현상이 나타난다. 야간 영상의 경우 손으로 직접 들고 촬영 및 열차에 따라 바뀌는 시야 때문에 영상 전체적으로 광학 흐름이 발생하는 것이 나타났다.

그림 16. 실험실 환경 검증 데이터(YouTube)

Fig. 16. Laboratory Environment Verification Data (YouTube)

../../Resources/kiee/KIEE.2024.73.10.1794/fig16.png

표 2 실험실 환경 검출율 평가

Table 2 Evaluation of Detection Rate in Laboratory Environment

Number of Videos

Detection Rate

Accuracy

Daytime

20(Train Presence 10)

100%

71.4%

Nighttime

20(Train Presence 10)

100%

69.0%

그림 17. 실험실 환경 시험 결과(YouTube)

Fig. 17. Laboratory Environment Test Results (YouTube)

../../Resources/kiee/KIEE.2024.73.10.1794/fig17.png

3.2 철도 현장 실험

실제 열차가 운행하는 현장에서의 열차접근 검출율 성능 검증을 위해 오송 시험선로와 양평역에서 실험을 수행하였다. 주간 영상 84개, 야간 영상 72개를 사용하였으며 주간 영상 중 41개, 야간 영상 33개만이 열차가 존재하는 영상이다. 검출율 목표치인 100% 달성에 성공했지만, 정밀도는 검출율에 비해서는 약 30% 낮게 나타났다. 이는 열차가 존재할 때 반드시 열차를 검출해내야 안전하기에 문턱값을 상대적으로 낮게 설정했기 때문이다. 그림 18는 주간에 진행한 현장 시험 결과의 일부이다. 좌측에서 우측 순서로 진행되며, 각 행은 하나의 영상을 나타낸다. 광학 흐름으로부터 검출된 열차접근은 RGB 이미지 아래에 표시되며, 적색 원으로 표시된다. 흑색 상자는 region of interest이며, 전체 이미지 중 해당하는 부분에 대해서는 열차접근 검출 알고리즘이 작동한다. KTX, 화물열차, 도시철도차량 등 다양한 열차 유형이 모두 광학 흐름과 물체 검출을 통해 접근이 검출되었고, 레이더의 경우 근접할 시 작동해 망원 렌즈가 레이더 작동 범위보다 먼 곳에 있는 열차를 잘 촬영하도록 동작하였다. 그림 19는 야간에 진행한 현장 시험 결과 일부이며, 주간 영상과 동일하게 표현되어 있다. 야간의 경우 조도 부족으로 열차 특징 추출이 어려운 측면이 있었으며, 어떤 경우에는 전조등이 있는 신호등이 빈번히 검출되었다. 주간, 야간 비교 시 야간이 열차에 대한 물체 검출 성능은 하락한다. 물체 검출 성능은 감소했으나 광학 흐름 추정이 이를 보완해 열차접근을 검출하고 주간에 비해 노이즈가 조금 더 발생하나 전조등의 움직임을 통해 열차접근을 검출할 수 있었다.

그림 18. 현장 시험 결과- 주간

Fig. 18. Field Test Results – Daytime

../../Resources/kiee/KIEE.2024.73.10.1794/fig18.png

그림 19. 현장 시험 결과- 야간

Fig. 19. Field Test Results – Nighttime

../../Resources/kiee/KIEE.2024.73.10.1794/fig19.png

4. 결 론

본 논문에서는 철도 종사자 사상사고 특히 선로변 작업자 치임사고 절감을 위해 AI 영상분석 기반 열차접근 검출을 통한 작업자 안전시스템 개발을 위한 기술개발 과정을 통해 도출된 광학흐름 추정을 활용한 AI 영상분석 기반 열차 접근 검출 알고리즘의 성능 측면 우수성을 제시하였다. 제시하는 알고리즘에서는 시간 차가 있는 과거와 현재 이미지를 사용하여 광학 흐름을 추정한 후 물체 검출 인공지능으로 현재 이미지에서 열차 검출 레이더를 활용해 움직이는 물체 정보 취득 후 해당 정보들을 조합해 열차접근을 판단하였다. 이미지 간 광학 흐름이 일정하다는 가정하에 동일한 특징을 짝지어 위치 차를 활용해 광학 흐름을 추정하였다. 검증 과정에서 여러 FlowNet을 조합 후 하나로 재구성해 연산속도가 8배 증가하며 FlowNet2.0이 FlowNet보다 더 높은 품질을 보여주는 것을 확인할 수 있었으며, FastFlowNet을 활용해 광학 흐름을 추정하는데 있어서 이미지 피라미드 추출을 위해 HEPP, CDDC, SBD를 적용해 정확도 유지 및 빠른 추론 속도를 달성하였다. 물체 검출 AI 모델은 YOLOv7 모델을 활용하였으며, 광학 흐름에서 검출된 움직임이 열차에 의한 것인지 판단하는 데 사용되었다. 제안하는 알고리즘의 정확성 및 신뢰성 검증을 위해 실험실 검증과 현장 검증을 수행하여 두 경우 모두 주간 및 야간 영상 검출율 100%를 달성했으며 현장 검증의 경우 우천, 우박 등 악천후 상황에서도 검출율 100%를 달성하여 제안하는 알고리즘의 적정성을 확인할 수 있었다.

AI 영상분석 기반 열차접근 검출 알고리즘을 적용한 열차접근 장치는 휴대성, 사용편의성 등 현장활용성을 확보하여 선로변 작업 안전성 증대과 철도 유지보수 효율화에도 기여할 수 있을 것으로 사료된다. 향후 본 연구에서 제시하는 작업자 안전시스템 기술은 국가연구개발사업으로 개발된 실시간 철도 안전 관제 시스템과 연계하여 철도안전 통합 감시제어 기술의 활용성 증대에 기여할 것으로 사료된다.

Acknowledgements

본 연구는 한국철도기술연구원 주요사업(철도사고 위험·피해 영향 평가 디지털 전환 핵심기술 개발, PK2402A1)과 국토교통부 소관 국가연구개발사업(철도 종사자의 인적오류 분석·평가·예방 기술개발, RS-0023-00239464)의 연구비 지원으로 수행되었습니다.

The research was supported by the R&D project of Korea Railroad Research Institute funded by National Research Council of Science and Technology (PK2402A1) and the National R&D Project funded by Ministry of Land, Infrastructure, and Transport (RS-0023-00239464).

References

1 
D. H. Lee, H. S. Yeo, S. H. Kim, S. A. Kim, “A Study on the Framework for Real-time Railway Safety Integrated Monitoring and Control System,” Journal of the Korea Society for Urban Railway, vol. 3, no. 2, pp. 367~374, 2015.URL
2 
Yunjung Park, Sangahm Kim, “Research on Development and Verification of Data Transmission Standard for Real-time Integrated Railway Safety Monitoring and Control System,” Journal of the Korean Society for Railway, vol. 20, no. 6, pp. 749~763, 2017.DOI:10.7782/jksr.2017.20.6.749URL
3 
Yunjung Park, Damsub Lim, Dugki Min, Sang Ahm Kim, “Research on Design of DDS-based Conventional Railway Signal Data Specification for Real-time Railway Safety Monitoring and Control,” Journal of the Korea Institute of Information and Communication Engineering, vol. 20, no. 4, pp. 739~746, 2016.DOI:10.6109/jkiice.2016.20.4.739DOI
4 
Sang Log Kwak, “Risk Estimation Study on Railway Track Worker Hit by Train,” Journal of the Korean Society of Safety, vol. 35, no. 3, pp. 72~78, 2020.DOI:10.14346/JKOSOS.2020.35.3.72DOI
5 
Dong-myung Kim, “A Study on the Construction and Application ofthe Protection System for the Workers adjacentto Train Operation Line,” Master's thesis, Korea National University of Transportation, 2022.URL
6 
Tsung-Yi Lin, et al., “Microsoft coco: Common Objects in Context,” Computer Vision-ECCV2014 Conference paper, vol. 8693, pp. 749~755, 2014.DOI:10.1007/978-3-319-10602-1_48URL
7 
Alexey Dosovitskiy, et al., “Flownet: Learning Optical Flow with Convolutional Networks,” 2015 IEEE International Conference on Computer Vision (ICCV), pp. 2758~2766, 2015.DOI:10.1109/iccv.2015.316URL
8 
Eddy Ilg, et al., “Flownet 2.0: Evolution of Optical Flow Estimation with Deep Networks,” 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2462~2470, 2017.DOI:10.1109/cvpr.2017.179URL
9 
Deqing Sun, et al., “PWC-Net: CNNs for Optical Flow Using Pyramid, Warping, and Cost Volume,” 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 8934~8943, 2018.DOI:10.1109/cvpr.2018.00931URL
10 
Tak-Wai Hui , Xiaoou Tang, Chen Change Loy, “LiteFlowNet: A Lightweight Convolutional Neural Network for Optical Flow Estimation,” 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 8981~8989, 2018.DOI:10.1109/cvpr.2018.00936URL
11 
Lingtong Kong, Chunhua Shen, Jie Yang, “FastFlowNet: A LightweightNetwork for Fast Optical Flow Estimation,” 2021 IEEE International Conference on Robotics and Automation (ICRA), 2021.DOI:10.1109/icra48506.2021.9560800DOI
12 
Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao, “YOLOv7: Trainable bag-of-freebies Sets New state-of-the-art for Real-time Object Detectors,” Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 7464~7475, 2023.DOI:10.1109/cvpr52729.202300721URL

저자소개

김상암(Sang-Ahm Kim)
../../Resources/kiee/KIEE.2024.73.10.1794/au1.png

He Received his B.S., M.S. and Ph.D degree in Dept. of Electrical Engineering from Korea Univ. Korea. He is currently principal researcher in Dept. of railway system safety research. His research interests are real-time railway safety monitoring and control technologies and related AI applicaiotns.

E-mail : sangahm@krri.re.kr

송은주(Eun-Ju Song)
../../Resources/kiee/KIEE.2024.73.10.1794/au2.png

She received her bachelor's degree from Korea National University of Transportation in 2023. She is currently pursuing a master's degree at Seoul National University of Science and Technology and works as a researcher in the Railway System Safety Research Department.Her research interests lie in the development of safety technologies for railway workers.

E-mail : sej22@krri.re.kr