김다현
(Dahyeon Kim)
1iD
안준호
(Junho Ahn)
2iD
윤성욱
(Seongwook Youn)
†iD
-
(Dept. of Software, Korea National University of Transportation, Korea)
-
(Dept. of Software, Korea National University of Transportation, Korea)
Copyright © The Korean Institute of Electrical Engineers(KIEE)
Key words
Field farm, Smart farming system, Climate analysis, Images analysis
1. 서 론
2020년 농가 인구는 103만 6,000가구로 2015년 대비 4.8\% 감소했으며 농가 인구가 전체인구의 4.5\%에 불과하다 (1). 또한, 농가의 65세 이상 인구 비율은 점차 증가하고 있다. 고령 농가 인구는 증가하지만, 전체적인 농가 인구는 감소하고 있는 농가 현실에서 작물의
생산성을 극대화하고 더욱 편리한 재배를 하기 위해 스마트팜의 중요성은 더욱 커지고 있다. 스마트팜은 농민의 손쉬운 농작을 위해 현대 다양한 최신 기술
및 센서를 농장에 활용한 것을 의미한다. 스마트팜은 온도, 습도 등을 측정하는 센서를 통해 작물을 재배하는 공간의 환경을 파악하고 작물 성장에 도움이
될 수 있는 방향으로 환경을 제어한다. 환경뿐 아니라 센서를 통해 작물의 현재 상태를 분석하고 추후 상태를 예측하여 물 분사, 농약 분사 등 작물에
필요한 조치를 하기도 한다. 기존의 스마트팜은 대부분 비닐하우스나 온실 등 날씨의 영향을 받지않는 실내 환경의 시설 재배에서 제안되었다. 하지만 실제
농작이 이뤄지는 환경은 통계청에 따르면 시설 재배는 총 29,372건 (2) 이며 노지 재배는 총 1,553,202건 (3) 으로 시설보다 노지에서 약 53배 정도 더 많이 이뤄진다. 따라서 본 논문은 시설 재배가 아닌 노지 재배에 초점을 맞춘 스마트팜을 제안한다.
기존의 노지 재배에서 사용하는 스마트팜은 경작지의 전체 환경을 제어하는 시스템보다는 개별적인 센서와 단일 장치를 이용한 조치가 훨씬 상용화되어 있다.
농지 전체에 스마트팜을 적용하는 것이 아닌 단일 센서를 통한 일부에 적용하는 이유는 스마트팜의 초기 설치 비용과 제어 조작이 힘들기 때문이다 (4) . 본 연구에서는 기존의 고비용의 스마트팜 시스템이 아닌 공개된 데이터와 기존의 농지 관리인이 소지한 스마트폰을 바탕으로 저비용의 스마트팜 시스템을
연구하였다. 이를 위해 기상청에서 제공하는 과거의 기후 데이터와 경작지에 설치된 카메라 혹은 사용자가 소지한 스마트폰을 통해 작물을 재배하는 시기에
촬영되는 영상 데이터를 이용하여 노지 환경에서 사용 가능한 스마트팜을 제안한다. 또한, 기존 사용자가 좀 더 쉬운 제어를 하기 위해, 애플리케이션과
연동한 스마트팜 시스템을 제안한다. 기후 데이터는 계절과 절기에 따른 기후변화와 기온 등을 수집하고 분석하여 지역별 차이를 보여준다. 또한, GPS를
통해 사용자가 있는 곳에 위도와 경도 정보를 통해 기상청 사이트의 웹 크롤링을 통해 해당 위치에 당일에 기온과 강수 확률 등을 파악하고 비료 및 물
농약을 주기 적절한 때를 분석한다. 또한, 경작지에서 카메라를 통해 촬영하여 얻은 영상 데이터는 작물이 자라는 라인을 파악하고 라인에서 벗어난 잡초
등을 파악하여 스마트팜 사용자에게 잡초 위치 및 현재 경작지의 상태를 보고한다. 처리된 기후 데이터와 영상 데이터의 정보를 서버와 연결된 애플리케이션을
통해 사용자에게 전달한다. 본 연구는 사용자가 기존에 가지고 있는 스마트폰을 통해 저비용의 스마트팜 시스템을 사용할 수 있게 된다. 이는, 편리하고
효율적인 작물 재배를 가능하게 하고 수확량을 증대시킬 수 있을 것이다. 추후 우리가 제안하는 스마트팜 시스템과 기존의 노지에서 사용되던 다양한 설비들과
융합되면 더욱 편리하고 효율적인 재배가 가능할 것으로 판단한다.
본 논문은 2장에서 해당 연구에서 제안하는 스마트 팜과 관련된 연구들을 설명한다. 3장에서는 제안하는 시스템의 전체 구조와 구성을 보여준 후 제안하는
스마트 팜에서 사용되는 데이터들을 분석하는 방법을 설명한다. 4장에서 애플리케이션으로 구현된 스마트 팜을 제시한 뒤 5장에서 결론과 추후 연구 방향을
끝으로 마무리한다.
2. 관련 연구
2.1 기후 데이터를 활용한 연구
최근 농업의 생산성과 기후 데이터를 분석하여 작물의 생산성을 예측하는 다양한 연구 (5) 가 진행되고 있다. 지역별 기온 변화를 분석하여 논벼 수량과 기온 간의 상관관계를 파악하고 이에 따른 지역별 생육주기 변화를 제안하는 연구 (6) 가 있다. 기후변화와 작물 생산율을 분석하여 강수량과 기온 변화가 작물 생산성에 유의한 영향 미치는 것과 관련된 연구 (7) 도 진행되었다. 또한, 기존의 기후와 다른 이상기후가 농업 작물 생산성에 미치는 영향과 관련된 연구 (8) 도 진행되고 있다. 이때, 기후 데이터는 다양한 방법으로 분석되는데 기후 데이터를 군집화하여 분석하는 연구 (9) 가 있다. 이 연구는 기후 데이터를 시간에 따라 연속되는 범위를 가지는 데이터로 분류하여 k-means 클러스터링 기법을 이용해 강수량에 따라 시기를
군집하여 분석하였다. 또 다른 연구 (10) 에서는 지형에 따른 기후변화를 분석하여 지리적 특성별 기후변화 값을 나타냈는데, 이때 기후 지대를 분석하기 위해 k-means 클러스터링 기법을
이용하였다. 기후 지대를 분석하여 정해진 행정구역이 아닌 지형과 기후에 따른 특성별 분류가 가능하다.
본 연구에서 기상청의 기상자료개방 포털에서 제공하는 데이터 (11) 를 사용하여 월별 기온과 강수량을 분석한 뒤, 이에 따른 적절한 물 조절을 도와준다. 또한, 본 논문은 사용자의 위치 정보를 취득한 뒤, 기상청
웹사이트를 크롤링하여 사용자가 있는 곳에 당일의 기온과 강수량을 통해 작물에 물을 주거나 농약을 살포하기 적절한 날을 제시한다.
2.2 영상 데이터를 활용한 연구
Unmanned Aerial Vehicle (UAV)를 이용한 영상 데이터를 통해 재배되고 있는 다양한 농작물을 분류하는 연구 (12) 가 있다. 작물 분류뿐만 아니라 무인 항공사진을 통해 농경지를 촬영하여 농경지의 경계를 설정하는 연구 (13) 도 있다. 이때, Convolutional Neural Network (CNN) 를 다양한 작물 재배지역의 작물의 종류를 분류하는 연구 (14) 가 있다. CNN이 아닌 UNet을 통해 영상 데이터를 segmentation 하여 작물을 분류하는 연구 (15) 도 있다. 작물 분류뿐 아니라 다양한 논의 color와 shape를 정보를 이용하여 논이 가뭄으로 인한 피해 발생 지역을 추정하는 연구 (16) 도 있다. 이때, 가뭄 지역을 추출하기 위해 농작물의 가입 정보 DB와 같은 GIS 자료 이용했다. 농작물의 생산성을 증대하기 위해 잡초를 식별하는
연구 (17) 도 진행되고 있다. 이 연구는 작물을 심을 때 라인 형태로 심는다는 점을 이용하여 CNN을 통해 작물 라인 정보에서 벗어난 잡초를 식별한다. 이처럼
잡초를 식별하여 농약 살포를 제한할 수 있다.
본 연구에서 영상 데이터 (18) 를 이용하여 작물이 심겨 있는 라인 데이터를 파악한다. 이때 라인에서 벗어난 곳에 있는 것을 잡초로 판단한다. 사용자는 애플리케이션을 이용하여 작물의
영상 데이터를 서버로 전송하면 서버에서 해당 잡초 위치를 알려준다. 사용자는 얻은 정보를 바탕으로 효율적인 잡초 제거를 할 수 있다.
3. 제안하는 시스템
3.1 전체 시스템 설계
본 논문에서 제안하는 노지에서 사용 가능한 스마트팜의 전체 구성도는 Fig. 1과 같다.
그림. 1. 시스템 구성도
Fig. 1. System Architecture
카메라를 통해 촬영된 영상 데이터와 기상청 사이트의 웹 크롤링 결과가 클라우드 서버로 전송된다. 이때, 클라우드 서버에는 기존의 영상 데이터를 통해
생성된 분석 알고리즘과 과거 기후 데이터를 바탕으로 분석된 기온 및 강수량 지표가 있다. 얻은 영상 데이터에서 작물이 재배되고 있는 라인을 파악하고
라인에서 벗어나는 부분을 탐지한다. 기존의 기후 정보와 3시간에 1번 웹 크롤링을 통해 얻은 기후 정보를 바탕으로 사용자에게 애플리케이션을 이용하여
처리된 데이터를 송출한다. 애플리케이션은 사용자의 위치와 경작지의 영상 데이터를 얻기 위해 위치 권한 및 카메라 권한을 취득할 수 있는지를 물어보며
얻은 위치 정보를 바탕으로 기후를 알려주고 카메라를 통해 영상 데이터를 확보하여 잡초가 있는 부분을 알려준다. 기후 정보를 통해 사용자는 당해연도의
경작을 진행할 날짜을 선정할 수 있다. 또한, 잡초의 위치 정보를 이용하여 효율적인 잡초 제거 등이 가능하다. 추후, 기존의 농지에 설치된 미세살수
장치, 스프링클러 등 환경을 제어하는 장치가 통신할 수 있다면 자동으로 간단한 환경을 제어할 수 있을 것이다. 또한, 상시 촬영이 가능한 고정형 CCTV가
부착되어 있다면 고라니, 멧돼지 등 야생동물을 탐지해 사용자에게 알리고 경고 버저를 울릴 수 있을 것이다. 본 논문은 이후 단락에서 기후 데이터를
분석한 방법과 영상 데이터를 분석하는 방식에 관해 설명할 예정이다.
3.2 기후 데이터 분석
기후 데이터 분석을 위해 기상청과 통계청 사이트에서 국내 기후 데이터 세트를 .csv형태로 변환하여 사용하였다. 먼저 Fig. 2와 같이 월별 강수량을 비교하였다.
그림. 2. 월별 강수량 분석
Fig. 2. Analysis of monthly precipitation
본 연구는 1999년부터 2020년까지의 날짜별 평균 강수량을 구하여 분석했다. 이때, y축은 강수량을 나타내고 x축은 월을 나타낸다. 이때 평균
강수량은 빨간 점으로 표시되며 평균 강수량 값은 도표 윗부분에 나타나 있다. 본 연구는 강수량이 가장 적은 월과 가장 많은 월을 파악할 수 있으며
이를 통해 각 월별 강수량을 비교하였다.
7월의 경우, 7월 초의 강수량이 7월 말의 강수량보다 많다는 것을 알 수 있다. 따라서 작물 재배 시 7월 초보다 7월 말에 농약 살포를 권한다.
그 뒤, 본 연구는 지역별 강수량을 비교하였다. Fig. 3는 지역별 강수량을 비교한 것이다. 이때, 본 연구는 통계청에서 제공하는 강수량 데이터를 서울특별시, 부산광역시, 대구광역시, 인천광역시, 광주광역시,
대전광역시, 울산광역시, 경기도, 강원도, 충청북도, 충청남도, 전라북도, 전라남도, 경상북도, 경상남도 그리고 제주특별자치도인 총 16개의 행정구역으로
나눠 사용하였다. 분석을 위해 2000년부터 2020년까지의 강수량의 평균을 이용하여 분석하였는데 세종특별자치시는 2012년에 지정되어 데이터가 부족하여서
제외하였다.
그림. 3. 지역별 강수량 비교
Fig. 3. Regional Precipitation Comparison
이에 강수량의 평균을 지도에 구역을 나눠 나타낸 모습이다. 이때, 지도상에 평균 강수량이 높을수록 진한 색을 가진다. 평균적으로 광역시 중에서 인천광역시에
강수량이 가장 높으며 도중에서는 경상북도의 평균 강수량이 높다는 것을 알 수 있다. 또한, 경상남도의 평균 강수량이 가장 적다. 지역별 강수량을 통해
경작지 관리에 대해 행정 지역 별다른 피드백이 가능하다.
그림. 4. 월별 기온 분석
Fig. 4. Analysis of monthly temperature
본 논문은 강수량뿐만 아니라 기온 데이터를 분석하여 월별 기온 데이터와 지역별 기온 데이터의 분석 결과를 제시한다. 먼저 월별 기온 데이터는 Fig. 4와 같다. 기온 데이터는 box plot 형태로 나타나 있으며 이때 월별 평균 기온은 빨간색 점과 같다.
3.3 기후 데이터 분석
항공 데이터에서 작물이 있는 부분을 탐지하기 위해 본 연구에서는 공개된 항공 영상 데이터 (18) 를 사용하였다. 본 연구에서 제안하는 영상 알고리즘은 먼저, 공개된 항공 영상 데이터를 입력받은 뒤 HSV 색 공간으로 변환을 하였다. 이를 통해
더욱 정확한 색상을 파악할 수 있다. 변환된 이미지는 Fig. 5(a) 통해 알 수 볼 수 있다. HSV 공간으로 변환함으로써 작물의 녹색과 땅의 연갈색이 더 정확하게 구별된다. 구해진 이미지에 녹색 부분에 임곗값을
적용하여 녹색 영역의 mask를 구하면 Fig. 5(b) 와 같다. 얻은 영역에 관해 관심 영역을 선택한다. 이는 너무 멀리 있는 작물에 대한 라인 파악은 쉽지 않기 때문이다. 또한, 너무 가장자리에 있는
작물에 대한 라인은 찾기가 쉽지 않아서 높이의 절반을 region of interest (ROI)로 지정했다.
그림. 5. 작물이 심어진 라인을 구하기 위한 영상처리 예시 비교, (a) 는 HSV로 색 공간을 변환한 것, (b) 는 초록색에 대한 mask를
구한 것
Fig. 5. Comparison of image processing examples to obtain the line in which the crop
was planted, (a) the color space was converted into HSV, and (b) the mask for green
지정된 부분에서 작물이 있다고 추정되는 부분을 Bird eyes views를 통해 작물이 심어진 라인을 직선으로 만든 뒤, 라인별 클러스터링을 진행하여
작물이 심어진 라인끼리 얻게 된다. 이때 클러스터링 된 영역을 벗어난 작물은 잡초로 판단한다. 이렇게 클러스터링 된 결과는 Fig. 6을 통해 볼 수 있다. 이때 보라색은 작물 라인에서 벗어난 부분이다.
그림. 6. 클러스터링을 이용하여 작물이 있는 라인의 그룹화
Fig. 6. Clustering is used to group lines with crops
3.4 애플리케이션 구성
본 연구에서는 분석한 기후 데이터와 영상 데이터를 사용자에게 애플리케이션을 통해 알린다. 이때, 앱은 사용자에게 GPS 정보와 카메라 및 저장소 접근
권한을 요구한다. 사용자가 접근을 모두 허용하면 GPS를 이용하여 실제 사용자의 위치를 파악하고 사용자가 있는 곳에 맞는 평균 기온과 강수량을 제시한다.
또한, 웹 크롤링을 통해 당일에 날씨와 예상 기후를 알린다. 이때, GPS 권한을 주지 않아도 한국 전체 지도를 보여주며 기존에 분석된 기후 및 강수량을
설명하여 사용자의 작물 재배에 도움을 준다. 카메라와 저장소 권한을 얻어 사용자가 드론을 이용하여 촬영한 영상 데이터나 직접 핸드폰으로 찍은 영상
데이터를 얻을 수 있다. 영상 데이터는 서버에 저장되며 서버에서 영상 데이터를 분석하여 사용자에게 잡초의 위치를 제시할 수 있다. 애플리케이션은 안드로이드
OS에서 구성되었으며 서버는 python 기반으로 TCP/IP 통신을 통해 사용자에게 정보를 제공하게 된다. 이와같이 본 논문은 경작 관리인이 사용할
수 있는 애플리케이션을 구성하였으며 이때 서버로 연결하는 IP 주소를 이용하면 데이터 처리가 가능하다. 추후, 애플리케이션에 로그인 기능을 추가하여
IP 주소를 입력하지 않아도 로그인을 하면 서버로 접속할 수 있게 구성할 예정이다.
4. 애플리케이션 결과
이번 부문에서는 기후 데이터와 항공 영상 데이터를 애플리케이션으로 사용자에게 보여주는 결과와 실제로 구성된 애플리케이션을 보여준다. Fig. 7는 구성된 애플리케이션의 모습이다.
그림. 7. 구성한 애플리케이션 모습, (a)는 IP 입력 후 초기 화면, (b)는 기후분석 결과 화면, (c)는 영상 분석 결과 화면
Fig. 7. The configured application, (a) the initial screen after IP input, (b) the
climate analysis result screen, (c) the image analysis result screen
아직은 로그인 기능이 없어 서버로 연결하는 IP 주소를 입력해야 서버로 접속할 수 있지만 추후 추가시킬 예정이다. 애플리케이션에 처음 진입 시 접근
권한과 관련된 내용이 나오며 권한을 획득할 경우 첫 화면에 사용자의 GPS 정보가 나온다. 서버의 IP 주소를 입력하고 CONNECT 버튼을 클릭하면
서버와 통신이 시작되며 Fig. 7의 (a)와 같은 화면을 나타내게 된다. 서버와 통신이 되는 상태에서 기상 분석 버튼을 누르면 Fig. 7에 (b)와 같은 같은 화면이 나온다. 이때 나오고 있는 화면은 기존에 분석된 기후 정보이다. Fig. 7의 (a) 화면에서 이미지 분석 버튼을 누르면 Fig. 7의 (c)와 같은 화면이 나온다. 이때, 이미지를 찍을 수 있는 버튼이 나오며 이미지를 찍거나 찍혀진 이미지를 선택하면 이때 이미지는 서버로 전송되어 처리된
결과가 나오게 된다. 나온 결과에 보라색 부분은 잡초라는 것을 알 수 있다.
5. 결 론
본 논문은 사용자가 기존의 소지하고 있는 스마트폰을 통해 노지 환경에서 작물 재배를 돕는 저비용 스마트팜 애플리케이션을 제안한다. 이때, 사용자가
있는 지역에 기후 정보를 바탕으로 물을 주거나 농약을 뿌리고 수확 시기를 결정할 수 있다. 또한, 영상 정보를 바탕으로 재배 환경을 분석하고 작물
사이에 잡초가 있는 부분을 파악하여 사용자에게 알려 사용자는 효율적으로 잡초를 제거할 수 있다. 본 논문은 기존의 비싼 설치비용을 가진 스마트 팜
시스템이 아닌 스마트폰 한 가지만을 이용하면 사용할 수 있는 간단한 스마트팜 어플리케이션을 제안하고 있다. 이러한 스마트팜 시스템은 사용자에게 편리함을
제공하며 작물의 수확량을 증대시킬 수 있을 것이다. 추후 본 연구에서 드론을 통해 원거리에서 촬영된 경작지를 분석하여 노지의 작물의 상태, 추후 수확량
예측하기 위한 연구를 진행할 예정이다.
Acknowledgements
The research was supported by a grant from the 2020 program for visiting professors overseas in Korea National University of Transportation.
References
Agricultural and livestock distribution news. , Last year, agricultural farm households
and population decreased... “Advanced” for aging., [Internet]. Available: https://www.amnews.co.kr/news/articleView.html?idxno=45949.
tatistics Korea(KOSIS), Plant crop cultivation area, [Internet]. Available: https://kosis.kr/statHtml/statHtml.do?orgId=101&tblId=DT_1ET0017.
Statistics Korea(KOSIS), Field crop cultivation area, [Internet]. Available: https://kosis.kr/statHtml/statHtml.do?orgId=101&tblId=DT_1ET0012.
The Farmers Newspaper, Why farmers are hesitant to adopt smart farms, [Internet].
Available: https://www.nongmin.com/opinion/OPP/SWE/TME/332068/view
Kyunghun J., Sukho S., Hyoungmo J., Seungheon O., Soojin K., Seyun L., Donghyuk J.,
Syewoon H., Minwon J., Seungjong B., Seunghwan Y., 2020, Measure Improvement on Vulnerable
Area based on Climate Change Impact on Agriculture Infrastructure, Journal Of The
Korean Society Of Rural Planning, Vol. 26, No. 4, pp. 81-91
Seungmin K., Jeongha H., Jiwan H., Kwansoo K., 2020, A Panel Analysis on the Locality
of Paddy Rice Yield’s Response to Temperature Conditions: The Case of South Korean
Municipalities, Journal of Climate Change Research, Vol. 11, No. 6, pp. 597-607
K. Juyeong, 2021, The Effect of Climate Change on the Diversification of Fruit Production
in Jeju Island, M.S. dissertation Jeju National University Jeju
S. Jaehoon, J. Hakkyun, L Hyunjung., 2019, October, The Effects of Extreme Events
on Korean Agricultural Sector. Korea Rural Economic Institute, Available: http://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09323502.,
pp. 1-271
Yangkoo L., Wontae K., Youngjin J., Kwangdeuk K., Keunho R., 2005, Cluster Analysis
of Climate Data for Applying Weather Marketin, Korea Spatial Information Society,
Vol. 7, No. 3, pp. 33-44
Yongseok K., Kyomoon S., Myungpyo J., Intae C., Keekyung K., 2016, Classification
of Agroclimatic Zones Considering the Topography Characteristicsin South Korea, Journal
of Climate Change Research, Vol. 7, No. 4, pp. 507-512
Korea Meteorological Administration, Open weather data portal, Available: https://data.kma.go.kr/cmmn/main.do
Jinki P., Jonghwa P., 2015, Crops Classification Using Imagery of Unmanned Aerial
Vehicle (UAV), Journal of The Korean Society of Agricultural Engineers, Vol. 57, No.
6, pp. 91-97
Sangmin S., Jaeone L., 2016, Accuracy of Parcel Boundary Demarcation in Agricultural
Area Using UAV-Photogrammetry, Journal of the Korean Society of Surveying, Geodesy
Photogrammetry and Cartography, Vol. 34, No. 1, pp. 53-62
Y. Kim, G.H. Kwak, K.D. Lee, S.I. Na, C.W. Park, N.W. Park, 2018, Performance Evaluation
of Machine Learning and Deep Learning Algorithms in Crop Classification: Impact of
Hyper-parameters and Training Sample Size, Korean Journal of Remote Sensing, Vol.
34, No. 5, pp. 811-827
Seokkeun C., Soungki L., Yeonbin K., Doyeon C., Juweon C., 2020, Use of Unmanned Aerial
Vehicle Imagery and Deep Learning UNet to Classification Upland Crop in Small Scale
Agricultural Land, Korean Society of Surveying Geodesy Photogrammetry and Cartography,
Vol. 38, No. 6, pp. 671-679
Jinki P., Jonghwa P., 2017, Analysis of Rice Field Drought Area Using Unmanned Aerial
Vehicle (UAV) and Geographic Information System (GIS) Methods, Journal of The Korean
Society of Agricultural Engineers, Vol. 59, No. 3, pp. 21-28
M. D. Bah, A. Hafiane, R. Canals, 2017, Weeds detection in UAV imagery using SLIC
and the hough transform, 2017 Seventh International Conference on Image Processing
Theory
ROBOTICS AND 3D VISION GROUP, Crop Row Benchmark Dataset, Available: http://www.etfos.unios.hr/r3dvgroup/index.php?id=crd_dataset
저자소개
Da-Hyeon Kim is an integrated BA/MS student in the Department of Software at Korea
Transportation University in 2021 from 2022. She is studying for a Master’s degree
at Artificial Intelligence Pattern
Interests : Computer Vision, Deep Learning, Autonomous Driving
Jun-Ho Ahn is an Assistant Professor in the Software at Korea National University
of Transportation. Junho Ahn received a Ph.D. degree in Computer Science at University
of Colorado at Boulder in 2013.
Interests : Vision, Artificial Intelligence Algorithms, Self-driving systems, etc
1997 B.S. degree in Computer Science from Sogang University, Seoul, Korea.
2002 M.S. Electrical Engineering, University of Southern California.
2009 Ph.D. Computer Science, University of Southern California.
2012~2013 LG Electronics CTO Researcher,
2015.9~currently Professor at Dept. of Software, Korea National University of Transportation,
Korea.
Interests : Market Data Forecast, Data Science, Personal Information Management, etc