• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Honam Research Center, Electronics and Telecommunications Research Institute, Gwangju, Republic of Korea)
  2. (Sudogwon Research Center, Electronics and Telecommunications Research Institute, Seongnam-si, Gyeonggi-do, Republic of Korea)



Digital Twin, Koopman Operator, System Identification

1. 서 론

4차산업혁명의 핵심인 디지털 트윈 (Digital Twin) [1] 은 현실의 시스템을 가상의 세계에서 동일한 속성과 기능을 가지도록 디지털로 표현하는 기술을 일컫는다. 따라서, 디지털로 표현된 시스템은 비용, 시간 및 안전 등의 제약으로 인해 실제 시스템으로 수행할 수 없는 시뮬레이션의 수행을 가능케 한다.

디지털 트윈을 전력 산업에 적용하려는 연구와 개발이 꾸준히 진행되고 있다. 한국전력은 발전소의 설비 상태 예측, 고장 예방 및 효율적인 자산관리를 위한 디지털 발전소 기술(Intelligent Digital Power Plant, IDPP)을 개발하였다. 현대차그룹은 전기차 배터리 성능 관리를 위한 디지털 트윈 기술을 적용하였다. 이러한 기술의 핵심은 현실 세계에 존재하는 시스템을 가상 세계에서 정확하게 모델링하는 것이다.

시스템 모델링은 크게 2가지 방법으로 나눌 수 있다. 첫 번째로, 시스템에 대한 배경지식을 알고 있을 때, 이를 활용하는 방법이다. 예컨대, RLC 회로 시스템을 모델링 시, 전류와 전압은 키르히호프의 법칙을 통해 설명된다는 것은 알려져 있다. 따라서, 키르히호프의 법칙을 활용해 RCL 회로 시스템의 방정식을 만들 수 있고, 해당 방정식을 활용해 디지털 트윈을 수행할 수 있다. 하지만 복잡한 시스템은 방정식을 구하는 것 자체가 어렵다. 만약, 이러한 방정식이 고차의 편미분 등으로 기술되면, 해를 구하는 것 또한 어렵다. 두 번째로, 시스템으로부터 수집된 데이터들을 이용하여 모데링을 진행하는 것이다. 배경지식이 없으므로 모델링의 정확도가 떨어질 수 있고, 데이터가 많이 필요하다는 단점이 있다.

최근, 국외서는 배경지식 없이, 데이터만 활용하여 시스템을 모델링하는 연구를 진행하고 있다. 이러한 연구의 근간은 1931년 네덜란드 수학자에 의해 증명된 쿠프만 연산자 이론 (Koopman Operator Theory) [2]이다. 이 이론의 핵심은 비선형 시스템을 선형 시스템으로 근사화시킬 수 있는 무한 차원의 쿠프만 연산자의 존재성을 증명한 것이다. 즉, 임의의 비선형 시스템을 선형 시스템으로 표현할 수 있다는 것이다. 선형 시스템으로 표현이 가능하면 선형 추정, 선형 예측, 선형 제어 등의 방법을 적용 할 수 있으므로, 많은 관심을 받고 있는 상황이다. 하지만, 무한 차원의 쿠프만 연산자를 찾는 것은 불가능하므로, 이를 근사화 시키기 위한 방법이 필요하다.

2008년 P. Schmid와 J. Sesterhenn는 신호처리와 최적화 이론을 활용하여 유한 차원의 근사화된 쿠프만 연산자를 찾는 Dynamic Mode Decomposition (DMD) [3] 방법을 개발하였다. 그 이후 많은 연구자에 의해 DMD를 확장하는 시도가 진행되었다. 딥러닝 기술이 널리 사용된 이후에는 이를 활용해 쿠프만 연산자를 근사화시키는 연구가 진행되었다. 이러한 연구의 최초는 2018년 B. Lusch et al. [4]에서 제안된 KAE (Koopman Autoencoder)이다.

본 논문에서는 쿠프만 연산자 이론과, 이를 활용한 신호처리/최적화 기반과 딥러닝 기반의 시스템 모델링 방법들을 각각 소개한다. 나아가 딥러닝 기반의 방식인 KAE의 예측 성능 향상을 위해 재시작 기반의 학습/추론 방법을 제안한다.

새롭게 제안된 재시작 기반의 학습/추론 방법의 우수성을 입증하기 위해 IEEE 3-BUS 시스템에 적용하였다. 초기 상태 벡터를 입력하고, 일정 시간 동안의 상태 벡터들을 재시작 기반으로 학습한 모델과 기존 방법으로 학습한 모델을 통해 각각 예측하였다. 그 결과, 새롭게 제안된 재시작 기반으로 학습/추론한 모델의 성능이 기존 방법으로 학습한 모델 보다 우수한 것을 실험을 통해 확인하였다.

2. 배 경

2.1 쿠프만 연산자 이론

쿠프만 연산자 이론을 소개하기 이전에, 다음 아래의 예시를 고려하자.

(1)
../../Resources/kiee/KIEE.2024.73.8.1376/eq1.png
 

이 수식은 2차원의 비선형 시스템이다. 이제 2차원의 변수를 3차원으로 맵핑시키는 관측 함수 $\left.\phi :R^{2}\right.→ R^{3}$를 아래와 같이 정의한다.

(2)
../../Resources/kiee/KIEE.2024.73.8.1376/eq2.png
 

수식 (2)에 제시된 함수를 사용하면 수식 (1)은 아래와 같이 3차원의 선형 시스템으로 표현된다.

(3)
../../Resources/kiee/KIEE.2024.73.8.1376/eq3.png

위 예시는 수식 (1)에 제시된 2차원의 비선형 시스템을 수식 (2)에 제시된 관측 함수를 통해 수식 (3)에 제시된 3차원의 선형 시스템으로 변형한 것이다. B. O. Koopman [2]은 비선형 시스템을 선형으로 해석을 가능케 하는 관측 함수와 무한 차원의 쿠프만 연산자가 존재한다는 쿠프만 연산자 이론을 증명하였다. 이론을 이해하기 위해 다음 아래 비선형 시스템을 고려하자.

(4)
../../Resources/kiee/KIEE.2024.73.8.1376/eq4.png

여기서 $t\ge 0$는 시간 인덱스이고, 함수 $f:\chi → R^{n}$는 비선형 함수이고, 그리고 $x_{t}\in\chi$는 $t$시점의 상태 벡터이다. 관측 함수를 $\phi$라고 정의하면, 쿠프만 연산자 증명에 의해 (4)은 아래 수식 (4)와 같이 선형으로 표현된다.

(5)
../../Resources/kiee/KIEE.2024.73.8.1376/eq5.png

관측 함수와 쿠프만 연산자가 존재하면, $t$시점의 상태 데이터로부터 $t+f$시점의 상태 데이터는 다음과 같다.

(6)
../../Resources/kiee/KIEE.2024.73.8.1376/eq6.png

여기서 $\phi^{-1}$는 $\phi$의 역함수이다. 그림 1에 제시된 것처럼, 관측 함수를 통해 상태 벡터$x_{t}$를 임의의 공간으로 투사시켜 임베딩 벡터$g_{t}$를 산출하고, 쿠프만 연산자를 $f$번 연속해서 적용 후, 다시 관측 함수의 역 함수를 적용하면 $t+f$시점의 상태 벡터$x_{t+f}$를 예측한다.

그림 1. 쿠프만 연산자 기반 예측

Fig. 1. Prediction based on Koopman Operator

../../Resources/kiee/KIEE.2024.73.8.1376/fig1.png

2.2 DMD (Dynamic Mode Decomposition)

그림 1에 제시된 것처럼, 쿠프만 연산자와 관측 함수가 있다면 주어진 상태 데이터의 미래 예측이 가능하다. 하지만 쿠프만 연산자는 무한 차원에서 정의가 되기 때문에, 이를 근사화시키는 방법이 필요하다. 딥러닝 기술이 발전하기 이전에는 신호처리와 최적화 기법을 기반으로 방법들이 제안되었다. 최초의 방법은 2008년에 제안된 DMD [3]이다.

DMD는 연속된 두 시점의 상태 데이터들을 선형으로 가정한다. 즉, $x_{t+1}\simeq Kx_{t}$이고, $K$는 근사화된 쿠프만 연산자이다. $T$시간 동안의 모은 상태 벡터들로 행렬$X$와, 이 행렬을 한 스텝만큼 이동 한 것을 행렬$Y$로 각각 정의한다:

이 두 행렬들은 선형 관계이므로 $Y\simeq KX$이다. 따라서, 다음최적화 문제를 풀어서 쿠프만 연산자를 계산한다:

DMD의 관측 함수 $\phi$는 Identity로 표현된다. 즉, 임의의 벡터를 입력했을 때, 해당 관측 함수는 입력한 벡터를 산출하는 역할을 수행한다. 후속 연구들은 다양한 관측 함수들을 사용하였다. 예컨대, P. J. Baddoo et al. [5]은 커널, 선형, 가우시안 함수 등을 관측 함수들로 사용한 경우를 고려 하였다.

2.3 KAE (Koopman AutoEncoder)

딥러닝의 발전으로 인해 자연스럽게 유한 차원의 쿠프만 연산자와 관측 함수를 데이터로부터 학습시키는 연구가 진행되었다.

B. Lusch et al. [4]는 KAE와 학습을 위한 손실 함수들을 정의하였다. 이 모델은 그림 2와 같이 인코더, 디코더 그리고 단일의 선형 네트워크로 표현된다. 수식 (5)의 관측 함수가 그림 2의 인코더이고, 수식 (6)의 역함수는 디코더이고, 쿠프만 연산자 $K$는 그림 2의 선형 네트워크이다.

그림 2. KAE 구조

Fig. 2. KAE (Koopman Autoencoder) Structure

../../Resources/kiee/KIEE.2024.73.8.1376/fig2.png

인코더는 $t$시점의 상태 벡터$x_{t}$를 입력받아 임베딩 벡터$g_{t}$를 산출한다. 선형 네트워크는 단일이기 때문에, $g_{t}$에 해당 네트워크의 가중치를 곱하는 연산을 통해 미래 시점의 임베딩 벡터인 $g_{t+1}$를 산출한다. 마지막으로 디코더는 $g_{t+1}$로부터 $x_{t+1}$를 복원한다.

학습을 위한 손실 함수는 복원, 예측, 그리고 선형으로 분류되고, 이들의 정의는 다음과 같다.

(7)
../../Resources/kiee/KIEE.2024.73.8.1376/eq7.png
(8)
../../Resources/kiee/KIEE.2024.73.8.1376/eq8.png
(9)
../../Resources/kiee/KIEE.2024.73.8.1376/eq9.png

수식 (7)의 복원 손실 함수는 인코더와 디코더를 가능한 lossless로 만들기 위함이다. $x_{t}$를 입력했을 때, $\psi\left(\phi\left(x_{t}\right)\right)\approx x_{t}$를 목표한다. 수식 (8)의 예측 손실 함수는 인코더, 선형 네트워크 그리고 디코더가 $\psi\left(K^{f}\phi\left(x_{t}\right)\right)\approx x_{t+f}$가 되도록 사용된다. 마지막으로, 수식 (9)의 선형 손실 함수는 임의의 공간에서 연속된 시점들의 임베딩 벡터들은 선형 관계를 만들기 위함이다.

2.4 KAE의 후속 연구 결과

B. Lusch et al. [4]의 KAE와 수식 (7) - (9)에 제시된 손실 함수들은 후속 연구들에서 활용되었다. O. Azencot et al. [6]는 KAE에 별도의 선형 네트워크를 추가하여 주어진 상태 데이터의 미래를 예측하는 것뿐만 아니라 과거 또한 재현할 수 있는 cKAE(consistent KAE)와, cKAE 학습을 위한 추가 손실 함수를 제안하였다. cKAE가 KAE보다 예측 성능이 우수한 것으로 보고하였다.

K. Tayal et al. [7]는 Invertible Neural Network (INN)를 KAE에 적용한 KIA (Koopman Invertible Autoencoder)를 제안하였다. INN는 오토인코더의 인코더와 디코더를 하나의 네트워크로 구현한 것이다. INN의 인코딩과 디코딩을 각각 예측과 재현하기 위해 다음 아래와 같이 사용하였다.

여기서 $\phi$와 $\psi$는 KIA의 인코더와 디코더이고 $K(\bullet ;encod\in g)$와 $K(\bullet ;decod\in g)$는 INN의 encoding과 decoding 연산이다. KIA를 학습하기 위한 손실 함수들은 KAE와 동일한 것들을 사용하였고, KIA의 성능이 cKAE보다 더 성능이 우수한 것으로 보고하였다.

N. Geneva와 N. Zabaras [8]은 KAE의 인코더와 트랜스포머 (Transformer)와 결합하여 미래를 예측하는 모델을 제시하였다. 이 연구의 아이디어는 학습이 완료된 KAE의 인코더를 동결하고, 트랜스포머의 임베딩 함수로 사용 하는 것이다. KAE의 인코더는 임베딩된 공간에서 선형이 되도록 학습된다. 따라서, 트랜스포가 임베딩 벡터들로부터 정보를 효율적으로 뽑을 수 있고, 그로 인해 예측 성능이 향상 될 것이라고 가정하였다. 이 아이디어를 검증하기 위해 트랜스포머에 사용되는 임베딩 함수들을 KAE의 인코더, PCA (Principle Component Analysis), 학습 가능한 뉴럴 네트워크, LSTM (Long Short-Term Memory) 등을 사용하였다. 그 결과, KAE의 인코더를 임베딩 함수로 사용했을 때 가장 우수한 예측 성능을 가진 것으로 보고하였다.

이 외에도, KAE를 DMD와 결합하려는 연구 또한 진행되고 있다. 즉, DMD에서의 관측 함수를 학습 가능한 뉴럴 네트워크로 설계하고, 쿠프만 연산자는 최적화 문제를 해결해서 계산하는 연구가 진행되었다[9].

3. 재시작 기반의 학습/추론 방법

그림 3은 KAE 학습 과정을 도식화 한 것이다. 상태 벡터로부터 임베딩 벡터를 산출하고, 임베딩 벡터에 쿠프만 연산자를 적용하여, 미래의 임베딩 벡터들을 예측하고, 예측된 임베딩 벡터들로부터 상태 벡터들을 예측한다. 이때, 선형 및 예측 손실 함수 값들의 계산에, 예측된 임베딩 벡터들을 사용한다. 무한 차원의 쿠프만 연산자를 유한 차원으로 근사화 시킨 것이므로, 쿠프만 연산자의 왜곡 (distortion)은 필연적으로 발생하고, 예측된 임베딩 벡터에 모두 영향을 끼친다. 즉, $g_{1}$로부터 예측된 $\widetilde{g}_{2}$도 왜곡되고, $\widetilde{g}_{2}$로부터 예측된 $\widetilde{g}_{3}$도 왜곡된다. 따라서, 가까운 미래의 임베딩 벡터들을 잘 예측하더라도, 먼 미래의 임베딩 벡터들의 예측은 부정확해지고, 결국 상태 벡터들의 예측 또한 부정확해진다.

이 문제를 해결하기 위해 재시작 기반의 학습/추론 방법을 제안한다. 제안하는 방법의 개념도는 그림 4에 제시한다. 핵심 아이디어는 주기적으로 ground-truth로부터 임베딩 벡터를 산출하여 미래 예측을 수행하는 것이다. 예컨대, $\widetilde{g}_{5}$를 계산 시, $x_{4}$에서 생성한 $g_{4}$를 이용해 $\widetilde{g}_{5}=Kg_{4}$를 계산한다. 일반식으로 표현하면 다음과 같다.

(10)
../../Resources/kiee/KIEE.2024.73.8.1376/eq10.png

여기서 $P$는 재시작 수행의 주기이다. 이렇게 학습을 수행함으로써, 부정확해지는 임베딩 벡터의 예측을 방지한다.

그림 3. 기존 KAE 학습 방법

Fig. 3. The conventional strategy for training KAE

../../Resources/kiee/KIEE.2024.73.8.1376/fig3.png

추론 할 때는 학습할 때처럼, ground-truth가 없다. 하지만, 예측 손실 함수를 최소화하는 방향으로 학습되었으므로, $\widetilde{g}_{4}$로부터 디코딩된 $\widetilde{x}_{4}$는 ground-truth의 주위에 있을 것이다. 따라서, $\widetilde{x}_{4}$로부터 임베딩 벡터를 산출하고, 쿠프만 연산자를 적용하여 $\widetilde{g}_{5}:=K\phi\left(\psi\left(\widetilde{g}_{4}\right)\right)$$\widetilde{g}_{5}$를 예측한다. 이 과정을 일반식으로 표현하면 다음과 같다.

(11)
../../Resources/kiee/KIEE.2024.73.8.1376/eq11.png

여기서 $P$는 재시작 수행의 주기이다.

그림 4. 제안된 재시작 기반의 KAE 학습 방법

Fig. 4. The proposed restart strategy for training KAE

../../Resources/kiee/KIEE.2024.73.8.1376/fig4.png

4. 실 험

본 논문의 실험 목적은 KAE를 재시작 방식으로 학습/추론 시, 예측 성능의 향상을 보이는 것이다. 편의를 위해 기존 방식으로 학습한 것을 KAE로 명명하고, 수식 (10)에 기반한 재시작 방식으로 학습한 것을 KAE_Restart로 명명한다.

실험 대상은 그림 5에 제시된 IEEE 3-Bus 시스템이다. 이 시스템의 상태 데이터는 J. Li와 P. Stinis가 정의한 것을 사용하였다[10]. $t$시점의 상태 데이터는 버스 1과 2에 있는 발전기들의 각속도, 발전기 2와 발전기 1의 전압간 위상 차이, 버스 3에 있는 부하와 발전기 1의 전압간 위상 차이, 마지막으로 부하에 걸리는 전압 크기이다:

여기서 $\omega_{i}(t)$는 $t$시점의 $i$번째 발전기의 각속도이고, $\delta_{i}(t)$는 $t$시점의 $i$번째 버스의 전압 위상이고, 마지막으로 $V_{i}(t)$는 $t$시점의 $i$번째 버스의 전압 크기이다.

그림 5. IEEE 3-Bus System

Fig. 5. IEEE 3-Bus System

../../Resources/kiee/KIEE.2024.73.8.1376/fig5.png

초기 상태 데이터 $x_{0}$이 주어지면, $x_{1},\: x_{2},\: x_{3},\: \cdots ,\: x_{T-1}$를 시뮬레이션을 통해 생성할 수 있다. 이렇게 생성된 상태 벡터들을 하나의 궤적 $\tau_{i}:=\left\{x_{0}^{i},\: x_{1}^{i},\: \cdots ,\: x_{T-1}^{i}\right\}$으로 정의하였다. 각 궤적의 초기 상태 데이터는 다음 아래에 제시된 확률 분포도에 생성하였다:

여기서 $Un{mrm}{if}{o}$은 uniform distribution을 뜻한다. 하나의 궤적으로부터 8 타임 간격 단위로 샘플들을 생성하였다.

여기서 $f$는 연속해서 예측하는 횟수이다. $t$시점의 샘플을 입력 시, $t+f$까지의 상태 벡터들을 예측한다. 학습을 위해 128개의 궤적들을 생성하였다, 여기서 한 개의 궤적은 0초부터 10초까지 0.05초 간격의 상태 벡터들의 집합이다. 위에 제시된 방법을 통해 2432개의 샘플들을 생성하였다.

KAE에서의 관측 함수와 역함수는 인코더와 디코더이고, 표 1은 실험에서 사용한 인코더와 디코더의 구조들이다. 인코더는 5개의 선형 레이어들로 구성하였다. 마지막 레이어에는 별도의 활성화 함수를 적용하지 않았고, 나머지에는 LeakyReLU(0.2) 활성화 함수를 적용하였다. 디코더는 인코더의 역순으로 설계하였다. 쿠프만 연산자는 bias가 없는 Linear(512, 512)로 설계하였다.

KAE_Restart와 KAE의 학습을 위해, 배치 사이즈는 64, 에폭은 512, 학습 속도는 $1e-4$로 설정하였다. 손실 함수는 KAE의 것을 사용하였다. 예측 성능의 평가를 위해 별도의 시험용 궤적들을 16개를 생성하였다. 시험용 궤적의 초기 상태 벡터$x_{0}$를 입력하고, $x_{1},\: x_{2},\: x_{3},\: \cdots ,\: x_{127}$를 예측하였다. 지표는 Mean Squared Error (MSE)와 Relative Root MSE (RRMSE)를 사용하였다.

그림 6은 KAE_Restart와 KAE의 에폭에 따른 손실 값이다. 파란색이 KAE_Restart의 손실 값이고, 주황색이 KAE의 손실 값이다. KAE_Restart의 손실 값이 더 빠르게 감소하는 것 뿐만 아니라 더 적은 손실 값을 달성한 것을 확인 할 수 있다. 최종 에폭에서의 KAE_Restart와 KAE의 손실 값들은 각각 0.0870과 0.1871이다.

그림 7는 실험용 궤적의 ground-truth와 모델들에 의해 예측된 결과들 중 0초부터 6.395초까지의 상태 벡터들을 시각화 한 것이다. 1번째 행에 있는 것이 ground-truth이고, 2번째 행에 잇는 것이 KAE_Restart이고, 3/4 번째 행에 있는 것은 KAE이다. 이 중 3번째 행은 추론을 할 때 (11)를 이용한 것이고 4번째 행은 (11)를 사용하지 않은 것이다.

첫 번째로, 재시작 추론을 사용 시, KAE_Restart와 KAE에 의해 예측된 것들의 경향은 ground-truth와 매우 비슷하다. 즉, 재시작 추론을 사용하는 것 자체가 먼 미래를 예측하는데에 있어서 도움이 된다는 결과이다.

두 번째로, KAE_Restart와 KAE는 세밀한 부분에서 상이 한 것을 확인 할 수 있다. 예를 들면, 파란색 박스 부분을 살펴 보면, ground truth와 KAE_Restart 모두 $\omega_{1}$이 시간에 따라 감소한다. 하지만 KAE의 것은 시간에 따라 상승한다. 초록색 박스를 보면, KAE만 $\omega_{1}$이 주위에 있는 $\omega_{2}$보다 큰 것으로 예측하였다.

그림 6. 학습 손실 값의 변화

Fig. 6. Changes of training loss

../../Resources/kiee/KIEE.2024.73.8.1376/fig6.png

그림 7. 원본 궤적 및 KAE_Restart와 KAE를 통해 예측된 궤적들 시각화

Fig. 7. Illustration of ground-truth trajectory and the corresponding predicted trajectories using KAE_Restart and KAE – Restart Inference implies to (11)

../../Resources/kiee/KIEE.2024.73.8.1376/fig7.png

표 2는 시험용 궤적들에 대해서 예측을 수행했을 때의 성능 평과 결과이다. 평균 MSE 지표를 기준으로 KAE와 KAE_Restart는 각각 0.0039와 0.0028을 달성하였다. 또한, 평균 RRMSE 지표 기준으로 KAE는 0.0571를 달성하였고, KAE_Restart는 0.0433을 달성하였다. 따라서, 제안된 방식으로 학습하고, 추론했을 때, 먼 미래 예측이 가능하고, 이 때 예측 성능 향상이 가능하다는 것을 실험을 통해 확인하였다.

표 1 실험에 사용한 인코더/디코더 구조

Table 1 Details on Encoder/Decoder for the experiments

인코더

디코더

레이어 1

Linear(3, 32)

LeakyReLU(0.2)

Linear(512, 256)

LeakyReLU(0.2)

레이어 2

Linear(32, 64)

LeakyReLU(0.2)

Linear(256, 128)

LeakyReLU(0.2)

레이어 3

Linear(64, 128)

LeakyReLU(0.2)

Linear(128, 64)

LeakyReLU(0.2)

레이어 4

Linear(128, 256)

LeakyReLU(0.2)

Linear(64, 32)

LeakyReLU(0.2)

레이어 5

Linear(256, 512)

Linear(32, 5)

인코더 $\left.\phi :R^{5}\right.→ R^{512}$

디코더 $\left.\psi :R^{512}\right.→ R^{5}$

쿠프만 연산자 $\left. K :R^{512}\right.→ R^{512}$

표 2 KAE_Restart와 KAE의 예측 성능 비교

Table 2 Comparison between KAE_Restart and KAE in terms of prediction performance

MSE

RRMSE

최대

최소

평균

최대

최소

평균

KAE_Resetart

0.0078

0.0002

0.0028

0.1176

0.0159

0.0483

KAE

0.0127

0.0002

0.0039

0.1036

0.0259

0.0571

5. 결 론

본 논문에서는 전력산업의 디지털 트윈 실현을 위해 필요한 시스템 모델링 기법인 쿠프만 연산자 기반의 시스템 모델링 기법을 소개하였다. 이 기법은 비선형 시스템을 동 시스템으로부터 취득한 데이터들만 이용해서 선형 시스템으로 모델링이 가능케 하는 방법이고, 최근에는 딥러닝 기술을 사용한 방법 (KAE, cKAE, KIA) 등이 제안되고 있다.

본 논문에서는 KAE에 자세한 내용을 소개하였고, KAE 학습 과정에 생기는 문제점들을 제시하였고, 해결하기 위한 재시작 기반의 학습 방법을 제안하였다.

실험 결과에 의하면 재시작 기반으로 KAE를 학습/추론 시, 예측 성능의 정확도가 향상되는 것을 확인하였다. 후속 연구로는 제안된 재시작 기반 학습/추론 방법이 KAE 기반으로 한 후속 연구에 적용 가능한지를 판단하고자 한다.

Acknowledgements

이 논문은 2024년도 정부(산업통상자원부)의 재원으로 한국에너지기술 평가원(KETEP)의 ‘차세대 AC/DC Hybrid 배전 네트워크 기술개발사업’으로 지원을 받아 수행한 연구 과제입니다. (No. RS-2023-00281219)

References

1 
A. Fuller, Z. Fan, C. Day, and C. Barlow, “Digital Twin: Enabling Technologies, Challenges and Open Research,” IEEE Access, vol. 8, pp. 108952-108971, 2020.DOI
2 
B. O. Koopman, “Hamiltonian systems and transformation in Hibert space,” Proceedings of the National Academy of Sciences of the United States of America, vol 17, no. 5, pp. 315-318, 1931.DOI
3 
P. Schmid, and J. Sesterhenn, “Dynamic mode decomposition of numerical and experimental data,” Bulletin of the American Physical Society, Sixty-First Annual Meeting of the APS Division of Fluid Dynamics, vol. 53, no. 15, 2008.DOI
4 
B. Lusch, J. N. Kutz, and S. L. Brunton, “Deep learning for universal linear embeddings of nonlinear dynamics,” Nature Communications, vol. 9, no. 4950, 2018.DOI
5 
P. J. Baddoo, B. Herrmann, B. J. Mckeon, J. N. Kutz, and S. L. Brunton, “Physics-informed dynamic mode decomposition,” Proceedings of the Royal Society A, 2013.DOI
6 
O. Azencot, N. B. Erichson, V. Lin, and M. Mahoney, “Forecasting Sequential Data Using Consistent Koopman Autoencoders,” Proceedings of the 37th International Conference on Machine Leanring, PMLR, vol. 119, pp. 475-485, 2020.URL
7 
K. Tayal, A. Renganathan, R. Ghosh, X. Jia, and V. Kumar, “Koopman Invertible Autoencoder: Leveraging Forward and Backward Dynamics for Temporal Modeling,” 2023 IEEE Conference on Data Mining (ICDM), 2023.DOI
8 
N. Geneva, and N. Zabaras, “Transformers for modeling physical systems,” Neural Networks, vol. 146, pp. 272-289, 2022.DOI
9 
Y. Jin, L. Hou, and S. Zhong, “Extended Dynamic Mode Decomposition with Invertible Dictionary Learning,” Neural Networks, vol. 173, 2024.DOI
10 
J. Li, and P. Stinis, “Model Reduction for a Power Grid Model,” American Institute of Mathematical Sciences, vol. 9, no. 1, pp. 1-26, 2022.DOI

저자소개

박상준 (Sangjun Park)
../../Resources/kiee/KIEE.2024.73.8.1376/au1.png

He received the B.S. degree in computer engineering from Chungnam National University, South Korea, in 2009, and the Ph.D. degree in electrical engineering and computer science from Gwangju Institute of Science and Technology, South Korea, in 2019. Since 2020, he has been working with the Electronics and Telecommunications Research Institute (ETRI). His research interests include information theory, optimization, compressed sensing and deep neural networks.

이형옥 (Hyungok Lee)
../../Resources/kiee/KIEE.2024.73.8.1376/au2.png

He received the B.S., M.S., and Ph.D. degrees in computer engineering from Chonnam National University, South Korea, in 2006, 2008, and 2015, respectively. Since 2016, he has been a Senior Member of Engineering Staff with the Electronics and Telecommunications Research Institute (ETRI). His current research interests include microservice, energy IoT, and big data.

황유민 (Yumin Hwang)
../../Resources/kiee/KIEE.2024.73.8.1376/au3.png

He received the B.S. and Ph.D. degrees from the Department of Wireless Communications Engineering, Kwangwoon University, South Korea, in 2012 and 2018, respectively. He was a Postdoctoral Research Fellow with the Department of Electrical and Computer Engineering, Western University, Canada, from 2019 to 2020. He is currently with the Electronics and Telecommunications Research Institute (ETRI). His research interests include object recognition, object tracking, deep learning, and anomaly detection.

이준기 (Jungi Lee)
../../Resources/kiee/KIEE.2024.73.8.1376/au4.png

He received the B.S. and M.S. degrees in computer science from the Gwangju Institute of Science and Technology (GIST), South Korea, in 2014 and 2017, respectively. He is currently a Researcher with the Electronics Telecommunications and Research Institute (ETRI). His research interests include deep learning, anomaly detection, and time-series forecasting.

김낙우 (Nacwoo Kim)
../../Resources/kiee/KIEE.2024.73.8.1376/au5.png

He received the B.S. degree in control and instrumentation engineering and the M.S. and Ph.D. degrees in image engineering from Chung-Ang University, South Korea, in 1997, 2002, and 2006, respectively. He is currently a Principal Researcher with the Electronics and Telecommunications Research Institute (ETRI). His research interests include data engineering, machine learning, and anomaly detection.

이현용 (Hyunyong Lee)
../../Resources/kiee/KIEE.2024.73.8.1376/au6.png

He received the B.S. degree in computer science from Chonnam National University, South Korea, in 2003, and the M.S. and Ph.D. degrees in computer science from Gwangju Institute of Science and Technology, South Korea, in 2005 and 2010, respectively. He is currently a Principal Researcher with the Electronics and Telecommunications Research Institute (ETRI). His research interests include diagnosis, anomaly detection, deep learning, and uncertainty.

고석갑 (Seokkap Ko)
../../Resources/kiee/KIEE.2024.73.8.1376/au7.png

He received the B.S., M.S., and Ph.D. degrees in information telecommunication engineering from Soongsil University, Seoul, South Korea, in 1997, 2002, and 2009, respectively. Since 2008, he has been a Principal Research Engineer with the Electronics and Telecommunications Research Institute (ETRI). His research interests include machine learning for energy management systems.