지태혁
(Tae-Hyuk Ji)
1iD
송인석
(In Seok Song)
1iD
김형우
(Hyung-Woo Kim)
1iD
정상용
(Sang-Yong Jung)
†iD
-
(Dept. of Electrical and Computer Engineering, Sungkyunkwan University, Republic of
Korea.)
Copyright © The Korea Institute for Structural Maintenance and Inspection
Key words
Attention mechanisms, CNN, Permanent magnet machines
1. Introduction
표면부착형 영구자석 동기 전동기(SPMSM, Surface-mounted Permanent Magnet Synchronous Motor)는 뛰어난
토크 밀도, 높은 효율성, 우수한 동적 응답 특성, 그리고 정밀한 제어 성능 덕분에 고성능 시스템에서 광범위하게 사용되고 있다. 이러한 특성으로 인해
SPMSM은 다양한 산업 분야에서 핵심적인 전동기로 자리 잡고 있으며, 특히 전기 자동차, 항공우주, 로봇 공학, 및 정밀 제어 시스템과 같은 분야에서
그 활용도가 증가하고 있다.
그러나 SPMSM은 구조적 특성상 토크 리플(torque ripple) 및 코깅 토크(cogging torque)를 근본적으로 내재하고 있다. 토크
리플과 코깅 토크는 전동기의 출력 토크의 품질을 저하시킬 뿐만 아니라 소음과 진동을 심화시키는 원인으로 작용한다. 이러한 문제는 시스템의 안정성과
신뢰성을 저해하며, 특히 고정밀 제어가 요구되는 시스템에서는 더욱 큰 문제로 작용한다. 따라서, 이러한 성능 저하 요인을 최소화하는 것이 SPMSM의
설계 및 최적화 과정에서 필수적인 과제로 대두된다[1~3].
더불어 영구자석 동기 전동기(PMSM, Permanent Magnet Synchronous Motor)의 설계는 단순히 토크 성능의 개선뿐만 아니라
다양한 목적함수와 고차원 설계 변수의 복합적인 상호작용을 고려해야 한다는 점에서 상당한 복잡성을 수반한다. 특히, 설계 과정에서 다루어야 할 설계
변수의 차원이 매우 높으며, 설계 변수 간의 비선형적 상호작용으로 인해 최적화 난이도가 크게 증가한다. 따라서 PMSM의 설계 최적화를 위해서는 다중
목표 함수와 고차원 설계 변수를 효과적으로 다룰 수 있는 새로운 접근법이 필요하며, 동시에 계산 비용을 절감하면서도 성능 평가의 정확성을 유지할 수
있는 효율적인 최적화 기법이 요구된다.
이러한 문제를 해결하기 위해 최적화 알고리즘에 기반한 최적 설계 기법이 활발히 연구되어왔다[4~6]. 이러한 기법들은 일반적으로 전자기적 성능 평가를 위해 널리 사용되는 유한요소법(FEM, Finite Element Method) 기반의 시뮬레이션에
의존하지만, 높은 정확도에도 불구하고 계산 비용과 시간 소요가 크다는 한계가 있다. 이를 보완하기 위해 최근에는 반응 표면법(Response Surface
Methodology, RSM)과 크리깅(Kriging) 기법과 같은 대리 모델링 기법이 최적화 과정을 가속화하는 데 사용되고 있다. 또한, 인공신경망(ANN)은
매개변수 최적화에서 회귀 모델로 활용되며 설계 주기 단축에 유망한 성과를 보여주었다[7,8]. 최근에는 컨볼루션 신경망(CNN, Convolutional Neural Network) 기반의 매립형 영구자석 동기 전동기(IPMSM, Interior
Permanent Magnet Synchronous Motor)의 최적화를 위한 회귀 모델 구축에 적용되었으며, 고정자와 회전자의 단면 이미지를 학습함으로써
중요 설계 패턴을 효과적으로 포착할 수 있음을 입증하였다[9,10].
PMSM의 성능 예측 회귀 모델 구축을 위해선 성능에 큰 영향을 미치는 영구자석의 기하학적 특징을 정확하게 추출하는 것은 필수적이다. 그러나 IPMSM의
경우 영구자석이 회전자 내부에 배치되어 다양한 기하학적 변형을 갖는 반면, SPMSM은 영구자석이 표면에 부착되어 있어 그 형상 변화가 상대적으로
미미하다. 이러한 특성으로 인해 CNN과 같은 딥러닝 모델이 SPMSM의 설계에서 의미 있는 기하학적 특징을 추출하기가 더욱 어려워진다. 결과적으로
SPMSM의 회귀 모델링에서는 정확한 설계 특징 학습과 성능 예측이 더욱 까다로워진다. 이와 같은 문제는 SPMSM의 설계 변수 간의 미세한 변화와
전자기적 성능의 복잡한 상관관계를 정확하게 반영해야 하기 때문에 더욱 중요한 과제로 부각된다. 따라서 CNN 기반 모델의 학습 성능을 개선하고 정확한
회귀 모델링을 달성하기 위한 효과적인 접근법이 필요하다.
이러한 한계를 극복하기 위해, 어텐션 메커니즘을 적용하여 중요한 설계 특징에 더 높은 가중치를 부여함으로써 학습 효율성과 예측 정확도를 동시에 향상시키는
CNN 기반 회귀 모델을 제안한다. 본 연구에서는 어텐션 메커니즘의 효과를 분석하고, 이를 통합한 모델의 성능을 기존 CNN 모델과 비교하여 그 유효성을
검증하였다.
2. 표면부착형 영구자석 동기 전동기
2.1 SPMSM의 토크 발생 원리
SPMSM의 토크는 그림 1에서 확인할 수 있는 고정자 권선에 흐르는 전류에 의해 발생하는 자속과 회전자에 부착된 영구자석에 의해 발생하는 자속 간의 상호작용으로 발생한다.
고정자에 전류가 공급되면 회전하는 자기장이 형성되며, 이 자기장은 회전자 영구자석의 자기장과 동기화되어 회전하게 된다. 이 과정에서 전자기적인 동기
토크가 생성되며, 토크의 크기는 고정자 전류와 영구자석 자속의 크기에 비례하고 최대 토크는 두 자기장 간의 각도가 90°일 때 발생한다. SPMSM에서
생성되는 토크는 식 (1)을 통해 확인할 수 있다.
여기서 $T_{e}$ 는 전기적 토크, $P$ 는 극수, $\psi_{m}$ 는 영구자석에 의해 생성된 자속의 크기, $I_{s}$는 고정자의 전류
크기, $\delta$는 전기적 위치각을 의미한다.
2.2 SPMSM의 주요 설계 특성
SPMSM은 그림 1(a)에서 확인할 수 있듯이 크게 권선과 코어로 이루어진 고정자와 영구자석과 코어로 이루어진 회전자로 구성된다. 이들은 앞서 다루었던 SPMSM의 토크
발생 원리에 따라, 자속을 생성하고 이를 효과적으로 전달하는 데 초점이 맞춰 설계된다. 자속을 생성하는 요소로는 영구자석과 고정자 권선이 있으며,
자속을 전달하는 요소로는 고정자 코어와 회전자 코어가 있다. 이 설계 요소들는 SPMSM의 토크 특성을 결정짓는 핵심적인 역할을 한다.
특히, 고정자 및 회전자 코어는 자속을 전달하는 주요 경로로 작용하지만, 그림 2에서 확인할 수 있듯이 일정량 이상의 자속이 입력되면 더 이상 자속을 증가시키지 못하는 포화 특성을 가진다. 이러한 포화 현상은 자속 전달 능력을
제한하며, 고정자 및 회전자 코어의 설계에서 반드시 고려해야 할 요소이다. 따라서, 포화가 발생하지 않도록 적절한 코어의 두께를 설계하는 것이 중요하다.
그림 1. SPMSM의 형상과 토크 발생 원리
Fig. 1. Shape and Torque Generation Principle of SPMSM
그림 2. 코어의 B-H 곡선
Fig. 2. B-H Curve of the Core
즉, 영구자석의 길이와 높이, 고정자 슬롯의 넓이와 같은 자속 생성 관련 설계 요소와 고정자 및 회전자 코어 두께와 같은 자속 전달 관련 요소는 토크의
크기를 최적화하는 데 있어 상호 연관성을 갖는다. 최종적으로, 이러한 요소들의 조합을 통해 SPMSM의 토크 크기가 결정된다.
3. Convolutional Neural Network
CNN(Convolutional Neural Network)이란 합성곱 연산(Convolution Operation)을 기반으로 데이터를 처리하고
학습하는 딥러닝 모델이다[11]. CNN은 합성곱 연산을 통해 데이터의 특정 패턴을 지역적으로(Local Connectivity) 학습한다. 지역적 학습은 입력 데이터의 전체 영역이
아닌 일부 영역을 처리하며, 근접한 픽셀 간의 관계를 중점적으로 학습하여 위치적 관계와 패턴 같은 공간적 구조를 효과적으로 보존한다. 그러므로 CNN은
주로 이미지와 같이 공간적 정보가 중요한 데이터 처리에 특화되어 있다. 이러한 특성을 갖는 CNN은 기존 DNN(Deep Neural Networt)과
비교했을 때, 노드의 연결 방식, 데이터 처리 방식, 계층별 학습 내용 등에서 차이를 갖으며, 이에 따라 DNN에는 존재하지 않는 합성곱 계층(Convolution
Layer)과 풀링 계층(Pooling Layer) 등이 존재한다. 다음으로 CNN의 학습 메커니즘과 주요 구성 요소에 대해 자세히 살펴보겠다.
3.1 CNN의 학습 매커니즘과 구성 요소
CNN은 기본적으로 2D 혹은 3D 형태의 이미지 데이터를 주로 입력으로 받으며, 합성곱 계층을 통해 입력 데이터의 지역적 특징(Features)을
추출한다. 이 후 풀링 계층을 통해 데이터의 크기를 축소 시키고 계산의 효율성을 높힌다. 마지막으로, 출력 전 완전 연결 계층(Fully Connected
Layer)을 통해 합성곱 계층과 풀링 계층에서 추출된 특징을 바탕으로 최종 예측을 수행한다. 그림 3을 통해 CNN의 전체적인 학습 메커니즘을 확인할 수 있으며, 다음으로 CNN을 구성하는 각 층에 대해 자세히 살펴보겠다.
그림 3. CNN의 학습 메커니즘
Fig. 3. Learning Mechanism of CNN
3.2 CNN의 주요 구성 요소
합성곱 계층은 데이터의 특징을 추출하는 핵심 역할을 하며, 데이터를 이해하고 의미 있는 패턴을 학습하는데 초점이 맞춰 있다. 합성곱 계층에는 데이터의
주요 특징을 추출하기 위해 채널(Channel) 수 만큼의 커널(Kernel)로 이루어진 필터(Filter)가 존재하며, 이미지 위를 이동하며 점곱
연산(Dot Product)을 수행한다. 필터는 해당 수행 과정을 통해 입력 데이터의 특정 유형의 패턴을 학습한다. 이 학습 역시 최적화 알고리즘을
기반으로 손실 함수를 최소화하는 방향으로 이루어진다. 그림 4를 통해 필터의 점곱 연산 과정의 예시를 확인할 수 있다.
최종적으로 이 합성 곱 계층은 입력 데이터와 필터 간의 점곱 연산을 통해, 입력 데이터에서 중요한 패턴을 강조한 출력인 특징 맵(Feature Map)을
생성한다. 여기서 활성화 함수 적용을 통해 비선형성을 추가하여 복잡한 패턴을 학습할 수 있도록 하며 특징 맵을 활성화시킨다.
활성화된 특징 맵은 풀링 계층으로 전달되어 중요한 정보를 유지한 채 데이터의 크기가 축소되며, 데이터의 주요 특징 정보를 요약하고 연산량과 메모리
사용량을 감소시킨다. 그림 5을 통해 확인할 수 있듯이, 풀링은 크게 최대 풀링(Max Pooling)과 평균 풀링(Average Pooling)으로 나뉜다. 최대 풀링은 각
국소 영역에서의 최대값을 선택하여 중요한 특징을 강조하며, 평균 풀링은 각 국소 영역에서의 평균값 계산하여 데이터의 전체적인 정보를 반영한다.
그림 4. CNN의 합성곱 연산
Fig. 4. Convolution Operation in CNN
그림 5. CNN의 풀링 연산
Fig. 5. Pooling Operation in CNN
이외에도 풀링 과정은 훈련 데이터에 과도하게 적합해지는 과적합(Overfitting) 현상을 방지하며, 작은 위치 변화에 대해 특징 맵의 중요한 정보를
보존하는 위치 불변성을 제공한다.
합성곱 계층과 풀링 계층을 통해 추출된 특징 맵은 CNN의 마지막 부분에 위치하는 완전 연결 계층으로 전달된다. 완전 연결 계층은 추출된 고차원의
특징을 최종적으로 분류하거나 예측하기 위한 단계이며, 문제의 종류(분류, 회귀 등)에 따라 적합한 함수를 사용한다. 본 논문에서는 연속적인 실수값을
예측하는 문제인 회귀를 다룬다.
합성곱 계층과 풀링 계층을 거친 특징 맵은 2D 혹은 3D 배열이다. 이 데이터는 평탄화(Flattening) 과정을 거쳐 1차원 벡터로 펼쳐진다.
평탄화 과정을 마친 데이터는 활성화 함수를 기반으로 가중치와 편향에 의해 변환되며, 최종적으로 출력 값을 생성한다. 회귀 문제에서의 손실 함수로 MSE(Mean
Squared Error)나 MAE(Mean Absolute Error)를 사용하며, 출력 값을 기반으로 손실 함수가 최소화되는 방향으로 모델이 학습된다.
4. SPMSM 전자계 성능 예측을 위한 어텐션 메커니즘 기반 CNN 회귀 모델
본 연구에서는 그림 6과 같은 SPMSM의 형상 특성을 담은 도면을 이미지 데이터로 활용하여 CNN을 통해 전자계 성능을 예측하고자 한다. SPMSM의 전자계 특성은 각
영역의 형상 및 설계 요소에 따라 다르게 영향을 받으며, 이는 앞서 논의한 토크 발생 원리와 주요 설계 변수에 의해 결정된다. 그러나 기본 CNN
모델은 이미지의 각 영역을 동일한 중요도로 처리하기 때문에, 전자계 특성에 더 큰 영향을 미치는 주요 영역을 구분하지 못하고 모든 영역을 고르게 필터링하는
한계가 있다. 이러한 기본 CNN 모델의 방식은 불필요한 연산을 증가시키고, 모델이 중요한 설계 요소에 집중하지 못하게 하여 학습 효율성과 정확도를
저하시킨다.
예를 들어 그림 6에서 확인할 수 있듯이, 배경과 공극은 모두 공기로 구성되어 동일한 색상을 가지지만, 공극은 전자계 특성에 중요한 역할을 한다. 또한, 같은 곡선이라
하더라도 고정자 폴슈의 곡선은 고정자 내경의 곡선보다 중요도가 현저히 높다. 이와 같이, 유사한 특성을 갖는 특징이더라도, 중요도의 차이가 존재한다.
그림 6. SPMSM의 설계 요소 별 중요도 예시
Fig. 6. Example of Importance of Design Elements in SPMSM
이를 해결하기 위해 본 연구에서는 어텐션 메커니즘(Attention Mechanism)을 적용한 CNN 모델을 제안한다. 어텐션 메커니즘은 전자계
특성에 큰 영향을 미치는 주요 영역에 가중치를 부여함으로써, 불필요한 연산을 억제하고 중요한 설계 요소에 대한 집중도를 높인다. 이를 통해 학습 속도를
향상시키고 성능 예측의 정확도를 개선할 수 있다. 다음 절에서는 어텐션 메커니즘의 구조와 적용 방법에 대해 논의한다.
4.1 어텐션 메커니즘의 동작 원리
어텐션 메커니즘은 인간이 주의를 기울이는 방식에서 영감을 얻은 개념으로, 주어진 입력 중에서 중요한 부분에 집중하거나 가중치를 두는 기법이다. 즉,
어텐션 메커니즘의 핵심은 가중치를 부여하는 것이며, 모델이 입력 데이터에서 중요한 특징을 식별하고 그에 대한 가중치를 조정하는 방식으로 작동한다.
이러한 어텐션 메커니즘은 Query(질의), Key(키) 및 Value(값)의 세 가지 요소로 구성된다. Query는 “어디에 집중할 것인지”를 정의하며,
CNN에서는 입력 이미지의 특정 픽셀 또는 특정 지역이 해당된다. Key(키)는 모델이 어떤 기준으로 입력 데이터를 비교하고 연관성을 계산할지 정의하는
기준 정보이다. 즉, Query와의 유사도를 계산하기 위한 참조 정보이며, CNN에서 Query가 특정한 관심 영역이라면, Key는 전체 특징 맵의
정보를 가진 대푯값이다. Query와 Key 간의 유사도를 계산하여 각 위치가 Query에 얼마나 관련 있는지 Value를 판단하게 된다. 이후 그림 7과 같이 이 유사도에 따라 최종 어텐션 Value를 계산하게 된다.
그림 7. 어텐션 메커니즘의 어텐션 Value 판단
Fig. 7. Determining the Attention Value in the Attention Mechanism
4.2 어텐션 메커니즘의 종류
어텐션 메커니즘은 중요한 정보를 강조하고 불필요한 정보를 필터링하는 방식으로 작동하며, 문제와 데이터의 특성에 따라 다양한 형태로 활용된다. 따라서
각 문제와 데이터 특성에 적합한 어텐션 메커니즘을 선정하는 것이 중요하다. 본 논문에서는 SPMSM의 특징 추출에 적합한 채널 어텐션과 공간 어텐션에
대해 논의한다.
채널 어텐션은 각 채널 간의 중요도를 계산하여, 중요도가 높은 채널을 강조하는 메커니즘이다. 앞에서 다루었던 합성곱 계층에서 각 필터 내 채널은 입력
데이터에서 특정한 특징을 추출하는데 사용되었다. 여기서 채널 어텐션은 각 채널의 중요성을 다르게 조정하여 중요한 채널에 더 집중하도록 만든다. 각
입력 특성맵(Feature Map)을 의미하는 입력 텐서 $X\in R^{C\times H\times W}$에 대해 전역 평균 풀링(Global Average
Pooling)을 수행하여 채널별 요약 정보를 추출한다. 여기서 $C$는 필터의 채널수, $H$는 필터의 높이, $W$는 필터의 너비이다. 이후,
식 (2) 및 (3) 과 같이 멀티 레이어 퍼셉트론(Multi-Layer Perceptron)을 사용해 채널 별 중요도를 나타내는 $A_{C}$를 계산하고 최종적으로
시그모이드 활성화 함수를 통해 정규화한다. 정규화된 $A_{C}$는 원래 입력텐서 $X$에 곱해져 채녈의 가중치를 조정한다. 식 (2)~(4)를 통하여 채널 어텐션 메커니즘을 통해 채널 별 중요도를 계산하는 과정을 확인할 수 있다.
채널적 어텐션을 통해 SPMSM의 영구 자석와 고정자 및 회전자 코어의 미세한 기하학적 특징과 색상으로 구분되는 물질별 특징을 효과적으로 포착할 수
있다.
공간 어텐션은 입력 이미지의 특정한 공간적 위치에 집중하는 메커니즘이다. 픽셀, 영역 등과 같은 각 공간 위치에 대해 중요도를 계산하고, 그 중요도에
따라 각 위치의 정보가 강조된다. 공간적 중요도를 계산하기 위해, 각 채널에 대해 전역 평균 풀링 그리고 전역 최대 풀링을 수행하여, 각 채널의 공간적
정보를 요약 및 맵핑한다. 식 (5)와 같이 공간 어텐션은 채널 어텐션과 달리 입력 텐서 $X\in R^{C\times H\times W}$에서 채널을 하나로 축소하여 공간정보만 남긴다.
이 후 식 (6)와 같이 평균 풀링 맵과 최대 풀링 맵은 채널축으로 결합하고 결합 된 맵에 대해 컨볼루션을 수행하여 각 공간 위치의 중요도를 계산한다. 여기서 $S$는
결합 된(Concatenation) 텐서를 의미한다. 다음으로 $S$에 $3\times 3$ 컨볼루션 필터 및 시그모이드 함수를 적용하여 공간별 중요도를
나타내는 $A_{S}$를 계산한다. $A_{S}$ 역시 정규화된 후 원래 입력 텐서 $X$에 곱해져 공간의 가중치를 조정한다. 식 (5)~(7)를 통하여 공간 어텐션 메커니즘을 통해 채널 별 중요도를 계산하는 과정을 확인할 수 있다.
공간적 어텐션을 통해 SPMSM의 기하학적 특징의 위치별 중요도와 색상으로 구분되는 물질별 위치의 특징을 효과적으로 포착할 수 있다.
4.3 하이브리드 어텐션 메커니즘
하이브리드 어텐션 메커니즘은 기존의 어텐션 메커니즘을 결합하여 각 메커니즘의 장점을 통합한 결합형 메커니즘이다.
그림 8. Convolutional Block Attention Module의 개요
Fig. 8. Overview of Convolutional Block Attention Module
본 연구에서는 채널 어텐션(Channel Attention)과 공간 어텐션(Spatial Attention)을 결합한 CBAM(Convolutional
Block Attention Module)을 적용하였으며, CBAM 모듈의 구조는 그림 8에서 확인할 수 있다[12].
CBAM은 입력 특징 맵에 대해 먼저 채널 차원의 중요도를 계산한 후, 공간 차원의 중요도를 계산한다. 이러한 순서는 채널 어텐션을 통해 각 채널의
전역적인 중요도를 먼저 학습함으로써, 공간 어텐션 단계에서 불필요한 채널 정보를 배제하고 보다 유의미한 정보에 집중할 수 있도록 한다. 이를 통해
CBAM은 전반적인 학습 효율성과 정확도를 향상시키는 데 기여한다.
5. 제안한 회귀 모델 기반 시험 결과
본 장에서는 앞서 언급한 어텐션 메커니즘을 적용한 CNN 기법 기반의 SPMSM 전자계 성능 회귀 모델을 제안한다. 입력 이미지 데이터로는 10극
12슬롯의 외전형 SPMSM을 적용하였으며, 예측 대상인 출력 결과는 평균 토크이다.
본 연구에서 사용된 SPMSM의 재원 및 성능은 표 1을 통해 확인할 수 있다.
표 1 SPMSM 재원 및 성능
Table 1 Specifications and Performance of SPMSM
구분
|
사양
|
슬롯 수
|
12
|
극 수
|
10
|
입력 전류(Arms)
|
18.0
|
토크 (Nm)
|
0.6
|
회전수 (rpm)
|
3,000
|
회전자 외경 (mm)
|
88
|
코어
|
50PN800
|
영구자석
|
Ferrite 7B
|
5.1 어텐션 메커니즘을 적용한 CNN 모델
어텐션 메커니즘의 효과를 확인하기 위해, 대표적인 CNN 모델 중 하나인 ResNet50과 ResNet50에 CBAM을 적용한 모델을 비교한다. 그림 9를 통해 ResNet50의 전개도를, 그림 10을 통해 제안한 회귀 모델의 전개도를 확인할 수 있다.
그림 9. ResNet50 전개도
Fig. 9. ResNet50 Architecture Diagram
그림 10. 제안한 어텐션 메커니즘 기반의 CNN 회귀 모델의 구성도
Fig. 10. Diagram of the Proposed Attention Mechanism-based CNN Regression Model
5.2 SPMSM 입력 데이터 및 학습 조건
회귀 모델 학습을 위해 사용된 설계 변수에 따른 SPMSM의 도면 정보 및 평균 토크의 일부를 그림 11과 표 2를 통해 확인할 수 있다. 또한, 표 3을 통해 학습 조건을 확인할 수 있다. 검증용 데이터에 대한 평가인 Val_loss가 10회 이상 개선되지 않을 경우 조기 종료를 진행한다. Early_Stopping을
진행한다.
그림 11. 회귀 모델 학습용 데이터 일부
Fig. 11. Sample of Training Data for the Regression Model
표 2 회귀 모델 학습용 데이터의 설계 변수
Table 2 Design Variables of the Training Data for the Regression Model
구분
|
M_H
(mm)
|
M_W
(mm)
|
OP
(mm)
|
PS_A
(mm)
|
PS_W
(mm)
|
RT
(mm)
|
TW
(mm)
|
BY
(mm)
|
Case 1
|
4.28
|
22.82
|
1.70
|
83.10
|
4.32
|
1.95
|
4.41
|
4.05
|
Case 2
|
4.23
|
20.73
|
1.74
|
89.50
|
2.95
|
2.04
|
5.06
|
4.28
|
Case 3
|
4.32
|
23.75
|
1.71
|
83.40
|
3.02
|
2.00
|
5.26
|
4.83
|
Case 4
|
4.42
|
23.99
|
1.67
|
91.82
|
2.84
|
2.00
|
4.65
|
4.74
|
Case 5
|
4.43
|
20.14
|
1.42
|
81.53
|
3.19
|
1.98
|
5.32
|
4.28
|
Case 6
|
4.06
|
18.43
|
1.72
|
87.09
|
2.97
|
1.94
|
4.79
|
3.83
|
표 3 학습 조건
Table 3 Training Conditions
구분
|
사양
|
학습 대상
|
평균 토크
|
데이터 수
|
6,800
|
검증용 데이터 비율
|
20 %
|
총 Epoch
|
50
|
Batch_Size
|
32
|
Optimizer
|
Adam
|
Learning rate
|
0.001
|
손실 함수
|
Mean Squared Error(MSE)
|
5.3 시험 결과
표 4는 어텐션 메커니즘 적용에 따른 성능 평가 결과를 나타내며, 해당 결과는 5회 반복 학습한 평균값으로 도출되었다.
어텐션 메커니즘을 적용한 모델은 기존 CNN 단일 모델과 비교하여 학습 속도가 40% 향상되고, 손실 함수 값이 32% 감소하는 성능 개선을 보였다.
또한, 과적합이 기존 CNN 단일 모델에서는 2회 발생했으나, 어텐션 메커니즘이 적용된 모델에서는 발생하지 않았다. 이를 통해 어텐션 메커니즘이 SPMSM의
전자기 성능 예측에 효과적으로 기여함을 확인할 수 있었다.
표 4 시험 결과
Table 4 Test Results
구분
|
ResNet50
|
ResNet50 + CBAM
|
Early stop Epoch
|
27
|
16
|
MSE
|
6.76e(-4)
|
4.57e(-4)
|
과적합 발생 수
|
2
|
0
|
6. 결 론
본 논문은 SPMSM의 전자계 성능 예측을 위한 회귀 모델의 성능 향상을 목적으로, 어텐션 메커니즘이 적용된 CNN 모델을 제안하고 이를 통해 SPMSM의
전자계 성능을 예측하였다. 제안한 모델을 적용한 결과, 기존 모델 대비 학습 속도가 40% 향상되었고, 손실 함수 값이 32% 감소하였다. 또한,
과적합 현상을 방지하는 효과를 보였다. 본 연구를 통해 어텐션 메커니즘이 CNN 기반 SPMSM 전자계 성능 예측 회귀 모델의 성능이 향상됨을 확인하였으며,
향후 제안된 모델은 SPMSM의 최적 설계에 활용될 것으로 기대된다.
Acknowledgements
이 성과는 2024년도 산업기술통상자원부의 재원으로 한국산업기술평가원의 지원을 받아 수행된 연구임(RS-2024-00432388).
References
L. Zhu, S. Z. Jiang, Z. Q. Zhu, and C. C. Chan, “Analytical Methods for Minimizing
Cogging Torque in Permanent-Magnet Machines,” in IEEE Transactions on Magnetics, vol.
45, no. 4, pp. 2023-2031, April 2009. DOI:10.1109/TMAG.2008.2011363.

R. Lateb, N. Takorabet, and F. Meibody-Tabar, “Effect of magnet segmentation on the
cogging torque in surface-mounted permanent-magnet motors,” in IEEE Transactions on
Magnetics, vol. 42, no. 3, pp. 442-445, March 2006. DOI:10.1109/TMAG.2005.862756.

N. Chen, S. L. Ho, and W. N. Fu, “Optimization of Permanent Magnet Surface Shapes
of Electric Motors for Minimization of Cogging Torque Using FEM,” in IEEE Transactions
on Magnetics, vol. 46, no. 6, pp. 2478-2481, June 2010. DOI:10.1109/TMAG.2010.2044764.

J. Ren, X. Wang, W. Zhao, and F. Liu, “Torsional Vibration Analysis and Optimization
Design of the Surface PM Synchronous Machine With Reduced Torque Ripple,” in IEEE
Transactions on Transportation Electrification, vol. 10, no. 3, pp. 5842-5852, Sept.
2024. DOI:10.1109/TTE.2023.3328196

X. Sun, N. Xu, and M. Yao, “Sequential Subspace Optimization Design of a Dual Three-Phase
Permanent Magnet Synchronous Hub Motor Based on NSGA III,” in IEEE Transactions on
Transportation Electrification, vol. 9, no. 1, pp. 622-630, March 2023. DOI:10.1109/TTE.2022.3190536

M. M. Ismail, W. Xu, X. Wang, A. K. Junejo, Y. Liu, and M. Dong, “Analysis and Optimization
of Torque Ripple Reduction Strategy of Surface-Mounted Permanent-Magnet Motors in
Flux-Weakening Region Based on Genetic Algorithm,” in IEEE Transactions on Industry
Applications, vol. 57, no. 4, pp. 4091-4106, July-Aug. 2021. DOI:10.1109/TIA.2021.3074609.

A. -C. Pop, Z. Cai, and J. J. C. Gyselinck, “Machine-Learning Aided Multiobjective
Optimization of Electric Machines Geometric-Feasibility and Enhanced Regression Models,”
in IEEE Journal of Emerging and Selected Topics in Industrial Electronics, vol. 4,
no. 3, pp. 844-854, July 2023. DOI:10.1109/JESTIE.2023.3252404

F. Mahmouditabar, A. Vahedi, M. R. Mosavi, and M. H. J. I. T. o. E. E.S. Bafghi, “Sensitivity
analysis and multi-objective design optimization of flux switching permanent magnet
motor using MLP‐ANN modeling and NSGA‐II algorithm,” vol. 30, no. 9, pp. e12511, 2020.
DOI:10.1002/2050-7038.12511

H. Sasaki, Y. Hidaka, and H. Igarashi, “Prediction of IPM Machine Torque Characteristics
Using Deep Learning Based on Magnetic Field Distribution,” in IEEE Access, vol. 10,
pp. 60814-60822, 2022. DOI:10.1109/ACCESS.2022.3179835.

K. Iwata, H. Sasaki, H. Igarashi, D. Nakagawa, and T. Ueda, “Generalization Performance
in Predicting Torque Characteristics Using Convolutional Neural Network and Stator
Magnetic Flux,” in IEEE Transactions on Magnetics, vol. 60, no. 3, pp. 1-4, March
2024. DOI:10.1109/TMAG.2023.3303458

Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” Nature, vol. 521, pp. 436–444,
May 2015 DOI:10.1038/nature14539

S Woo, J Park, JY Lee, IS Kweon, “Cbam: Convolutional block attention module,” Proceedings
of the European conference on computer vision (ECCV), 2018. DOI:10.48550/arXiv.1807.06521

저자소개
2020년 성균관대학교 전자전기공학부 학사졸업, 2020년~현재 성균관대 대학원 전자전기컴퓨터공학과 석박통합과정
Tel : 031-299-4918
E-mail : jth7515@gmail.com
2023년 명지대학교 전기공학과 학사졸업, 2023년~현재 성균관대 대학원 전자전기컴퓨터공학과 석박통합과정
Tel : 031-299-4918
E-mail : song5427@g.skku.edu
2020년 명지대학교 전기공학과 학사졸업, 2020년~현재 성균관대 대학원 전자전기컴퓨터공학과 석박통합과정
Tel : 031-299-4918
E-mail : kmhngw95@g.skku.edu
2003년 서울대학교 대학원 전기공학과 졸업, 공학 박사, 2003년~2006년 현대자동차 연구개발본부 선입연구원, 2006년~2011년 동아대학교
전기공학과 조교수, 2011년~현재 성균관대학교 전자전기공학부 교수
Tel : 031-299-4952
E-mail : syjung@skku.edu