• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Republic of Korea.)



CADx, Cat Skin Disease, Deep Learning, Image Augmentation, Grad-CAM

1. 서 론

고령화와 출산율 감소, 1인 가구 증가의 사회적 변화에 따라 반려동물을 기르는 가구가 증가하고 있다. KB금융그룹의 ‘2023 한국 반려동물 보고서’에 따르면 2022년 반려동물을 기르는 가구의 수는 552만 가구로, 지난 2020년 말 대비 2.8% 증가한 수치이며 전체 가구 수의 25.7%를 차지하는 것으로 나타났다[1]. 이러한 변화는 수의학 분야에서도 연구와 발전이 이루어지고 있으며, 반려동물의 건강과 복지에 대한 관심도 함께 높아지고 있다. 특히 고양이는 반려동물로서 인기가 높아지면서, 이들의 건강관리에 대한 필요성도 부각되고 있다. 고양이는 알레르기, 기생충 감염, 호흡기 질환 등 다양한 질병에 취약하며, 그중에서도 피부질환은 고양이에서 흔하게 발견되는 주요 질병 중 하나이다. 다음 그림 1은 반려묘에서 발생하는 주요 질병의 유병률을 나타낸다. 영국 왕립 수의과대학(Royal Veterinary College, RVC)이 진행하는 VetCompass Program의 데이터에 따르면 영국의 동물병원에서 진료받은 18,249마리의 반려묘 중 9.6%가 피부질환을 앓고 있는 것으로 나타났으며 이는 전체 질병 발생률 중 3위를 차지하고 있다[2].

그림 1. 반려묘에서 나타나는 주요 질병의 유병률

Fig. 1. Prevalence of Major Diseases in Companion Cats

../../Resources/kiee/KIEE.2025.74.2.339/fig1.png

이처럼 피부질환은 반려묘의 건강에 있어 중요한 문제 중 하나로, 초기에 발견하여 신속한 치료를 하는 것이 중요하다[3]. 그러나 피부질환은 초기 증상이 미약하거나 명확한 특징이 없어 정확한 진단이 어렵다. 만약 조기 발견을 못하였을 경우 상태가 악화되면서 고양이의 생존율에 영향을 미치게 된다. 결국 추가적인 검사가 필요하게 되고, 치료비 또한 증가하게 된다. 따라서 치료 과정이 길어질수록 비용 부담이 커지게 되고 이는 반려인의 경제적 부담을 줄 수 있다. 이를 해결하고자 본 연구에서는 딥러닝 기반의 반려묘 피부질환 컴퓨터 보조 진단 시스템을 개발하여 비염증성 및 염증성 병변을 각각 정상 이미지와 분류하고자 한다.

2. 관련 연구

최근 수의학 분야에서 반려묘를 대상으로 딥러닝 기술을 활용하여 연구가 이루어져 왔다. 기존 연구에서는 고양이의 활동을 탐지하고 건강 상태를 예측하기 위해 딥러닝 모델을 사용한 연구가 진행되었다[4]. FFT(Fast Fourier Transform)를 적용하여 주파수 영역으로 변환하여 특징을 추출하였으며, LSTM(Long Short-Term Memory) 기반 딥러닝 모델을 적용하여 F1-score 95.89%의 성능을 달성하였다. 또한 반려묘의 소리를 분석하여 고양이의 건강 상태를 분류하는 연구도 진행되었다[5]. 10개의 감정 및 행동 클래스로 구성된 고양이 소리 데이터를 스펙트로그램으로 변환한 후 특정 픽셀 위치를 변형시켜 구조를 왜곡하는 증대기법을 적용하였다. CNN 모델에 적용한 결과, 91.73%의 정확도를 달성하였다. 고양이의 흉부 방사선 이미지를 통해 방사선학적 소견을 자동으로 분류하는 연구 또한 진행되었다[6]. 원본 이미지를 Random Crop, Affine Transformation, Flip, Contrast를 통해 이미지를 증대시켰다. CNN 모델을 적용한 결과, InceptionV3 모델의 경우 81.8%의 정확도, ResNet50 모델의 경우 84.1%의 정확도를 달성하였다. 반려동물의 안구질환을 분류하기 위해 도메인 적대 학습을 적용한 연구도 진행되었다[7]. GRL(Gradient Reversal Layer)을 활용하여 다양한 촬영 환경에서 얻어진 반려동물의 안구 이미지에서 도메인 차이를 최소화하고 일관된 특징을 학습하였다. 개와 고양이의 안구질환 이미지를 Swin-Transformer 모델을 사용해 분류한 결과, 각각 86.2%와 73.2%의 정확도를 달성하였다. 또한 조직 슬라이드 이미지를 이용하여 고양이 림프종의 핵 크기를 분류하고, 위험도에 따른 유형을 구분하는 연구도 진행되었다[8]. Stardist 모델을 활용하여 이미지 내에서 겹치는 객체를 감지할 수 있는 인스턴스 분할 접근 방식을 사용하여 84.21%의 정확도를 달성하였다. 또한 전이 학습 방법을 통해 고양이 귀 진드기 질병을 분류하는 연구도 진행하였다[9]. 데이터 부족 문제를 해결하기 위해 이동, 크기 조정, 회전, 뒤집기, 확대, 밝기 및 대비 변경을 통해 이미지를 2,500배 증대하였으며, CNN 모델을 기반으로 전이 학습을 진행하였다. 모델을 적용한 결과 88%의 정확도로 고양이 귀의 외부 질환을 분류하였다. 이처럼 기존 연구들은 딥러닝 기술을 활용해 반려묘의 다양한 병리적 상태를 분석하는 연구가 진행되었으나, 피부병변 분석에 관한 연구는 상대적으로 부족하다. 특히 염증성 병변과 비염증성 병변은 치료 접근 방식이 다르므로, 이를 분류하고 분석하는 연구가 필요하다.

3. 본 론

본 연구에서는 병변을 비염증성 병변, 염증성 병변으로 나누고 이를 각각 정상 이미지와 이진 분류하는 연구를 진행하였다. 반려묘 피부질환 이미지의 다양성을 확보하고자 이미지 증대기법인 AutoAugment, Mixup, AugMix를 각각 적용하여 모델의 성능을 비교하였다. 또한 Grad-CAM을 적용하여 병변의 위치와 특징을 파악하여 모델의 관심영역을 시각화하였다.

3.1 데이터셋 구성

데이터 수집은 AI-Hub에서 제공된 ‘반려동물 피부질환 데이터셋’을 통해 이루어졌다[10]. 본 연구는 반려묘를 대상으로 하였기 때문에 반려묘 피부질환 데이터만을 사용하였다. 데이터셋은 코리안숏헤어, 러시안 블루, 노르웨이 숲, 페르시안, 스코티시폴드의 총 5종의 반려묘 품종으로 구성되어 있다. 나이는 1~17세까지 다양하게 분포되어 있으며, 성별 비율은 약 50%로 균등하게 이루어져 있다. 또한 데이터는 각 반려묘의 피부질환 부위를 중심으로 수집되었으며, 촬영된 부위는 머리, 몸통, 다리, 연접부로 구분되어 있다. 각 품종, 성별, 촬영 부위, 병변 유형에 따른 이미지 수와 비율은 표 1에 나타내었다. 피부 병변의 특성은 품종에 크게 의존하지 않기 때문에 품종별 불균형은 중요시하지 않았다. 본 데이터셋은 총 13,121장의 이미지가 사용되었으며, 훈련용, 검증용, 테스트용 데이터셋으로 각각 6:2:2 비율로 나누었다. 촬영된 이미지는 한 마리의 객체로부터 여러 장의 이미지가 수집될 수 있으므로 훈련용, 검증용, 테스트용 데이터셋 간 중복되지 않도록 분배하였다.

표 1 고양이의 품종, 성별, 촬영 부위, 병변 유형에 따른 이미지 수

Table 1 Number of Images by Cat Breed, Gender, Imaged Region, and Lesion

Type

Number of Images

Breed

Korean Shorthair

11,151 (85.0%)

Russian Blue

718 (5.5%)

Norwegian Forest Cat

528 (4.0%)

Persian

449 (3.4%)

Scottish Fold

275 (2.1%)

Gender

Male

6,294 (48.0%)

Female

6,827 (52.0%)

Imaged region

Head

6,136 (46.8%)

Body

3,097 (23.6%)

Leg

3,487 (26.6%)

Articulation

401 (3.0%)

Lesion

Non-inflammatory

4,373 (33.3%)

Inflammatory

4,374 (33.3%)

Normal

4,374 (33.3%)

3.2 EfficientNetV2

CNN은 이미지 내의 공간적 정보를 추출할 수 있는 구조를 가지고 있으며, 합성곱 층을 통해 이미지의 지역적인 정보와 특징을 추출하여 패턴 인식에 우수한 성능을 보인다. 피부 병변은 크기, 형태, 색상이 다양하게 나타날 수 있는데, 병변의 특정 부위에 나타나는 국소적 특징을 추출하기 위해, 본 연구에서는 CNN 기반의 EfficientNetV2 모델을 사용하였다[11].

EfficientNetV2는 EfficientNetV1의 개선된 버전으로 기존 모델의 장점을 유지하면서 학습 속도와 파라미터 효율성을 높이기 위해 설계된 모델이다[12]. 기존의 EfficientNetV1 모델은 NAS(Neural Architecture Search)로 설계된 모델로, Compound Scaling을 통해 성능을 향상하였다[13]. 하지만 높은 해상도와 네트워크 규모의 확장으로 인한 메모리 오버헤드가 발생하여 학습 속도가 느려지는 문제가 발생하였다. 이를 해결하고자 EfficientNetV2 모델은 MBConv 블록의 Depthwise Separable Convolution을 일반 convolution으로 대체한 Fused-MBConv 블록을 초기 레이어에 도입하여 연산 속도를 개선하였다. 또한 학습 과정에서 Progressive Learning을 도입하여 학습의 효율성을 한층 더 강화하였다. Progressive Learning은 모델이 작은 해상도의 이미지로 학습을 시작하여, 점차적으로 더 큰 해상도의 이미지로 학습을 이어가는 방식이다. 이를 통해 이미지의 해상도를 동적으로 조절함으로써, 초기에는 빠르게 수렴할 수 있도록 돕고, 이후에는 고해상도 이미지의 세부적인 특징을 학습할 수 있도록 하여 학습 속도와 성능을 모두 향상하였다. EfficientNetV2는 모델의 크기에 따라 S, M, L, XL로 구분된다. 본 연구에서는 증대된 데이터셋의 크기를 고려하여 EfficientNetV2-M 모델을 적용하여 학습을 진행하였다.

그림 2. EfficientNetV2 모델의 세부 구조

Fig. 2. Detailed model Structure of EfficientNetV2

../../Resources/kiee/KIEE.2025.74.2.339/fig2.png

3.3 이미지 증대기법을 통한 성능 향상 연구

의료 데이터는 일반적으로 데이터가 부족한 경우가 많아 딥러닝 모델의 학습에 어려움을 겪는다. 딥러닝 모델을 학습시키기 위해서는 대량의 데이터를 확보하는 것이 필수적이다. 충분한 양의 데이터가 있어야 모델이 다양한 패턴과 특성을 학습할 수 있으며, 이를 통해 일반화 능력을 갖춘 강건한 모델을 구축할 수 있다.

3.3.1 AutoAugment

AutoAugment는 데이터 증대 정책을 자동으로 탐색하고 최적화하는 방법으로 다양한 이미지 처리 기법을 조합한 여러 서브 정책을 포함한다[14]. 각 서브 정책은 두 가지의 증대기법을 조합하여 만들어지며, 일반적으로 25개의 서브 정책을 포함하고 있다. 이러한 서브 정책에는 Shear, Translate, Rotate, Equalize, Solarize, Contrast 등 16가지의 증대 방식을 포함하고 있으며, 각각 다른 확률 레벨과 강도 레벨로 적용된다. 이 두 가지의 파라미터는 각각 10단계와 11단계로 나뉘며, 증대기법이 데이터에 얼마나 자주 적용될지와 그 변형의 세기를 결정한다. 본 연구에서는 ImageNet 데이터셋을 대상으로 최적화된 AutoAugment의 서브 정책을 활용하여 원본 데이터셋을 25배 증대하여 실험을 진행하였다.

3.3.2 Mixup

Mixup은 학습 데이터의 두 샘플과 그 레이블을 선형 결합하여 새로운 학습 데이터를 생성하는 이미지 증대기법이다[15]. Mixup의 자세한 수식은 다음과 같다.

(1)
$\widetilde{x}=\lambda x_{i}+(1-\lambda)x_{j}$

$\widetilde{y}=\lambda y_{i}+(1-\lambda)y_{j}$

수식 (1)에 따르면 두 샘플 $x_{i}$와 $x_{j}$는 $\lambda$와 $1-\lambda$를 통해 결합되어 새로운 샘플 $\widetilde{x}$를 생성한다. 이때 해당 샘플의 레이블 또한 동일한 방식으로 결합 되어 새로운 레이블 $\widetilde{y}$가 생성한다. 두 샘플의 혼합비율을 조정하는 $\lambda$값은 Beta$(\alpha ,\: \alpha)$에서 추출된 값으로, 이 값은 [0, 1] 구간에서 확률적으로 결정된다. 여기서 $\alpha$값은 실험적으로 결정되며 $\alpha$값이 작을수록 $\lambda$값은 0 또는 1에 가까운 값을 가질 확률이 높아진다. 이는 두 샘플 중 하나가 상대적으로 더 많이 반영된 새로운 샘플이 생성되는 것을 의미한다. 의료 데이터는 중요한 특징을 보존하는 것이 중요하기 때문에 본 연구에서는 이미지의 고유한 특성을 유지할 수 있도록 $\alpha$값을 0.4로 조정하여 학습을 진행하였다.

3.3.3 AugMix

AugMix는 원본 이미지 $x_{orig}$에 대해 다양한 변형을 순차적으로 적용한 후, 이러한 변형된 이미지들을 결합하여 생성하는 방식이다[16]. 이 과정에서 각 변형은 무작위로 선택되어 직렬로 이미지에 차례로 적용되며, 이렇게 생성된 여러 개의 변형된 이미지들은 병렬로 결합되어 하나의 결합 이미지 $x_{aug}$가 생성된다. 결합 과정에서 변형된 이미지들은 Dirichlet 분포에서 무작위로 샘플링 된 값들로 결정된 가중치 $w_{k}$에 따라 혼합된다. 결합된 이미지 $x_{aug}$는 Beta(1, 1)에서 샘플링 된 가중치를 사용해 원본 이미지 $x_{orig}$와 혼합되어 최종적인 새로운 이미지가 생성된다. 이러한 단계들을 통해 생성된 최종 이미지는 여러 변형의 특징을 반영하면서도 원본 이미지와의 유사성을 유지하게 된다. 다음 그림 3은 AugMix에 대한 모식도를 나타내었다.

그림 3. AugMix 모식도: 다단계 증대기법을 통한 이미지 변환 과정

Fig. 3. AugMix Diagram: Image Transformation Process through Multiple Augmentation Operations

../../Resources/kiee/KIEE.2025.74.2.339/fig3.png

3.4 Grad-CAM을 통한 시각화

반려묘의 피부질환을 분류하는 데 있어, 딥러닝 모델을 활용한 접근은 높은 정확도로 병변을 예측하는 데 중점을 두고 있다. 그러나 피부질환의 경우, 병변의 위치와 그 특징이 진단에서 중요한 요소로 작용하기 때문에, 분류만으로는 임상적으로 충분한 정보를 제공하기 어렵다. 본 연구에서는 단순히 분류에 그치지 않고, 병변의 위치와 그 특징을 파악하여 관심 영역을 시각적으로 나타내는 Grad-CAM을 적용하였다[17]. Grad-CAM의 동작 원리는 신경망의 활성화 맵과 gradient를 기반으로 하며, 이는 다음 식 (2), (3)에 나타내었다.

(2)
$\alpha_{k}^{c}=\dfrac{1}{Z}\sum_{i}\sum_{j}\dfrac{\partial y_{c}}{\partial A_{ij}^{k}}$
(3)
$L_{{Grad}-{CAM}}^{c}= Re LU(\sum_{k}\alpha_{k}^{c}A^{k})$

먼저 Convolutional layer에서 k개의 특징맵인 $A_{k}$를 생성한다. 그 후 모델이 특정 클래스 c를 예측할 때 이 특징맵들이 예측에 얼마나 기여했는지를 평가하기 위해, 모델의 예측값 $y_{c}$에 대한 각 특징맵 $A_{k}$의 기여도를 나타내는 gradient를 계산한다. 이 gradient에 대해 Global Average Pooling을 수행하여 각 특징맵 $A_{k}$에 대한 가중치 $a_{k}^{c}$를 구한다. 최종적으로 $A_{k}$와 $a_{k}^{c}$ 선형 결합한 후, ReLU를 적용하여 양수 영향을 가진 부분만 시각화한다[18]. 본 연구에서는 EfficientNetV2 모델의 마지막 Convolution layer에서 추출된 특징맵에서 병변의 위치와 특징을 시각적으로 나타내었다.

3.5 모델 개발 및 검증 방법

본 연구에 사용된 EfficientNetV2 모델의 하이퍼파라미터는 배치 크기 8, optimizer는 AdamW를 사용하였으며, 학습률은 0.0001로 설정하여 학습을 진행하였다. 학습된 모델의 성능을 평가하고자 혼동행렬을 바탕으로 F1-score와 Accuracy(정확도)를 성능지표로 활용하였다. F1-score는 모델의 정밀도(Precision)와 재현율(Recall)의 조화 평균으로, 두 지표 간의 균형을 평가하는 데 사용된다. 정밀도는 모델이 양성으로 예측한 샘플 중 실제 양성인 샘플의 비율을 나타내며, 재현율은 실제 양성인 샘플 중 모델이 올바르게 예측한 샘플의 비율을 의미한다. Accuracy는 전체 데이터 중 정확하게 분류한 샘플의 비율이다. F1-score는 클래스 간 불균형이 존재할 때 유용한 지표지만, 본 연구에서는 각 클래스가 균등하게 구성된 데이터셋을 사용하였기 때문에 F1-score보다 Accuracy를 중점적으로 평가하였다. 자세한 수식은 식 (4), (5)에 나타내었다.

(4)
$F1-score=2\times\dfrac{Precision\times Recall}{Precision+ Recall}$
(5)
$Accuracy=\dfrac{TP+TN}{TP+FN+FP+TN}$

4. 연구 결과

4.1 모델 성능 평가 결과

다음 표 2는 정상과 비염증성 병변, 정상과 염증성 병변 두 유형의 데이터셋을 대상으로 각 이미지 증대기법에 따른 분류 성능 평가 결과를 나타낸다.

표 2 이미지 증대기법에 따른 성능 평가

Table 2 Performance Evaluation According to Image Augmentation Techniques

Method

Normal vs Non-inflammatory

Normal vs Inflammation

F1-score

Accuracy

F1-score

Accuracy

Original

0.7462

0.7462

0.9473

0.9474

AutoAugment

0.8467

0.8468

0.9704

0.9704

Mixup(α = 0.4)

0.7890

0.7891

0.9709

0.9709

AugMix

0.7728

0.7753

0.9719

0.9719

정상과 비염증성 병변의 경우, 원본 데이터셋을 적용한 모델의 성능은 0.7462의 정확도가 나왔다. 반면에 이미지 증대기법을 적용한 결과에서 모두 원본 데이터셋보다 향상된 성능을 보였다. AutoAugment를 적용하였을 경우 0.8468, Mixup을 적용하였을 경우 0.7891, AugMix를 적용하였을 경우 0.7753을 달성하였다. 특히, AutoAugment가 다른 기법들에 비해 우수한 성능을 보였음을 나타냄을 알 수 있다. 정상과 염증성 병변의 경우, 원본 데이터셋을 적용한 모델의 성능은 0.9474의 정확도가 나왔으며, AutoAugment를 적용하였을 경우 0.9704, Mixup을 적용하였을 경우 0.9709, Augmix를 적용하였을 경우 0.9719를 달성하였다. 세 가지 증대기법이 모두 유사한 성능 향상을 보였지만 AugMix가 가장 높은 것을 알 수 있다.

두 유형의 데이터셋 모두 원본 데이터셋을 적용한 모델보다 이미지 증대기법을 적용한 모델이 분류 성능 향상에 효과적이었으며, 데이터셋의 특성에 따라 최적의 증대기법이 다를 수 있음을 알 수 있다. 비염증성 병변은 시각적 차이가 미세하기 때문에, 작은 차이를 정교하게 반영할 수 있는 이미지 증대기법이 필요하다. AutoAugment는 이러한 필요성을 충족시켜 최고의 성능을 보였으며, 이는 다양한 증대 정책이 비염증성 병변의 미세한 특징을 더 정밀하게 학습할 수 있도록 도왔기 때문이다. 염증성 병변은 특징이 명확하여 이미지의 주요 정보가 잘 보존되어 있다. AugMix는 다양한 변형을 적용하면서도 원본 이미지와의 주요 특징을 유지할 수 있는 장점을 활용하기 때문에 높은 성능을 달성하였으며, 이는 모델이 염증성 병변에 대해 일관된 성능을 유지할 수 있도록 한 것으로 보인다.

4.2 Grad-CAM을 통한 병변 시각화

본 연구에서는 반려묘의 피부질환 분류뿐만 아니라 병변의 위치를 시각화하고자 Grad-CAM을 적용하였다. 그림 4는 Grad-CAM을 통한 병변의 시각화 결과를 보여준다. 모델이 예측한 병변의 위치는 실제 병변 위치와 대체로 일치하였으며, 이를 통해 모델이 피부질환을 분류하는 과정에서 중요한 특징을 올바르게 인식하고 있음을 확인할 수 있다. 또한 Grad-CAM을 통해 모델의 예측 결과를 분석하고, 병변 부위에 대한 추가적인 신뢰도를 제공할 수 있다. 하지만 Grad-CAM의 시각화 결과는 모델이 특정 영역에 주목하는 정도를 넓게 분포된 형태로 표현하기 때문에, 병변의 정확한 위치를 정밀하게 식별하는 데 있어 제한적일 수 있다.

그림 4. Grad-CAM을 통한 피부병변 시각화

Fig. 4. Skin Lesion Visualization using Grad-CAM

../../Resources/kiee/KIEE.2025.74.2.339/fig4.png

5. 결 론

본 연구에서는 반려묘 피부질환 데이터셋을 활용해 비염증성 병변과 염증성 병변으로 나누고 이를 정상 이미지와 이진 분류하는 컴퓨터 보조 진단 시스템을 개발하였다. 병변의 패턴을 다양화하고, 모델의 강건성을 강화하기 위해 이미지 증대기법을 적용하였다. 비염증성 병변을 대상으로 분류한 결과, AutoAugment를 적용했을 때 원본 데이터셋 대비 10.06% 향상된 0.8468의 정확도로 가장 우수한 성능을 보였다. 염증성 병변을 대상으로 분류한 결과, AugMix를 적용하였을 때 원본 데이터셋 대비 2.45% 향상된 0.9719의 정확도로 가장 우수한 성능을 보였다. 두 유형의 데이터셋 모두에서 이미지 증대기법을 적용한 결과 원본 데이터셋보다 성능이 향상되었으며, 이를 통해 이미지 증대기법은 모델의 성능 향상에 효과적임을 볼 수 있다. 또한 Grad-CAM을 적용하여 모델이 각 병변을 식별하는 과정을 시각화함으로써, 모델이 관심 영역에 집중하고 있음을 확인하였다. 이를 통해 단순히 분류에 그치지 않고 수의사에게 병변의 위치와 평가해야 할 영역에 대한 중요한 정보를 제공할 수 있다.

하지만 본 연구에서는 염증성 및 비염증성 병변의 이진 분류에 초점을 두어 진행되었으나, 실제 임상에서는 병변을 세분화하여 진단하는 데 어려움이 있다. 향후 연구에서는 이진 분류 시스템을 확장하여 멀티클래스 분류 시스템을 개발할 예정이다. 또한 본 연구에서는 이미지 증대기법을 적용하였으나, 그에 따른 최적의 파라미터를 완전히 찾았다고 볼 수 없다. 향후 연구에서는 각 기법에 따른 최적의 파라미터를 체계적으로 조정하여, 모델의 성능을 고도화하는 연구를 진행할 예정이다. Grad-CAM을 적용하여 병변을 시각화했으나 정확한 경계를 구분하는 데 한계가 있다. 이러한 문제를 개선하고자 이미지 분할 기법을 적용하여 병변의 정확한 영역을 분리하는 추가연구를 할 예정이다.

Acknowledgements

This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872) and was supported by "Regional Innovation Strategy (RIS)" through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2022RIS-005) and was supported by the National research Foundation of Korea(NRF) grant funded by the Koreaa government(MSIT) (RS-2023-00242528).

References

1 
KB Financial group “2023 Korea Pet Report,” 2023.URL
2 
D. G. O’Neill, et al., “Commonly diagnosed disorders indomestic cats in the UK and their associations with sex and age,” Journal of Feline Medicine and Surgery, vol. 12(1), 2023. https://doi.org/10.1177/1098612X231155016DOI
3 
L. J. Vogelnest, “Skin as a marker of general feline health: cutaneous manifestations of systemic disease,” Journal of feline medicine and surgery, vol. 19, no. 9, pp. 948-960, 2017. https://doi.org/10.1177/1098612X177232DOI
4 
A. Hussain, S. Ali, M. I. Joo & Kim. H. C, “A Deep Learning Approach for Detecting and Classifying Cat Activity to Monitor and Improve Cat's Well-being using Accelerometer, Gyroscope, and Magnetometer,” IEEE Sensors Journal, pp. 1996-2008, 2023. https://doi.org/10.1109/JSEN.2023.3324665DOI
5 
L. Nanni, G. Maguolo & M. Paci, “Data augmentation approaches for improving animal audio classification,” Ecological Informatics, vol. 57, article no. 101084, 2020. https://doi.org/10.1016/j.ecoinf.2020.101084DOI
6 
T. Banzato, M. Wodzinski, F. Tauceri, C. Donà, F. Scavazza, H. Müller & A. Zotti, “An AI-based algorithm for the automatic classification of thoracic radiographs in cats,” Frontiers in veterinary science, vol. 8, article no. 731936, 2021. https://doi.org/10.3389/fvets.2021.731936DOI
7 
M. G. Nam & S. Y. Dong, “Classification of companion animals' ocular diseases: Domain adversarial learning for imbalanced data,” IEEE Access, vol. 11, pp. 143948-143955, 2023. https://doi.org/10.1109/ACCESS.2023.3344579DOI
8 
A. Haghofer, A. Fuchs-Baumgartinger, K. Lipnik, R. Klopfleisch, M. Aubreville, J. Scharinger & C. A. Bertram, “Histological classification of canine and feline lymphoma using a modular approach based on deep learning and advanced image processing,” Scientific Reports, vol. 13, no.1, article no. 19436, 2023. https://doi.org/10.1038/s41598-023-46607-wDOI
9 
A. M. Bapi, N. Nabi, S. A. R. Shuvo, P. Chakraborty & S. A. Khushbu, “CatEarMites: An Approach of Detecting Ear Mites of Cat Using Convolutional Neural Network,” Proceedings of the 2022 13th International Conference on Computing Communication and Networking Technologies (ICCCNT), 2022. https://doi.org/10.1109/ICCCNT54827.2022.9984559DOI
10 
AI Open Innovation Hub, “Pet Skin Disease data,” http://www.aihub.or.kr/URL
11 
M. Tan, Q. Le, “EfficientNetV2: Smaller Models and Faster Training,” arXiv preprint arXiv:2104.00298, 2021.DOI
12 
M. Tan, Q. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” arXiv preprint arXiv:1905.11946, 2019.URL
13 
B. Zoph & Q. V. Le, “Neural architecture search with reinforcement learning,” arXiv preprint arXiv:1611.01578, 2016. https://doi.org/10.48550/arXiv.1611.01578DOI
14 
E. D. Cubuk, B. Zoph, D. Mane, V. Vasudevan and Q. V. Le, “Autoaugment: Learning augmentation strategies from data,” In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 113-123, 2019.URL
15 
H. Zhang, M. Cisse, Y. N. Dauphin & D. Lopez-Paz, “mixup: Beyond empirical risk minimization,” arXiv preprint arXiv:1710.09412, 2017. https://doi.org/10.48550/arXiv.1710.09412DOI
16 
D. Hendrycks, N. mu, E. D. Cubuk, B. Zoph, J. Gilmer & B. Lakshminarayanan, “Augmix: A simple data processing method to improve robustness and uncertainty,” arXiv preprint arXiv:1912.02781, 2019. https://doi.org/10.48550/arXiv.1912.02781DOI
17 
R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh & D. Batra, “Grad-cam: Visual explanations from deep networks via gradient-based localization,” In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 618-626, 2017.URL
18 
A. F. Agarap, “Deep Learning using Rectified Linear Units (ReLU),” arXiv preprint arXiv:1803.08375, 2018. https://doi.org/10.48550/arXiv.1803.08375DOI

저자소개

원형식(Hyeong-sik Won)
../../Resources/kiee/KIEE.2025.74.2.339/au1.png

Hyeong-sik Won currently working toward B.S and M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

조현종(Hyun-chong Cho)
../../Resources/kiee/KIEE.2025.74.2.339/au2.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in electrical and computer engineering from the University of Florida, USA, in 2009. During 2010–2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA. From 2012 to 2013, he was a Chief Research Engineer at LG Electronics, South Korea. He is currently a Professor at the Department of Electronics Engineering, the Department of Data Science, and Interdisciplinary Graduate Program for BIT Medical, Kangwon National University, South Korea.