• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)



Defect analysis, Semiconductor, Deep learning, Grad-CAM

1. 서 론

통계청에서 발표한 국내 수출통관자료에 따르면 반도체는 국내 10대 수출입 품목으로 2013년부터 2021년까지 수출액 1위를 차지하고 있다(1). 또한, 그림 1을 보면 2021년도 기준으로 반도체 수출액은 상위 10대 품목 중에서 35%를 차지할 정도로 반도체 산업이 국내 무역경제에 직접적으로 영향을 줄 수 있는 산업 분야임을 알 수 있다. 국내 반도체의 경쟁력을 높이기 위해선 고품질의 제품뿐만 아니라 수율의 향상이 필수적으로 요구된다. 수율이란 웨이퍼 한 장에 설계된 최대 칩의 개수 대비 생산된 정상 칩의 비율을 의미하고, 이는 기업의 수익성과 경쟁력을 대변하는 주된 지표로 활용된다.

일반적으로 반도체는 8대 공정이라 불리는 일련의 과정을 통해 제작되고 그중 EDS(Electric Die Sorting) 공정은 개별 칩들의 품질 적합도를 판단하는 공정으로 반도체 제작에 있어 필수적인 공정에 해당한다. EDS 공정을 거친 후 웨이퍼 맵에는 각 칩에 대한 불량 여부를 표시한 WBM(Wafer Bin Map)이 결과물로서 도출되고 WBM에는 불량 원인에 따라 불량 칩의 분포 패턴이 존재한다. 따라서, WBM의 불량 패턴을 분석한다면 향후 발생될 불량 예측이 가능하고 제조공정 중 문제가 생긴 부분을 집중적으로 점검할 수 있을 것이다. 여러 분석 방법 중에서 전문가의 육안을 통한 방법은 높은 정확도를 가질 수 있다. 하지만, 개인의 주관이 개입되어 일관된 분석이 어렵고 생산되는 반도체의 수량을 고려할 때 육안을 통한 분석 방법은 비효율적이라 볼 수 있다.

하드웨어가 발전함에 따라 많은 연산량을 요구하는 인공지능의 연구는 가능해졌고, 그 결과 이미지의 소속 클래스를 구분하는 분류(Classification) 연구, 실시간으로 객체를 탐지하고 위치를 파악해주는 객체 탐지(Object detection), 이미지 내 객체를 분할하는 분할(Segmentation) 연구가 활발히 이루어지고 있다. 이 중에서 객체 탐지 연구와 분할 연구의 경우, 딥러닝이 예측한 정보와 실제 객체의 정보 차이를 연산하며 성능을 고도화하는 방식이기에 분류 연구에 비해 데이터 수집과정에 많은 인력과 시간이 소요된다. 또한, 웨이퍼맵 불량분석은 제조기업의 공정상 결함을 직접적으로 포함하고 있는 데이터이기에 수집 자체에 제한이 존재하고 객체의 클래스 분류뿐만 아니라 불량 패턴의 위치정보까지 라벨링 된 데이터 수집은 현실적으로 어렵다 볼 수 있다. 따라서 대부분의 기존 연구는 Kaggle의 공용 데이터셋인 WM-811K를 통해 연구를 수행하며 그중 분류 연구를 중심으로 연구되었다.

WM-811K 데이터셋을 활용한 분류 연구는 주로 CNN (Convolutional Neural Network) 구조를 채택하여 수행되어왔다[3, 4, 5, 6]. 이때, 직접 설계한 CNN 구조를 활용한 연구와 기존에 존재하는 모델에 Transfer learning을 수행하는 연구가 존재한다. 이 중 WM-811K 데이터셋을 활용한 국내 연구는 기존에 인지한 패턴 종류뿐만 아니라 신규 불량 패턴 감지가 가능한 액티브 러닝을 적용하였다. 액티브 러닝을 적용한 CNN의 분류 성능은 0.8156의 F1-score를 보이며 신규 불량 패턴이 언제든 발생할 수 있는 산업현장에서 준수한 성능으로 활용될 수 있음을 보였다. 또한, 불균형 데이터 문제를 해결할 방법으로 점진적 데이터 평준화 방법을 제안한 국내 논문도 존재한다(7). 이는 원본 데이터셋으로 학습된 모델로 라벨이 없는 데이터에 대해 임시 라벨을 부여하여 데이터를 증대하는 방법으로, 이를 통해 기존 0.7119의 정확도에서 0.7726의 정확도로 향상된 성능을 보이며 라벨이 없는 데이터의 활용 방안을 제시하였다. 이처럼 CNN 구조를 채택한 기존 연구의 분류 성능을 보면 딥러닝을 활용한 웨이퍼 맵 불량분석이 높은 정확도와 더불어 빠른 속도로 불량 분석이 가능함을 알 수 있다. 또한, WM-811K 데이터셋의 특징으로 클래스 간 이미지 개수 차이가 명확하게 존재한다는 점이다. 이러한 문제점은 딥러닝 모델의 정확한 학습을 방해할 가능성이 존재하므로 이를 해결하기 위한 연구도 진행되었다.

데이터 불균형을 해결할 방법 중 한 가지로 GAN (Generative Adversarial Network)를 활용한 연구가 수행되었다(8,9). GAN의 장점은 원본 불량 이미지와 유사한 증대 이미지를 생성해 낼 수 있다는 점이다. 기존 연구는 GAN을 활용하여 클래스별 개수 불균형 문제를 일정 부분 해결할 수 있었고 GAN의 활용뿐만 아니라 기하학적 증대기법인 Flip, Rotate 등을 적용하여 추가적인 성능 향상을 이루어 낼 수 있었다.

일반적으로 분류 문제는 한 이미지에 한 가지의 불량 패턴만이 존재한다는 가정하에 연구가 진행된다. 하지만 실제 제조 공정에서 만들어지는 불량 패턴은 한 웨이퍼맵 내에 다수의 불량 패턴이 존재할 수 있기에 이를 해결하고자 한 연구도 존재한다(10,11). 기존 연구에서는 불량 패턴의 특징을 강조하기 위해 모폴로지 연산을 수행하거나 Template matching 알고리즘, Flood fill 알고리즘 등을 적용하여 다수의 불량 패턴을 효과적으로 분리 및 분류할 수 있었다.

기존에 수행된 웨이퍼맵 불량 분석 연구를 살펴보면 데이터 증대를 진행하여 분류 성능의 향상은 이뤄냈지만, 대다수의 연구가 불량의 위치에 대해서는 파악하지 않는다. 하지만 공정상의 문제를 파악하고 조치 및 점검을 수행하기 위해서는 불량 클래스의 분류뿐만 아니라 불량이 위치한 영역의 정보를 파악해야 한다.

본 논문에서는 WM-811K 데이터셋을 활용하여 연구를 진행하였고 CNN 구조의 EfficientNetV2를 전이학습하여 불량 분류를 진행하였다. 학습 시 부족한 클래스의 데이터를 보완하기 위해 Rotation, Flip 등의 영상처리적 증대기법을 활용하여 데이터셋을 증대하였다. 또한, 기존 연구에서 수행되지 않았던 불량 패턴의 위치정보 파악을 위해 Grad-CAM(Gradient-weighted Class Activation Map)을 활용하여 딥러닝 모델이 판단에 근거로 한 불량 패턴의 위치를 시각화하였다.

2. 본 론

2.1 WM-811K

본 연구에서 사용한 WM-811K 데이터셋은 9가지 클래스(Center, Donut, Edge-Loc, Edge-Ring, Loc, Near-full, None, Random, Scratch)로 구성된 WBM 데이터 셋으로 데이터 수집이 어려운 반도체 불량분석에 주로 사용되는 공용 데이터셋이다. 본 데이터셋의 클래스별 예시 이미지를 그림 2에 나타내었다. WM-811K 데이터셋에서 불량 패턴이 존재하지 않는 정상 클래스는 147,131장이지만 가장 적은 클래스는 Near-full로 총 149장의 이미지가 존재한다. 이처럼 본 데이터셋은 클래스 간 데이터 수가 불균형을 이루고 있음을 알 수 있다. 클래스별 자세한 이미지 장 수는 그림 3에 나타내었다. 정상 클래스의 개수가 다른 클래스에 비해 압도적인 장 수를 보이는 상황에서 학습을 진행한다면 전체 클래스에 대한 정확한 학습이 이루어지지 않을 가능성이 존재한다. 따라서 정상 이미지를 제외한 나머지 클래스의 평균 개수인 약 3,200장만을 정상 클래스에서 랜덤으로 추출하여 학습 데이터 셋으로 활용하였다.

그림 2 WM-811K 데이터셋

Fig. 2 WM-811K dataset

../../Resources/kiee/KIEE.2023.72.4.553/fig2.png

그림 3 WM-811K 데이터셋 분포 그래프

Fig. 3 Distribution graph of WM-811K dataset

../../Resources/kiee/KIEE.2023.72.4.553/fig3.png

2.2 데이터셋 증대

학습을 위해 사용되는 이미지는 딥러닝 모델의 분류 성능을 결정하는 주된 요인에 해당한다. 적은 수의 데이터, 노이즈가 심한 이미지의 경우 딥러닝 모델의 이미지 내 특징 학습을 방해하여 가중치의 수렴을 어렵게 한다.

그림 4 이미지 증대 예시

Fig. 4 Sample of image augmentation

../../Resources/kiee/KIEE.2023.72.4.553/fig4.png

따라서 데이터 증대를 충분히 수행한다면 딥러닝 모델은 학습 시 다양한 케이스의 불량 패턴을 학습하므로 과적합을 방지할 수 있고 결과적으로 향상된 분류 성능을 달성할 수 있을 것이다. 영상처리적 기법을 활용하여 증대하는 경우 대표적으로 Shift, Flip, Rotate 등을 활용할 수 있지만 Shift를 활용한 증대는 적용되는 강도에 따라 이미지 내 특징의 존재를 훼손, 제거할 수 있기에 본 연구에서는 그림 4와 같이 Flip, Rotate만을 활용하여 증대를 진행하였다.

2.3 EfficientNetV2

CNN은 이미지 내 지역적인 정보의 특징을 컨볼루션 연산을 통해 학습하는 것에 우수한 성능을 보이는 구조이다. 본 연구에서 활용하는 WM-811K 데이터셋은 이미지 내 일정 영역에 불량 패턴이 존재하기에 CNN 구조를 통한 원활한 학습이 가능하다고 판단되어 본 연구의 분류 네트워크 구조로 CNN을 채택하였다. CNN은 파라미터 수 감소, 분류 성능의 고도화 등 개발자의 목적에 따라 설계된 여러 구조가 존재하고, 대다수의 구조는 개발자의 사전 지식과 경험에 의존하여 설계되었다. 하지만 인공지능의 학습이 진행됨에 따라 단순한 이미지 학습뿐만 아니라 CNN의 구조조차 딥러닝 모델의 학습을 통해 설계하고자 하는 NAS(Neural Architecture Search) 연구가 이루어졌다(12). 기존 개발자의 경험과 지식에 의존하던 설계 방식은 파라미터의 효율성을 최적화하는것에 어려움이 존재하였고 이는 곧 딥러닝 모델의 연산량을 증가시키는 요인이 되었다. 하지만 NAS를 통해 적은 파라미터로 최대한의 효율을 내는 설계가 가능해졌고 이로 인해 EfficientNetV2가 설계되었다(13). EfficientNetV2은 EfficientNetV1을 Backbone으로 설정하고 Training-NAS를 통해 레이어 구조가 설계되었다. EfficientNetV1과의 차이점은 초기 레이어의 변경이다. EfficientNetV1의 MBConv에는 Detphwise Separable Convoltion이 포함되어 있다. 이는 이론적으로는 Convolution에 비해 연산량을 감소시키는 효과가 있지만, 실제 실행시간(Runtime)에 대한 실험 결과로 초기 레이어에서는 일반 컨볼루션 연산이 Depthwise Separable Convolution보다 빠른 연산을 보였다. 따라서 EfficientNetV2는 MBConv의 Depthwise Convolution을 일반 Convolution으로 변경한 Fused-MBConv를 초기 레이어에 배치하여 연산속도를 향상시키는 구조를 설계하였다. 그림 5에는 EfficientNetV2의 레이어 구조와 본 연구의 전체적인 분류 흐름도를 나타내었다.

또한, EfficientNetV2에는 2017년 ImageNet 대회에서 우승을 차지한 모델인 SENet(Squeeze-and-Excitation Netwrok)의 아이디어인 SE Block을 적용하였다(14). SE Block은 컨볼루션 연산을 진행하여 생성되는 특징맵의 채널 간 상대적 중요도를 학습에 활용하는 방법으로 연산량을 크게 상승시키지 않으면서 성능을 향상시킬 수 있는 방법이다. EfficientNetV2는 모델의 크기에 따라 S, M, L 버전이 존재하고 본 연구 데이터셋의 규모와 증대 후 생성될 데이터셋의 크기를 고려하여 가장 큰 크기의 모델인 EfficientNetV2-L로 학습을 진행하였다.

그림 5 EfficientNetV2 레이어 구조

Fig. 5 Layer structure of EfficientNetV2

../../Resources/kiee/KIEE.2023.72.4.553/fig5.png

2.4 Grad-CAM

딥러닝에 필요한 연산을 감당할 만큼 하드웨어의 성능이 발전됨에 따라 딥러닝 연구는 매우 빠른 속도로 진행되어왔다. 그 결과 딥러닝 모델은 분류, 객체 탐지, 분할, 이미지 생성 등 여러 분야에서 우수한 성능을 보이고 있지만 우수한 성능이 도출되는 이유에 대해 명확한 분석이 어렵다. 은닉층에서 일어나는 복잡한 연산은 블랙박스라 불리며 직관적으로 이해하기 어렵기 때문이다. 따라서 딥러닝 모델이 판단한 근거를 시각적으로 표현하고자 CAM(Class Activation Map)에 관한 연구가 진행되었다(15). CAM은 딥러닝 모델의 판단 근거를 히트맵을 통해 시각적으로 표현하는 방법으로 모델 끝단의 GAP(Global Average Pooling) 계층을 활용하여 특징맵을 시각화하는 방법이다. 하지만 CAM은 딥러닝 모델에 GAP 계층이 없다면 적용할 수 없다는 단점이 존재하고 맨 마지막 레이어의 시각화만 가능하기에 딥러닝 모델의 전반적인 학습과정을 표현할 수 없다. 이를 해결하기 위해 GAP 계층을 사용하지 않고 역전파 시 발생하는 그레디언트를 활용한 Grad-CAM이 등장하였다(16). Grad-CAM의 자세한 원리는 다음과 같다. 시각화할 레이어에 존재하는 k개의 특징맵 $A^{k}$를 구한다. 그 후 모델이 클래스 c라 예측한 값인 $y_{c}$로 역전파를 수행하게 되고 $A^{k}$의 각 픽셀이 $y_{c}$를 결정하는 데에 어느 정도의 영향을 미쳤는지에 대해 계산하게 된다. 최종적으로 생성된 $A^{k}$의 그레디언트 맵에 GAP를 수행하면 각 특징맵이 모델의 최종 예측에 영향을 끼친 정도를 나타내는 $\alpha_{k}$를 구할 수 있다. 결과적으로 모든 채널의 $A^{k}$와 특징맵의 중요성을 의미하는 $\alpha_{k}$를 곱한 후 양의 값만 추출하기 위해 ReLU를 적용하면 클래스 c에 대한 Grad-CAM 결과 $L_{c}$를 얻는다. Grad-CAM을 계산하는 자세한 수식은 식 (1), (2)에 나타내었다.

(1)
$\alpha_{k}^{c}=\dfrac{1}{Z}\sum_{i}\sum_{j}\dfrac{\partial y^{c}}{\partial A^{k}_{ij}}$

(2)
$L_{Grad-CAM}^{c}= Re LU(\sum_{k}\alpha^{c}_{k}A^{k})$

Grad-CAM은 마지막 레이어뿐만 아니라 중간 레이어에서도 관심영역을 시각화하여 학습의 진행 정도를 파악할 수 있지만, 불량의 위치를 정확히 파악하기 위해서는 모든 레이어의 정보를 함축적으로 포함하고 있는 마지막 레이어의 관심영역을 시각화하는 것이 불량 위치 파악에 유리하다. 따라서 본 연구에서는 EfficientNetV2의 마지막 레이어가 가진 관심영역을 시각화하여 불량의 위치를 파악하고자 하였다.

3. 연구결과

본 연구에서 딥러닝 모델의 학습과 테스트에 사용된 데이터셋 비율은 일반적으로 사용되는 8:2 비율로 분배되었다. 분배된 원본 데이터셋의 구성과 증대 데이터셋에 대한 자세한 구성은 표 1에 나타내었다.

표 1 원본 데이터셋과 증대 데이터셋의 구성

Table 1 Configuration of original dataset and augmented dataset

../../Resources/kiee/KIEE.2023.72.4.553/tbl1.png

표 1을 보면 다른 클래스에 비해 상대적으로 개수가 적은 Donut, Near-full, Random, Scratch에 대해 증대를 진행함으로써 딥러닝 모델이 충분한 불량 패턴 특징 학습을 수행할 수 있도록 하였다. Loc 클래스는 다른 클래스에 비해 불량 패턴이 불규칙적인 특징을 가지기에 학습이 어려운 점을 고려하여 증대 대상으로 선정되었다.

본 연구에서는 학습된 딥러닝 모델의 성능 평가를 위한 지표로 혼동행렬을 기반으로 하여 Precision, Recall, F1-score, Accuracy를 활용하였다. Precision은 모델이 예측한 불량 클래스 중 정확히 분류한 불량의 비율을 의미하고 Recall은 전체 불량 클래스 중 모델이 정확히 분류한 비율을 나타내어 딥러닝 모델이 불량 분석 중 정확히 분류하지 못한 비율을 알 수 있다. Precision과 Recall은 Trade-off 관계로 한 평가지표에 편향된 성능을 방지하기 위해 Precision과 Recall의 조화평균인 F1-Score를 평가지표로써 활용하였다. Accuracy는 전체 클래스에 대해 모델이 정확히 평가한 비율을 나타낸다. 각 평가 지표에 대한 자세한 수식은 식 (3), (4), (5), (6)에 나타내었고 표 2에는 학습과 테스트의 실험환경을 나타내었다.

표 2 사용된 하드웨어 및 실험환경

Table 2 Configuration of hardware and experiment environment

../../Resources/kiee/KIEE.2023.72.4.553/tbl2.png

(3)
$Precision=\dfrac{TP}{TP +FP}$

(4)
$Recall=\dfrac{TP}{TP +FN}$

(5)
$F 1- score=2\times\dfrac{Precision\times Recall}{Precision+Recall}$

(6)
$Accuracy=\dfrac{TP +TN}{TP +FN +FP +TN}$

표 3 성능 평가 결과

Table 3 Result of performance

../../Resources/kiee/KIEE.2023.72.4.553/tbl3.png

표 3은 원본 데이터셋으로 학습한 모델과 증대 데이터셋으로 학습한 모델의 분류 성능 결과를 보여준다. 영상처리적 기법을 통해 데이터 개수 불균형을 보완한 딥러닝 모델이 모든 평가지표면에서 향상된 분류 성능을 보임으로써 데이터 증대가 분류 성능 향상에 효과적인 방법이었음을 알 수 있다.

본 연구에서는 불량패턴의 분류뿐만 아니라 Grad-CAM을 활용하여 불량의 위치를 시각화하고자 하였다. 그림 6은 Center 불량 클래스에 대한 Grad-CAM 결과를 보여준다. 불량의 영역을 시각화한 결과 이미지의 중앙 부분에 관심영역이 존재하는 것을 알 수 있다. 이를 통해 Grad-CAM을 활용한 불량 위치 시각화는 기존에 전문가가 불량 패턴의 위치를 수동적으로 라벨링하는 작업을 대신하여 적용될 수 있음을 알 수 있다. 하지만 관심영역이 모든 불량 영역을 포함하지 않고 대략적인 영역에만 존재하기에 정밀한 위치 파악을 위해선 추가적인 연구가 요구된다.

그림 6 Grad-CAM을 통한 불량위치 시각화

Fig. 6 Visualization of defect region using Grad-CAM

../../Resources/kiee/KIEE.2023.72.4.553/fig6.png

4. 결 론

본 논문은 공용 데이터셋인 WM-811K 데이터셋을 활용하여 불량 패턴 분류 및 불량 위치 시각화 연구를 진행하였다. 분류를 위한 딥러닝 모델로 EfficientNetV2를 전이학습하여 활용하였고 데이터셋의 클래스 간 불균형을 해결하고자 Flip, Rotate 등의 영상처리적 기법을 활용하여 분류 성능의 향상을 이루고자 하였다. 증대과정을 거친 후 모델의 성능을 테스트한 결과로 Recall이 0.925, Accuracy가 0.944의 성능을 보이며 원본 데이터셋으로 학습한 딥러닝 모델보다 상대적으로 높은 성능을 보였다. 하지만 성능의 향상 정도가 크지 않다는 점에서 증대 과정에서 개선할 점이 남아있다. 또한, Grad-CAM을 활용하여 관심영역의 시각화를 진행한 결과 불량 패턴의 위치에 가중치가 높은 관심영역이 나타나는 것을 알 수 있다. 하지만 딥러닝 모델은 전체 영역을 보는 것이 아닌 지역적인 특징만으로도 분류를 수행할 수 있기에 Grad-CAM의 결과가 불량의 모든 영역을 포함하지 않을 수 있다. 따라서 불량 패턴의 정확한 위치 정보를 파악하기 위해선 Grad-CAM뿐만 아니라 추가적인 후처리 과정을 수행해야 할 것이다. 향후 연구에서는 추가 성능 향상을 위해 GAN을 활용한 불량 패턴의 다양화를 진행할 것이다. 또한, 불량 영역의 불완전한 시각화는 Grad-CAM의 다중 객체 인식 부족 및 Confident decision을 보완한 Ablation-CAM를 적용하여 불량 영역의 완전한 시각화를 시도할 것이다.

Acknowledgements

This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872) and was supported by Korea Institute for Advancement of Technology(KIAT) grant funded by the Korea Government(MOTIE) (P0020966, HRD Program for Industrial Innovation).

References

1 
Korean Statistics Information Service, Top 10 import and export items in 2021Google Search
2 
U. Batool, M. I. Shapiai, M. Tahirb, Z. H. Ismail, N. J. Zakaria, A. Elfakharany, 2021, A systematic review of deep learning for silicon wafer defect recognition, IEEE Access 9, pp. 116572-116593DOI
3 
M. Saqlain, Q. Abbas, J. Y Lee, 2020, A deep convolutional neural network for wafer defect identification on an imbalanced dataset in semiconductor manufacturing processes, IEEE Transactions on Semiconductor Manufacturing, Vol. 33, No. 3, pp. 436-444DOI
4 
U. Batool, M. I. Shapiai, H. Fauzi, J. X. Fong, 2020, Convolutional neural network for imbalanced data classification of silicon wafer defects, 2020 16th IEEE International Colloquium on Signal Processing & Its Applications (CSPA). IEEEDOI
5 
K. Maksim, B. Kirill, Z. Eduard, G. Nikita, B. Aleksandr, L. Arina, S. Vladislav, M. Daniil and K. Nikolay, 2019, Classification of wafer maps defect based on deep learning methods with small amount of data, 2019 International Conference on Engineering and Telecommunication (EnT). IEEEDOI
6 
Sung Jin Hwang, Insung Baek, Seoung Bum Kim, 2020, Active Learning for Detecting New Defect Patterns in Wafer Bin Maps, Journal of the Korean Institute of Industrial Engineers, Vol. 48, No. 2, pp. 163-175Google Search
7 
Jeonghyeok Do, Munchurl Kim, 2020, Wafer Map Defect Pattern Classification with Progressive Pseudo-Labeling Balancing, Journal of broadcast engineering conference proceedings, pp. 250-253Google Search
8 
J. Wang, Z. Yang, J. Zhang, Q. Zhang, W. T. K Chien, 2019, AdaBalGAN: An improved generative adversarial network with imbalanced learning for wafer defective pattern recognition, IEEE Transactions on Semiconductor Manufacturing, Vol. 32, No. 3, pp. 310-319DOI
9 
YongSung Ji, Jee-Hyong Lee, 2020, Using GAN to improve CNN performance of wafer map defect type classification: Yield enhancement, 2020 31st Annual SEMI Advanced Semiconductor Manufacturing Conference (ASMC). IEEEDOI
10 
B. Devika, Neetha George, 2019, Convolutional neural network for semiconductor wafer defect detection, 2019 10th International Conference on Computing, Communication and Networking Technologies (ICCCNT). IEEEDOI
11 
Yuting Kong, Dong Ni, 2019, Recognition and location of mixed-type patterns in wafer bin maps, 2019 IEEE International Conference on Smart Manufacturing, Industrial & Logistics Engineering (SMILE). IEEEDOI
12 
Barret oph, Quoc V. Le, 2016, Neural architecture search with reinforcement learning, arXiv preprint arXiv:1611. 01578DOI
13 
M. Tan, Q. Le, 2021, Efficientnetv2: Smaller models and faster training, In International Conference on Machine Learning(PMLR), Vol. 139, pp. 10096-10106Google Search
14 
Jie Hu, Li Shen, Gang Sun, 2018, Squeeze-and-excitation networks, Proceedings of the IEEE conference on computer vision and pattern recognitionGoogle Search
15 
B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, A. Torralba, 2016, Learning deep features for discriminative localization, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2921-2929Google Search
16 
R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, D. Batra, 2017, Grad-cam: Visual explanations from deep networks via gradient-based localization, Proceedings of the IEEE international conference on computer vision., pp. 618-626Google Search

저자소개

이한성 (Han-sung Lee)
../../Resources/kiee/KIEE.2023.72.4.553/au1.png

Han-sung Lee received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2022.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2023.72.4.553/au2.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010- 2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convert- gence, Kangwon National University, South Korea.