개인 Project 진행 상황
-
목표치 f1 score 0.7 달성!!
-
학습 결과 1
- EfficientNet b2
- Best validation Acc: 0.51
- Test f1 score: 0.6674 (지난 주 최고 기록 0.66)
- Hyper param
- optim: AdamW
- loss: CE
- lr: 1e-4
- lr scheduler
- batchsize: 128
- transform
- grayscale (val, test 에도 적용)
- random rotation(10)
- centercrop(450, 360)
- horizontal flip
- resize(200, 200)
- normalize
-
학습 결과 2
- EfficientNet b2
- Best validation Acc: 0.56
- Test f1 score: 0.6780
- Hyper param
- optim: AdamW
- loss: Focal loss (gamma: 1)
- lr: 3e-4
- lr scheduler, transform, batchsize 그대로
-
학습 결과 3
- EfficientNet b3
- Best validation Acc: 관측 불가
- Test f1 score: 0.7171
- Hyper param
- optim: AdamW
- loss: Focal loss (gamma: 1)
- lr: 3e-4
- no validation set (all train), epoch 4
-
학습 결과 4
- EfficientNet b4
- Best validation Acc: 관측 불가
- Test f1 score: 0.7235 (최고 기록)
- Hyper param
- optim: AdamW
- loss: Focal loss (gamma: 0.8)
- lr: 3e-4
- no validation set (all train), epoch 4
- grayscale, horizontal flip 없앰
Peer session
- mixed prisicion
- float32 (32bit) 보다 float16 (16bit) 으로 계산시 훨씬 빠르지만, 정확도 손실이 있음. 이를 보완하기 위해 빠르면서도 필요한 정보를 거의 보존하는 방법으로, 16bit와 32bit를 적절히 사용한 mixed precision 방법이 있음.