본문 바로가기

DeepLearning28

[Augmentation]Mixup: Beyond Empirical Risk Minimization by Zhang et al. - 본 논문의 저자는 일반적으로 Dataset에 의존하여 학습하는 것을 비판하고 있다. 여기서 비판이란 Dataset의 원론적인 비판이 아닌, Dataset을 그대로 학습하는 것에 대한 문제점을 지적하고 있다. "Train Data와 조금만 다른 Data를 설명할 수 없다." 이 부분에서 Train Data에 dependent한 문제점을 지적하고 있다. 2022. 5. 16.
[논문 리뷰] Swin Transformer : Hierarchical Vision Transformer using Shifted Windows 0.Abstract -생략 1.Introduction - Transformer를 computer vision에 대한 적용은, 특정한 tasks(e.x., image classification, joint vision-language modeling에서 유망한 결과를 낳았다. - 본 논문에서는, Transformer를 NLP와 CNN이 vision에서 하는 능력과 마찬가지로 computer vision에서 general-perpomance backbone이 되기위해 적용가능성의 확장을 탐색한다. - 본 논문에서, language domain에서 visual domain으로 이전하는 데 있어 상당한 차이가 두 양식(modalities) 간의 차이로 설명될 수 있다는 것을 발견하 였다. 이 차이 중 하나는 s.. 2022. 3. 16.
[논문 리뷰] ViT, AN IMAGE IS WORTH 16*16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE (ICLR, 2021) 0. Abstract 생략 1. INTRODUCTION - self-attention-based architectures, 특별히 Transformers은 자연어(NLP) 처리에서의 모델로 선택되고 있었다. 가장 지배적인 접근법은 large text corpus를 이용해 pre-train 한 후, smaller task-specific dataset에 fine-tune 하는 것이었다. Transformers의 computational efficiency와 scalability덕분에, parameter 100B와 함께 전례 없는 size의 models를 train 할 수 있었고, 모델과 데이터셋이 증가하더라도 여전히 성능을 포화시킬 징후는 보이지 않았다. - computer vision에서는, 그러나 co.. 2022. 3. 13.
Object Keypoint Similarity - 주로 COCO dataset을 평가 할 때 사용한다. - IOU와 매우 유사한 역할을 하는 metric이다. 2022. 3. 12.