본문 바로가기

논문/classification4

A ConNet for the 2020s 논문정리 Abstract Vision Transformers (ViTs)의 도입으로 시작되었고, 이것은 빠르게 ConvNets를 뛰어넘어 최신 이미지 classification 모델로 자리 잡았습니다. 반면에 vit는 object detection과 semantic segmentation에 적용할때 어려움을 겪습니다. transformer는 몇몇 Convnet 이전에 다시 소개되면서 transformer을 vision backbone으로 사용하였고 vision task에서 높은 성능을 올릴 수 있게 해주었습니다. 그러나 이러한 hybrid 접근방식은 여전히 convolution의 내재된 inductive biases 보다 오히려 Transformer의 내재된 우수성 때문에 효율적입니다. 연구자들은 resnet을 .. 2023. 10. 25.
cv(computer vision) resnet논문 rsenet논문 논문의 초록 Deeper neural networks are more difficult to train. 깊은 뉴럴 네트워크는 train하기 어렵다. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. 우리는 residual learning framework를 제안한다 네트워크의 train을 쉽게해주는 이전의 사용된것들보다 부분적으로 깊은 We explicitly reformulate the layers as learning residual functions with reference to the layer.. 2023. 3. 12.
cv(computer vision) googlenet 논문 구글넷논문 논문의 초록 The main hallmark of this architecture is the improved utilization of the computing resources inside the network. 네트워크안에서 컴퓨팅 리소르를 효율적이게 향상시킬려고했었다. This was achieved by a carefully crafted design that allows for increasing the depth and width of the network while keeping the computational budget constant. 이전의 모델은 deep만 신경을 썼다면 googlenet은 dept와 width를 신경썼다는것을 알 수 있다. 22 layers deep n.. 2023. 3. 7.
cv(computer vision) vggnet 논문 Vggnet 논문 2012년 AlexNet , 2014년 vggNet, 2014년 GoogleNet, 2015년 Resnet 여기 4개의 논문들은 레이어를 깊이쌓는것에 중점을 두었다. 이것을 기억해두고 읽으면 좋을거같다. 그러나 깊이쌓기만하면 역전파가 일어나 기울기소실(loss로부터 역전파를 했을때 이전레이어에서 미분을하는데 여기에서 미분했던값이 소수점이면 0에 가까워지므로) 문제생기고 이로인해 모델의 정확도가 낮아지는 문제가 생기는데 여기까지의 연구초점은 깊게쌓되 기울기 소실문제가 덜 일어나도록 효울적인 모델을 만드는게 여기까지의 연구초점이었다. 이제 이 논문의 초록을 보자(요약부분) In this work we investigate the effect of the convolutional networ.. 2023. 3. 5.