본문 바로가기

논문29

논문 U-Net U-Net은 Fully Conv 아키텍쳐로 되어있다. Fully Conv 아키텍쳐 - 입력사이즈에 대한 제한이없다. vggent은 나중에 Flatten을 해주기때문에 입력사이즈의 제한을 받았다. fully conv는 3x3으로 훑기만하기때문에 입력사이즈의 제한이없다. 맨위에 input image tile의 input의 conv를 적용해주면 사이즈손실은 거의없고 채널이 64개로 늘어나게된다.. 그리고 빨간색 화살표로 maxpooling을 하게되는데 그러면 사이즈가 줄어든다. 572x572에서 284x284로 줄어들은것을 알 수 있다. 반복해주면 채널수가 1024가 되는데(이미지의 맨아래부분) 여기까지를 인코더(incoder,contract_path, 압축)라고한다. 그리고 나머지 반을 디코더(decoder.. 2023. 4. 2.
FCN(Fully Convolution Network) end-to-end : 처음부터 끝까지 알아서 학습을 다해간다. piexels-to-pixels : 학습을 하고 분류를 하는 모델 기본적인 딥러닝구조 : conv로 featuremap들을 만들고 만든다음 flatten하고 fc_layer에 넣어줌 분류모델은 fc_layer가 들어가지만 FCN은 fc_layer을 빼버리고 전체의 네트워크 구조를 convolution 구조로 가져감 FCN은 AlexNet, GoogleNet, VGGnet을 finefuning해서 사용했다. FCN은 cnn구조안에서 pooling_1, pooling_2, pooling_3, pooling_4, pooling_5 하게되는데 이때 크기가 1/2, 1/4, 1/8, 1/16, 1/32로 작아지게되고 이렇게 작아진픽셀을 다시 곱하기2.. 2023. 3. 27.
cv(computer vision) resnet논문 rsenet논문 논문의 초록 Deeper neural networks are more difficult to train. 깊은 뉴럴 네트워크는 train하기 어렵다. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. 우리는 residual learning framework를 제안한다 네트워크의 train을 쉽게해주는 이전의 사용된것들보다 부분적으로 깊은 We explicitly reformulate the layers as learning residual functions with reference to the layer.. 2023. 3. 12.
cv(computer vision) googlenet 논문 구글넷논문 논문의 초록 The main hallmark of this architecture is the improved utilization of the computing resources inside the network. 네트워크안에서 컴퓨팅 리소르를 효율적이게 향상시킬려고했었다. This was achieved by a carefully crafted design that allows for increasing the depth and width of the network while keeping the computational budget constant. 이전의 모델은 deep만 신경을 썼다면 googlenet은 dept와 width를 신경썼다는것을 알 수 있다. 22 layers deep n.. 2023. 3. 7.