본문 바로가기

ComputerVision17

R-CNN (2014) PyTorch Implementation R-CNN을 Pytorch를 활용하여 구현하고자 한다. https://arsetstudium.tistory.com/33에서 공부한 내용을 토대로 구현보면 아래와 같다. 이때, R-CNN의 CNN 구조는 AlexNet과 같으므로 생략하고 기존의 classification과 다른 부분에 집중하고자 한다. 바로 bounding box의 생성 부분인데 우선 ROI (Region of Interest)라는 개념도 알아야 한다. ROI는 이름 그대로 어떤 이미지에서 관심이 가는 특정 대상에 대한 영역을 의미한다. Object detection에서 ROI 지정은 bounding box로 하며, 아래의 Figure 1를 예시로 알아보자. 우선 interest는 새다. 그리고 그 새에 대한 영역인 ROI를 빨간색 bou.. 2024. 4. 8.
R-CNN (2014) 논문 리뷰 R-CNN의 논문 이름은 Rich feature hierarchies for accurate object detection and semantic segmentation이다. 저자는 Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik다. R-CNN은 object detection 데이터 셋인 PASCAL VOC dataset에 대해 성공적인 결과를 달성한 모델이다. Object detection 딥러닝 분야에서 가장 먼저 공부하는 모델이기도 하다. PASCAL VOC는 Pattern Analysis, Statistical Modeling and Computational Learning Visual Object Classes의 약자로 옥스포드 대학교에.. 2024. 4. 4.
GoogLeNet = Inception v1 (2014) PyTorch Implementation GoogLeNet = Inception v1을 Pytorch를 활용하여 구현하고자 한다. https://arsetstudium.tistory.com/31에서 공부한 내용을 토대로 구현보면 아래와 같다. Inception Block 전체 GoogLeNet 모델을 구축하기에 앞서서 내부의 inception block을 먼저 구현하고자 한다. 맨 처음에는 쉽게 구축하기 위해서, 추상적으로 arguments를 짜기 보다는 구체적인 숫자를 이용해서 구현한다. 우선 가장 첫 번째 inception block인 inception 3a를 대상으로 짜본다. 자세한 파라미터의 설정은 아래의 Table 1을 참고하면 된다. Inception 3a의 input size는 28 x 28 x 192다. 이때 192는 채널의 개수.. 2024. 4. 3.
GoogLeNet = Inception v1 (2014) 논문 리뷰 GoogLeNet은 VGGNet와 마찬가지로 2014년 ImageNet Large Scale Visual Recognition Challenge (ILSVRC)에서 성공적인 결과를 달성한 모델이다. 또 다른 이름으로는 Inception v1 model이라고도 한다. GoogLeNet의 논문 이름은 Going Deeper with Convolutions이라는 심플한 이름이다. 저자는 굉장히 많은데 Christian Szegedy, Wei Liu, Yangqing Jia, 그리고 그 외 6인이다. Abstract ILSVRC 2014의 classification과 detection을 해결하기 위해서 Inception이라는 deep convolutional neural network를 제안한다. 가장 큰 특징.. 2024. 4. 3.
VGGNet PyTorch Code Implementation VGGNet을 Pytorch를 활용하여 구현하고자 한다. https://arsetstudium.tistory.com/29에서 공부한 내용을 토대로 구현보면 아래와 같다. 우선 Top-5 error rate 성능이 가장 낮았던, 성능이 가장 좋았던 16 layers와 19 layers를 구현하는 편이 좋다. 그중에서도 16 layers가 파라미터 수가 더 적어서 효율적이기 때문에 16 layers 구조를 채택해서 구현하고자 한다. VGGNet은 max pooling을 경계로 해서 features extraction의 convolutional layers를 5개의 block으로 나눠 볼수도 있다. 하지만 여기서는 구체적으로 block의 class나 sequential로 나누지는 않았고 주석으로만 표기했다. .. 2024. 4. 2.
VGGNet (2014) 논문 리뷰 VGGNet은 2014년 ImageNet Large Scale Visual Recognition Challenge (ILSVRC)에서 성공적인 결과를 달성한 모델이다. VGGNet의 논문 이름은 VeryDeep Convolutional Networks for Large-Scale Image Recognition로 Karen Simonyan과 Andrew Zisserman이 작성했다. Abstract Large-scale image recognition을 해결하기 위해서 convolutional network의 depth를 집중적으로 연구하여 accuracy를 어떤 영향을 주는지를 연구했다. 3 x 3의 작은 convolution filter를 가지고도 depth를 충분히 쌓는다면 좋은 결과를 도출할 수 .. 2024. 4. 1.