diff --git a/images/cfar10.png b/images/cfar10.png new file mode 100644 index 0000000..87b587b Binary files /dev/null and b/images/cfar10.png differ diff --git a/images/imagenet.jpg b/images/imagenet.jpg new file mode 100644 index 0000000..c109b9c Binary files /dev/null and b/images/imagenet.jpg differ diff --git a/images/vggnet.png b/images/vggnet.png new file mode 100644 index 0000000..3dca57d Binary files /dev/null and b/images/vggnet.png differ diff --git a/vggnet.ipynb b/vggnet.ipynb index b1a8c42..9ec1cc8 100644 --- a/vggnet.ipynb +++ b/vggnet.ipynb @@ -12,6 +12,8 @@ "\n", "이 아키텍처는 ImageNet에서 92.7%의 상위 5개 테스트 정확도를 달성했으며, 이는 1000개의 클래스에 속하는 1400만 개 이상의 이미지를 포함하고 있습다.\n", "\n", + "![imagenet](./images/imagenet.jpg)\n", + "\n", "VGGNet은 여러 개의 작은 (3x3) 커널을 가진 합성곱 계층과 2x2 풀링 계층으로 구성되어 있으며, \n", "\n", "이를 여러 번 반복하여 깊은 네트워크를 구성된다.\n", @@ -25,7 +27,9 @@ "source": [ "### VGG16 아키텍처의 주요 특징\n", "\n", - "모델에 대한 입력은 고정 크기인 224×224 RGB 이미지이다.\n", + "![vggnet](./images/vggnet.png)\n", + "\n", + "모델에 대한 입력은 고정 크기인 224×224x3 RGB 이미지이다.\n", "\n", "전처리는 각 픽셀에서 훈련 데이터 세트에서 계산된 평균 RGB 값을 빼는 것이다.\n", "\n", @@ -48,6 +52,8 @@ "source": [ "### 데이터셋 (Cifar10)\n", "\n", + "![cfar10](./images/cfar10.png)\n", + "\n", "* 이미지 수와 카테고리: 데이터셋은 총 60,000개의 이미지로 구성되어 있으며, 이 중 50,000개는 학습용, 10,000개는 테스트용으로 분리되어 있다. \n", "\n", "* 10가지 카테고리는 각각 공통된 대상을 나타낸다. \n", @@ -187,7 +193,7 @@ } ], "source": [ - "model.fit(X_train, Y_train, batch_size=32, epochs=10, validation_split=0.2)\n" + "model.fit(X_train, Y_train, batch_size=32, epochs=10, validation_split=0.2)" ] }, {