|
|
@ -12,6 +12,8 @@
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
"이 아키텍처는 ImageNet에서 92.7%의 상위 5개 테스트 정확도를 달성했으며, 이는 1000개의 클래스에 속하는 1400만 개 이상의 이미지를 포함하고 있습다.\n",
|
|
|
|
"이 아키텍처는 ImageNet에서 92.7%의 상위 5개 테스트 정확도를 달성했으며, 이는 1000개의 클래스에 속하는 1400만 개 이상의 이미지를 포함하고 있습다.\n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
|
|
|
|
"![imagenet](./images/imagenet.jpg)\n",
|
|
|
|
|
|
|
|
"\n",
|
|
|
|
"VGGNet은 여러 개의 작은 (3x3) 커널을 가진 합성곱 계층과 2x2 풀링 계층으로 구성되어 있으며, \n",
|
|
|
|
"VGGNet은 여러 개의 작은 (3x3) 커널을 가진 합성곱 계층과 2x2 풀링 계층으로 구성되어 있으며, \n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
"이를 여러 번 반복하여 깊은 네트워크를 구성된다.\n",
|
|
|
|
"이를 여러 번 반복하여 깊은 네트워크를 구성된다.\n",
|
|
|
@ -25,7 +27,9 @@
|
|
|
|
"source": [
|
|
|
|
"source": [
|
|
|
|
"### VGG16 아키텍처의 주요 특징\n",
|
|
|
|
"### VGG16 아키텍처의 주요 특징\n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
"모델에 대한 입력은 고정 크기인 224×224 RGB 이미지이다.\n",
|
|
|
|
"![vggnet](./images/vggnet.png)\n",
|
|
|
|
|
|
|
|
"\n",
|
|
|
|
|
|
|
|
"모델에 대한 입력은 고정 크기인 224×224x3 RGB 이미지이다.\n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
"전처리는 각 픽셀에서 훈련 데이터 세트에서 계산된 평균 RGB 값을 빼는 것이다.\n",
|
|
|
|
"전처리는 각 픽셀에서 훈련 데이터 세트에서 계산된 평균 RGB 값을 빼는 것이다.\n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
@ -48,6 +52,8 @@
|
|
|
|
"source": [
|
|
|
|
"source": [
|
|
|
|
"### 데이터셋 (Cifar10)\n",
|
|
|
|
"### 데이터셋 (Cifar10)\n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
|
|
|
|
"![cfar10](./images/cfar10.png)\n",
|
|
|
|
|
|
|
|
"\n",
|
|
|
|
"* 이미지 수와 카테고리: 데이터셋은 총 60,000개의 이미지로 구성되어 있으며, 이 중 50,000개는 학습용, 10,000개는 테스트용으로 분리되어 있다. \n",
|
|
|
|
"* 이미지 수와 카테고리: 데이터셋은 총 60,000개의 이미지로 구성되어 있으며, 이 중 50,000개는 학습용, 10,000개는 테스트용으로 분리되어 있다. \n",
|
|
|
|
"\n",
|
|
|
|
"\n",
|
|
|
|
"* 10가지 카테고리는 각각 공통된 대상을 나타낸다. \n",
|
|
|
|
"* 10가지 카테고리는 각각 공통된 대상을 나타낸다. \n",
|
|
|
@ -187,7 +193,7 @@
|
|
|
|
}
|
|
|
|
}
|
|
|
|
],
|
|
|
|
],
|
|
|
|
"source": [
|
|
|
|
"source": [
|
|
|
|
"model.fit(X_train, Y_train, batch_size=32, epochs=10, validation_split=0.2)\n"
|
|
|
|
"model.fit(X_train, Y_train, batch_size=32, epochs=10, validation_split=0.2)"
|
|
|
|
]
|
|
|
|
]
|
|
|
|
},
|
|
|
|
},
|
|
|
|
{
|
|
|
|
{
|
|
|
|