페이지

2022년 7월 17일 일요일

2.1 신경망과의 첫 만남

 케라스 파이썬 라이브러리를 사용하여 손글시 숫자 분류를 학습하는 구체적인 신경망 예제를 살펴보겠습니다. 케라스나 비슷한 라이브러리를 사용한 경험이 없다면 당장은 이 첫 번째 예제를 모두 이행하지 못할 것입니다. 어쩌면 아직 케라스를 설치하지 않았을지도 모릅니다. 괜찮습니다. 다음 장에서 이 예제를 하나하나 자세히 설명합니다. 코드가 좀 이상하거나 요출처럼 보이더라도 너무 걱저앟지 마세요. 일단 시작해 보겠습니다.

지금 풀려는 문제는 흑백 손글씨 숫자 이미지(28*28픽셀)ㄹ르 10개의 범주(0에서 9까지)로 분류하는 것입니다. 머신 러닝 커뮤니티에서 고전으로 취급받는 데이터셋인 MNIST를 사용하겠습니다. 이 데이터셋은 머신 러닝의 역사만큼 오래되었고 많은 연구에 사용되었습니다. 이 데이터셋은 1980년대 미국 국립표준기술연구소(National Institue of Standards and Technology, NIST)에서 수집한 6만 개의 훈련 이미지와 1만 개의 테스트 이미지로 구성되어 있습니다.  MNIST 문제를 알고리즘의 제대로 작동하는지 확인하기 위한 딥러닝 계의 "hello world"라고 생각해도 됩니다. 머신러닝 기술자가 되기까지 연구 논문이나 블로그 포스트 등에서 MNIST를 보고 또 보게 될 것입니다.

클래스와 레이블에 관한 노트

머신러닝에서 분류 문제의 범주(category)를 클래스(class)라고 합니다. 데이터 포인트는 샘플(sample)이라고 합니다. 특정 샘플의 클래스는 레이블(label)이라고 합니다.

이 예제를 당장 실습할 필요는 없습니다. 하고 싶다면 3.3절에 나와 있는 대로 케라스 환경을 먼저 설정해 주어야 합니다.

MNIST데이터셋은 넘파이(Numpy) 배열 형태로 케라스에 이미 포함되어 있습니다.

from keras.dataset import mnist

(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

train_images와 train_labels가 모델이 학습해야 할 훈련 세트(training set)를 구성합니다. 모델은 test_images와 test_labels로 구성된 데트스 세트(test set)에서 테스트 될 것입니다. 이미지는 넘파이 배열로 인코딩되어 레이블은 0부터 9까지의 숫자 배열립니다. 이미지와 레이블은 일대일 관계입니다.

훈련 데이터를 살펴봅시다.

>>> train_images.shape

(60000, 28, 28)

>>> len(train_labels)

60000

>>> train_babels

array([5,0,4,...,5,6,8], dtype=uint8)

다음은 테스트 데이터입니다.

>>> test_images.shape

(10000, 28,28)

>>> len(test_labels)

10000

>>> test_labels

array([7,2,1,...,4,5,6], dtype=unit8)

작업 순서는 다음과 같습니다. 먼저 훈련 데이터 train_images 와 train_labels를 네트워크에 주입합니다. 그러면 네트워크는 이미지와 레이블을 연관시킬 수 있도록 학습됩니다. 마지막으로 test_image에 대한 예측을 네트워크에 요청합니다. 그리고 이 예측이 test_labels와 맞는지 확인할 것입니다.

신경망을 만들어 보겠습니다. 여기에서도 다음 코드를 완전히 이해하지 않아도 괜찮습니다.

from keras import models

from keras import layers


network = models.Sequential()

network.add(layers.Dense(512, activation='relu', input_shape=(28*28,)))

network.add(layer.Dense(10, activation='softmax'))

신경만의 핵심 구성 요소는 일종의 데이터 처리 필터라고 생각할 수 있는 층(layer)입니다. 어떤 데이터가 들어가면 더 유용한 형태로 출력됩니다. 조금 더 구체적으로 층은 주어진 문제에 더 의미있는 표현(representation)을 입력된 데이터로부터 추출합니다. 대부분의 딥러닝은 간단한 층을 연결하여 구성되어 있고, 점진적으로 데이터를 정제하는 현태를 띠고 있습니다. 딥러닝 모델은 데이터 정제 필터(층)가 연속되어 있는 데이터 프로세싱을 위한 여과기와 같습니다.

이 예에서는 조밀하게 연결된(또는 완전 연결(fully connected)된) 신경망 층인 Dense층 2개가 연속되어 있습니다. 두 번째(즉 마지막) 층은 10개의 확률 점수가 들어 있는 배열(모두 더하면 1입니다)을 반환하는 소프트맥스(softmax)층입니다. 각 점수는 현재 숫자 이미지가 10개의 숫자 클래스 중 하나에 속할 확률입니다.

신경망이 훈련 준비를 마치기 위해서 컴파일 단계에 포함될 세 가지가 더 필요합니다.

- 손실 함수(loss function): 훈련 데이터에서 신경망의 성능을 측정하는 방법으로 네트워크가 옳은 방향으로 학습될 수 있도록 도와줍니다.

- 옵티마이저(optimizer): 입력된 데이터와 손실 함수를 기반으로 네트워크를 업데이트하는 매커니즘입니다.

- 훈련과 테스트 과정을 모니터링할 지표: 여기에서는 정화도(정확히 분류된 이미지의 비율)만 고려하겠습니다.

손실 함수와 옵티마이저의 정확한 목적은 이어지는 2개의 장에서 자세히 설명합니다.

network.compile(optimizer='rmsprop',

                        loss='categorical_crossentropy',

                        metrics=['accuracy'])

훈련을 시작하기 전에 데이터를 네트워크에 맞는 크기로 바꾸고 모든 값을 0과 1 사이로 스케일을 조정합니다. 예를 들어 앞서 우리의 훈련 이미지는 [0, 255] 사이의 값인 unit8 타입의 (60000, 28,28) 크기를 가진 배열로 저장되어 있습니다. 이 데이터를 0과 1 사이의 값을 가지는 float32 타입의 (60000, 28, 28) 크기인 배열로 바꿉니다.

train_images =  train_images.reshape((60000, 28 * 28))

train_images = train_images.astype('float32'/255


test_images = test_images.reshape((10000, 28 * 28 ))

test_iomages = test_images.astype('float32') / 255

또 레이블을 범주형으로 인코딩해야 합니다. 이 단계는 3장에서 자세히 설명합니다.

from keras.utils import to_categorical


train_labels = to_categorical(train_labels)

test_labels = to_categorical(test_labels)

이제 신경망을 훈련시킬 준비가 되었습니다. 케라스에서는 fit 메서드를 호출하여 훈련 데이터에 모델을 학습시킵니다.

>>> network.fit(train_images, train_labels, epochs=5, batch_size=128)

Epoch 1/5

60000/60000 [========================] - 1s 22us/step -loss: 0.2571 - acc: 0.9257

Epoch 2/5

60000/60000 [========================] - 1s 12us/step -loss: 0.1027 - acc: 0.9695

Epoch 3/5

60000/60000 [========================] - 1s 12us/step -loss: 0.0686 - acc: 0.9797

Epoch 4/5

60000/60000 [========================] - 1s 12us/step -loss: 0.0494 - acc: 0.9856

Epoch 5/5

60000/60000 [========================] - 1s 12us/step -loss: 0.0368 - acc: 0.9894

훈련하는 동안 2개의 정보가 출력됩니다. 훈련 데이터에 대한 네트워크의 손실과 정확도 입니다. 훈련데이터에 대해 0.989(98.9%)의 정확도를 금방 달성합니다. 이제 테스트 세트에서도 모델이 잘 작동하는지 확인해 보겠습니다.

>>> test_loss, test_acc = network.evaluate(test_images, test_labels)

10000/10000 [=============] - 0s 16us/step

>>> print('test_acc:' , test_acc)

test_acc: 0.9789

테스트 세트의 정확도는 97.8%로 나왔습니다. 훈련세트 정확도보다는 약간 낮습니다. 훈련정확도와 테스트 정확도 사이의 차이는 과대적합(overfitting) 때문입니다. 이는 머신 러닝 모델이 훈련데이터보다 새로운 데이터에서 성능이 낮아지는 경향을 말합니다. 과대적합은 3장에서 자세하게 농의 합니다.

이것으로 첫 번째 예제가 마루리되었습니다. 20줄 미만의 파이썬 코드로 손글씨 숫자를 분류하는 신경망을 만들고 훈련시켰습니다. 다음 장에서 여기서 보았던 코드 하나하나를 상세하게 설명하고 이들이 의미하는 바를 명확하게 알아보겠스ㅜㅂ니다. 이제 텐서, 신경망에 주입하는 데이터의 저장형태, 층을 만들어 주는 텐서 연산, 신경망을 훈련 샘플로부터 학스비키는 경사 하강법에 대해 알아봅니다.



댓글 없음: