참고) 해당 포스팅은 패스트 캠퍼스 100% 환급 챌린지 미션 기록용 포스팅이며, 강좌 내용에 맞추어 포스팅함을 언급
클립명 : PART4)딥러닝의 3 STEP의 기초
쉽게 배우는 역전파 학습법 (STEP 2) - 학습법의 수식적 이해 - 2
쉽게 배우는 역전파 학습법 (STEP 2) - 학습법의 수식적 이해 - 1
쉽게 배우는 역전파 학습법 (STEP 2) - 학습법의 수식적 이해 - 2
본 포스팅은 지난 포스팅에 이어 수치 미분을 이용한 심층 신경망 학습에 대한 코드 구현을 살핀다.
#1. Read Module
import time
import numpy as np
#2. 유틸리티 함수
epsilon = 0.0001
def _t(x):
return np.transpose(x)
def _m(A, B):
return np.matmul(A, B)
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def mean_squared_error(h, y):
return 1 / 2 * np.mean(np.square(h - y))
#3. 뉴런 구현
class Neuron:
def __init__(self, W, b, a):
# Model Parameter
self.W = W
self.b = b
self.a = a
# Gradients
self.dW = np.zeros_like(self.W)
self.db = np.zeros_like(self.b)
def __call__(self, x):
return self.a(_m(_t(self.W), x) + self.b) # activation((W^T)x + b)
#4. 심층신경망 구현
class DNN:
def __init__(self, hidden_depth, num_neuron, num_input, num_output, activation=sigmoid):
def init_var(i, o):
return np.random.normal(0.0, 0.01, (i, o)), np.zeros((o,))
self.sequence = list()
# First hidden layer
W, b = init_var(num_input, num_neuron)
self.sequence.append(Neuron(W, b, activation))
# Hidden layers
for _ in range(hidden_depth - 1):
W, b = init_var(num_neuron, num_neuron)
self.sequence.append(Neuron(W, b, activation))
# Output layer
W, b = init_var(num_neuron, num_output)
self.sequence.append(Neuron(W, b, activation))
def __call__(self, x):
for layer in self.sequence:
x = layer(x)
return x
def calc_gradient(self, x, y, loss_func):
def get_new_sequence(layer_index, new_neuron):
new_sequence = list()
for i, layer in enumerate(self.sequence):
if i == layer_index:
new_sequence.append(new_neuron)
else:
new_sequence.append(layer)
return new_sequence
def eval_sequence(x, sequence):
for layer in sequence:
x = layer(x)
return x
loss = loss_func(self(x), y)
for layer_id, layer in enumerate(self.sequence): # iterate layer
for w_i, w in enumerate(layer.W): # iterate W (row)
for w_j, ww in enumerate(w): # iterate W (col)
W = np.copy(layer.W)
W[w_i][w_j] = ww + epsilon
new_neuron = Neuron(W, layer.b, layer.a)
new_seq = get_new_sequence(layer_id, new_neuron)
h = eval_sequence(x, new_seq)
num_grad = (loss_func(h, y) - loss) / epsilon # (f(x+eps) - f(x)) / epsilon
layer.dW[w_i][w_j] = num_grad
for b_i, bb in enumerate(layer.b): # iterate b
b = np.copy(layer.b)
b[b_i] = bb + epsilon
new_neuron = Neuron(layer.W, b, layer.a)
new_seq = get_new_sequence(layer_id, new_neuron)
h = eval_sequence(x, new_seq)
num_grad = (loss_func(h, y) - loss) / epsilon # (f(x+eps) - f(x)) / epsilon
layer.db[b_i] = num_grad
return loss
#5. 경사하강 학습법
def gradient_descent(network, x, y, loss_obj, alpha=0.01):
loss = network.calc_gradient(x, y, loss_obj)
for layer in network.sequence:
layer.W += -alpha * layer.dW
layer.b += -alpha * layer.db
return loss
#6. 동작 테스트
x = np.random.normal(0.0, 1.0, (10,))
y = np.random.normal(0.0, 1.0, (2,))
dnn = DNN(hidden_depth=5, num_neuron=32, num_input=10, num_output=2, activation=sigmoid)
t = time.time()
for epoch in range(100):
loss = gradient_descent(dnn, x, y, mean_squared_error, 0.01)
print('Epoch {}: Test loss {}'.format(epoch, loss))
print('{} seconds elapsed.'.format(time.time() - t))
(글자수 : 2000자 이상)
강의 소개 링크 : bit.ly/3cx6kMd
딥러닝/인공지능 올인원 패키지 Online. | 패스트캠퍼스
Tensorflow2.0부터 Pytorch까지 딥러닝 대표 프레임워크를 정복하기. 생활 깊숙이 침투한 인공지능, 그 중심엔 딥러닝이 있습니다. 가장 강력한 머신러닝의 툴로서 주목받는 딥러닝은 생각보다 어려
fastcampus.co.kr
'Deep Learning & AI > AI' 카테고리의 다른 글
(딥러닝_온라인)쉽게 배우는 역전파 학습법 _ 역전파 학습법 코드 (0) | 2021.04.18 |
---|---|
(딥러닝_온라인)쉽게 배우는 역전파 학습법 _ 역전파 학습법 코드 (0) | 2021.04.15 |
(딥러닝 _ 온라인)쉽게 배우는 역전파 학습법 _ 수치 미분을 이용한 심층 신경망 학습 구현_1 (0) | 2021.04.08 |
쉽게 배우는 역전파 학습법 개념_ Step2 (0) | 2021.04.04 |
쉽게 배우는 역전파 학습법 개념_ Step1 (0) | 2021.04.03 |