1. Keras
- 모듈 import
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow import keras
import time
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
* Optimizers : 최적화
* Dense : 입출력을 모두 연결해주는 레이어
- 리스트 보기
from tensorflow.python.client import device_lib
print(tf.test.gpu_device_name())
- NVIDIA GPU 상태보기
!nvidia-smi
- 데이터 준비
import numpy as np
x = np.arange(-1,1,0.01)
y = x**2
plt.scatter(x,y)
* 1차원 데이터 x와 x**2의 1차원 데이터 y
print(len(x))
print(x.shape)
* shape = 차원 확인 함수
- 최소 코드
import numpy as np
import matplotlib.pyplot as plt
from tensorflow import keras
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense, Input
import time
# 모델 정의
model = keras.Sequential()
model.add(Input(1))
model.add(Dense(10, activation='tanh'))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
# 컴파일 : 모델 + optimizer + loss
model.compile(optimizer="SGD", loss="mse")
# 학습
model.fit(x, y, epochs=1000, verbose=0, batch_size=20)
# 예측
y_ = model.predict(x)
# 결과 그래프로 보기
plt.scatter(x,y) # 정답
plt.scatter(x,y_,color='r') # 결과
plt.show()
* keras.Sequential() : 모델을 선형으로 쌓는 것
* model.add() : (model)레이어 추가
* activation=' ' : 활성화 함수
* tanh(hyperbolic tangent) : function은 sigmoid 처럼 비선형 함수이지만 결과값의 범위가 -1부터 1이기 때문에 sigmoid와 달리 중심값이 0
* loss : mode.compile할 때 사용하는 최적화에 사용되는 목적 함수(손실 함수)
* mse : 평균 제곱 오차(Mean Squared Error)
* SGD : 경사하강법
* epochs= : 전체 sample 데이터를 이용하여 한 바퀴 돌며 학습한 것을 1epoch이라 부른다.
따라서 2 epochs은 전체 sample을 이용하여 두 바퀴를 돌며 학습한 것이다.
* vervose = : 학습 중 출력 문구 설정
* batch_size = : 1회 Step에서 사용한 데이터의 수이다.
따라서 Batch Size가 100이라고 가정하고 Step이 5이면 약 500개의 데이터를 이용한 것이다.
* predict(x) : 입력한 x 값을 예측하다
- model.evaluate() - 성능 평가하기
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
model = keras.Sequential()
#model.add(Input(1))
model.add(Dense(10, activation='tanh', input_shape=(1,) ))
model.add(Dense(10, activation='tanh' ))
model.add(Dense(1))
#model.compile(optimizer="SGD", loss="mse")
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.fit(x, y, epochs=1000, verbose=0, batch_size=20)
# 모델평가하기
loss, mse = model.evaluate(x, y) # ADD
print("loss=",loss) # ADD
print("mse=",mse) # ADD
y_ = model.predict(x)
plt.scatter(x,y)
plt.scatter(x,y_,color='r')
plt.show()
* model.add(Input(1)) 대신 model.add 함수 안에 input_shape=(1,)) ) 로 대신 할 수 있다.
* metrics=["mse"] : 평균 절대값 오차
- 테스트셋으로 평가하기 - train과 test로 데이터를 나누어 준비
x = np.arange(-1,1,0.01)
np.random.shuffle(x)
y = x**2
split_index = int(x.shape[0]*0.6)
train_x, test_x = x[:split_index], x[split_index:]
train_y, test_y = y[:split_index], y[split_index:]
plt.scatter(train_x,train_y)
plt.scatter(test_x,test_y)
plt.show()
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
# model.fit(x, y, epochs=1000, verbose=0, batch_size=20)
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
# loss, mse = model.evaluate(x, y)
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
# y_ = model.predict(x)
y_ = model.predict(test_x)
# plt.scatter(x,y)
plt.scatter(test_x,test_y)
# plt.scatter(x,y_,color='r')
plt.scatter(test_x,y_,color='r')
plt.show()
* train : 학습하다
* model.evaluate() : 성능 평가하기
- Base Model 결과 저장 - 비교를 위한 그래프 저장
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.savefig("base_result.png")
from IPython.display import Image
display(Image("base_result.png"))
* plt.savefig("base_result.png") : base_result란 png 파일로 저장
* display(Image("base_result.png")) : base_result란 png 파일 읽어오기
- 학습 시간 출력
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
start_time = time.time() # ADD
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time)) # ADD
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
* start_time = time.time() : 시작 시간 저장
* time.time() - start_time : 현재시각 - 시작시간 = 실행시간
- model.summary() 네트웤 모양 보기
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary() # ADD
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
* model.summary() : 모델 요약 함수
- Keras DNN Template
import numpy as np
import matplotlib.pyplot as plt
from tensorflow import keras
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
import time
# 모델 정의
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
# 모델 컴파일
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
# 학습
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
# 평가
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
# 예측
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
- 학습 추가 진행 - 모델은 그대로 두고 데이터만 sin 데이터로 변경한다.
def get_sin_data(start=0, end=10, step=0.1):
x = np.arange(start,end,step)
np.random.shuffle(x)
y = np.sin(x)
split_index = int(x.shape[0]*0.6)
train_x, test_x = x[:split_index], x[split_index:]
train_y, test_y = y[:split_index], y[split_index:]
return (train_x, train_y), (test_x, test_y)
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
plt.scatter(train_x,train_y)
plt.show()
plt.scatter(test_x,test_y,color="r")
plt.show()
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
- 추가 학습 : 학습이 진행 될 수록 점점 완벽하게 학습된다.
def fit_one_more(model, train_x, train_y, test_x, test_y, batch_size=20):
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=batch_size)
print("elapsed : {}".format(time.time() - start_time))
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
def fit_n_times(model, train_x, train_y, test_x, test_y, n):
for i in range(n):
print("{} times fitting".format(i))
fit_one_more(model, train_x, train_y, test_x, test_y)
fit_n_times(model, train_x, train_y, test_x, test_y, 10)
0 times fitting elapsed : 7.507696151733398
1 times fitting elapsed : 7.399663209915161
2 times fitting elapsed : 7.430251836776733
3 times fitting elapsed : 7.3175811767578125
4 times fitting elapsed : 7.5014917850494385
5 times fitting elapsed : 7.502725124359131
6 times fitting elapsed : 7.428548097610474
- model.fit()의 batch_size
* batch_size는 GPU와 관련된 옵션이다.
한번에 GPU에 보내는 데이터의 수이다.
batch_size가 1일 경우 1개를 보내고, 1개의 결과를 받고, 1번 웨이트를 업데이트 한다.
batch_size가 10일 경우 10개를 보내고, 10개의 결과를 한 번에 받고, 1번 웨이트를 업데이트 한다.
GPU는 보통 수천개의 코어를 가지고 있다. 동시에 꽤 많은 연산을 처리할 수 있다. 그런데 데이터가 적으면
대부분은 사용하지 못하고 일부만 연산에 사용된다.
복수의 데이터를 한번에 보내어 한번에 연산을 할수 있고, 그 결과를 반환할 수 있다. 이런 방법으로 연산 시간을
줄일 수 있다.
하지만, 복수의 데이터를 한번에 보내는 경우 한번에 보낸 결과가 한번에 오고 1번 업데이트 되면서 업데이트 되는
사항이 뭉개지는 단점이 있다.
def build_model():
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
return model
def fit_with_batch_sizes(train_x, train_y, test_x, test_y, batch_sizes):
for batch_size in batch_sizes:
model = build_model()
print("batch_size={}".format(batch_size))
fit_one_more(model, train_x, train_y, test_x, test_y, batch_size)
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
- batch_size 적용 : [1,2,5,10,20,50,100,200,500]
fit_with_batch_sizes(train_x, train_y, test_x, test_y, batch_sizes=[1,2,5,10,20,50,100,200,500])
batch_size=1 elapsed : 120.52946543693542
batch_size=2 elapsed : 62.50007128715515
batch_size=5 elapsed : 27.280852556228638
batch_size=10 elapsed : 14.391368627548218
* 맨 앞의 결과가 batch_size 1인 경우이다. 100개의 데이터를 매번 1개 씩 보냈고, 매번 업데이트 했다.
batch_size를 키우면, 시간은 줄어들지만 학습이 빠르게 진행되지 않는다.
- model.fit()의 반환값 history - 반환된 history의 loss로 진행 상황을 확인.
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
# model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
history = model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
plt.plot(history.history['loss'])
- model.fit()verbose - 0 : X
- - 1 : progress bar
- - 2 : 1 line per epoch
# (train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.01)
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.0001)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
print(train_x.shape)
start_time = time.time()
# history = model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
history = model.fit(train_x, train_y, epochs=5, verbose=1, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
- model.fit()의 validation_data
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
# history = model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
history = model.fit(train_x, train_y, epochs=1000, verbose=1, batch_size=20, validation_data=(test_x, test_y))
print("elapsed : {}".format(time.time() - start_time))
plt.plot(history.history['loss'], label='loss')
plt.plot(history.history['val_loss'], label='val_loss')
plt.legend()
- model.fit()의 validation_split - 따로 validation 데이터를 주지 않고, test 데이터로 준 것 일부를 validation에 사용. validation에 사용된 데이터는 학습에 사용되지 않는다.
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
# history = model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
history = model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20, validation_split=0.1)
print("elapsed : {}".format(time.time() - start_time))
plt.plot(history.history['loss'], label='loss')
plt.plot(history.history['val_loss'], label='val_loss')
plt.legend()
- model.fit()의 shuffle - 학습 시의 데이터 섞기
* 학습 시에 데이터를 섞어 주지 않으면 특정 데이터 순서로 학습이 일어나 편향이 생길 수있다.
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.01)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
history = model.fit(train_x, train_y, epochs=50, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
elapsed : 3.595799446105957
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
# history = model.fit(train_x, train_y, epochs=50, verbose=0, batch_size=20)
history = model.fit(train_x, train_y, epochs=50, verbose=0, batch_size=20, shuffle=True)
print("elapsed : {}".format(time.time() - start_time))
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
elapsed : 3.7620790004730225
- Shuffle
x = np.arange(0,10,0.1)
# np.random.shuffle(x) # COMMENTED
y = np.sin(x)
split_index = int(x.shape[0]*0.6)
print(split_index)
train_x, test_x = x[:split_index], x[split_index:]
train_y, test_y = y[:split_index], y[split_index:]
plt.scatter(train_x, train_y)
plt.scatter(test_x, test_y, color="r")
* x[:split_index] : 처음부터 split_index 까지
* x[split_index:] : split_index 부터 끝까지
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
history = model.fit(train_x, train_y, epochs=50, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
x = np.arange(0,10,0.1)
np.random.shuffle(x) # UNCOMMENT
y = np.sin(x)
split_index = int(x.shape[0]*0.6)
print(split_index)
train_x, test_x = x[:split_index], x[split_index:]
train_y, test_y = y[:split_index], y[split_index:]
plt.scatter(train_x, train_y)
plt.scatter(test_x, test_y, color="r")
- Normalization/Standardization - 입력이 여러 차원일 때 각 차원의 입력을 동일한 스케일로 맞추면, 학습이 빠르다.
- Normalization : 전체 데이터를 0~1로 변환해준다.
- Standardization : 평균을 0, 표준편차를 1이되도록 변환해 준다.
(train_x, train_y), (test_x, test_y) = get_sin_data(start=-10, end=10, step=0.1)
print("min=",np.min(train_x))
print("max=",np.max(train_x))
plt.scatter(train_x, train_y)
plt.scatter(test_x, test_y, color="r")
min= -10.0
max= 9.79999999999993
min = -10 # ADDED
max = 10 # ADDED
train_x = (train_x-min)/(max-min) # ADDED
test_x = (test_x-min)/(max-min) # ADDED
print("min=",np.min(train_x))
print("max=",np.max(train_x))
plt.scatter(train_x, train_y)
plt.scatter(test_x, test_y, color="r")
min= 0.0
max= 0.9899999999999964
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
- 모델 저장과 로딩
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
from tensorflow.keras.layers import Dense,Input
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
loss= 0.21635172963142396
mse= 0.21635172
model.save('my_model.h5')
!ls -al
new_model = keras.models.load_model('my_model.h5')
y_ = new_model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
※ Overfitting 처리
- 학습 데이터에 지나치게 집중을 함으로써 실제 Test 데이터에서 결과가 나쁘게 나오는 현상
- DropOut : 네트웤의 일부를 생략하는 것
- BatchNormalization : 인공신경망에 입력값을 평균0, 분산1로 정규화해 학습을 잘 일어나도록 돕는 방식
- Regularization : Overfitting 해결을 위한 정규화(일반화)
- DropOut 레이어
from tensorflow.keras.layers import Dropout
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dropout(0.1)) # ADDED
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
loss= 0.15994542837142944
mse= 0.15994543
- BatchNormalization(배치정규화) 레이어
from tensorflow.keras.layers import BatchNormalization
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(BatchNormalization()) # ADDED
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
loss= 0.07479829043149948
mse= 0.07479829
- Regularization(정규화)
* Dense() 생성시에 kernel_regularization, bias_regularization으로 설정한다.
from tensorflow.keras.regularizers import l1, l2
(train_x, train_y), (test_x, test_y) = get_sin_data(start=0, end=10, step=0.1)
model = keras.Sequential()
# model.add(Dense(10, activation='tanh', input_shape=(1,)))
# model.add(Dense(10, activation='tanh'))
model.add(Dense(10, activation='tanh', input_shape=(1,), kernel_regularizer=l2(0.001)))
model.add(Dense(10, activation='tanh', kernel_regularizer=l2(0.001)))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start_time = time.time()
model.fit(train_x, train_y, epochs=1000, verbose=0, batch_size=20)
print("elapsed : {}".format(time.time() - start_time))
loss, mse = model.evaluate(test_x, test_y)
print("loss=",loss)
print("mse=",mse)
y_ = model.predict(test_x)
plt.scatter(test_x,test_y)
plt.scatter(test_x,y_,color='r')
plt.show()
loss= 0.2122409462928772
mse= 0.19818695
※ 복수개의 입력과 출력
- 2개의 입력, 1개의 출력
- x1 + x2 -> y의 함수를 학습
- x1과 x2는 0~10의 범위를 갖는다.
x1 = np.arange(0, 10, 0.1)
np.random.shuffle(x1)
x2 = np.arange(0, 10, 0.1)
np.random.shuffle(x2)
x = np.ones((x1.shape[0],2))
x[:,0] = x1
x[:,1] = x2
np.random.shuffle(x)
y = np.sum(x, axis=1)
s = int(x.shape[0]*0.6)
train_x, test_x = x[:s], x[s:]
train_y, test_y = y[:s], y[s:]
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
model = keras.Sequential()
# model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh', input_shape=(2,)))
model.add(Dense(10, activation='tanh'))
model.add(Dense(1))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start = time.time()
model.fit(train_x, train_y, epochs=1000*5, verbose=0, batch_size=20)
print("elapsed :", (time.time() - start))
loss, mse = model.evaluate(test_x, test_y)
print("loss=", loss)
print("mse=", mse)
y_ = model.predict(test_x)
# plt.scatter(test_x,test_y)
# plt.scatter(test_x,y_, color="r")
plt.scatter(test_x.T[0],test_y)
plt.scatter(test_x.T[0],y_, color="r")
plt.show()
elapsed : 39.04483675956726
loss= 0.1009559165686369
mse= 0.10095592
print(x.shape)
print(x[:5])
print(y[:5])
(100, 2) [[0.7 5.1] [5.3 9.8] [7.8 9.9] [9. 6.2] [4. 5.3]] [ 5.8 15.1 17.7 15.2 9.3]
- 1개의 입력, 2개의 출력
* 다음과 같이 y는 2개의 값을 갖고, y1 = x%2, y2=x%3인 함수를 학습
x = np.arange(0,10,0.1)
y1 = x%2
y2 = x%3
x = np.arange(0, 10, 0.1)
np.random.shuffle(x)
y1 = x%2
y2 = x%3
y = np.zeros((y.shape[0],2))
y[:,0] = y1
y[:,1] = y2
s = int(x.shape[0]*0.6)
train_x, test_x = x[:s], x[s:]
train_y, test_y = y[:s], y[s:]
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
model = keras.Sequential()
model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh'))
# model.add(Dense(1))
model.add(Dense(2))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start = time.time()
model.fit(train_x, train_y, epochs=1000*10, verbose=0, batch_size=20)
print("elapsed :", (time.time() - start))
loss, mse = model.evaluate(test_x, test_y)
print("loss=", loss)
print("mse=", mse)
y_ = model.predict(test_x)
# plt.scatter(test_x,test_y)
# plt.scatter(test_x,y_, color="r")
plt.scatter(test_x,test_y[:,0])
plt.scatter(test_x,y_[:,0], color="r")
plt.show()
plt.scatter(test_x,test_y[:,1])
plt.scatter(test_x,y_[:,1], color="r")
plt.show()
- 2개의 입력, 2개의 출력
x1 + x2 -> z,
y1 = z%2, y2=z%3인 함수를 학습
x1과 x2는 0~10의 범위를 갖는다.
x1 = np.arange(0, 10, 0.1)
np.random.shuffle(x1)
x2 = np.arange(0, 10, 0.1)
np.random.shuffle(x2)
x = np.ones((x1.shape[0],2))
x[:,0] = x1
x[:,1] = x2
z = x1 + x2
y1 = z%2
y2 = z%3
y = np.zeros((y.shape[0],2))
y[:,0] = y1
y[:,1] = y2
s = int(x.shape[0]*0.6)
train_x, test_x = x[:s], x[s:]
train_y, test_y = y[:s], y[s:]
from tensorflow.keras import optimizers
from tensorflow.keras.layers import Dense
model = keras.Sequential()
# model.add(Dense(10, activation='tanh', input_shape=(1,)))
model.add(Dense(10, activation='tanh', input_shape=(2,)))
model.add(Dense(10, activation='tanh'))
# model.add(Dense(1))
model.add(Dense(2))
model.compile(optimizer="SGD", loss="mse", metrics=["mse"])
model.summary()
start = time.time()
model.fit(train_x, train_y, epochs=1000*10, verbose=0, batch_size=20)
print("elapsed :", (time.time() - start))
loss, mse = model.evaluate(test_x, test_y)
print("loss=", loss)
print("mse=", mse)
y_ = model.predict(test_x)
# plt.scatter(test_x,test_y)
# plt.scatter(test_x,y_, color="r")
plt.scatter(test_x.T[0],test_y[:,0])
plt.scatter(test_x.T[0],y_[:,0], color="r")
plt.show()
plt.scatter(test_x.T[1],test_y[:,1])
plt.scatter(test_x.T[1],y_[:,1], color="r")
plt.show()
'Deep learning > Code' 카테고리의 다른 글
object_detection_yolo_darknet (0) | 2020.01.22 |
---|---|
2020_01_22 VGG16 (0) | 2020.01.22 |
2020_01_22 CIFAR10 (0) | 2020.01.22 |
2020_01_21 CNN (0) | 2020.01.21 |
2020_01_21 IRIS (0) | 2020.01.21 |