hypothesis ( 가설 함수 ) : 문제를 해결하기 위해 가정하는 식 -> y = ax + b
weight ( 가중치 ) : 기울기 a는 변수 x에 어느 정도의 가중치를 곱하는지 결정한다. -> a를 w로 표시
bias ( 편향 ) : 절편 b는 데이터의 특성에 따라 따로 부여하는 값이다. -> b로 표시
즉, 우리가 배워온 y = ax + b는 머신러닝에서 H(x) = wx + b라고 표기한다.
loss function ( 손실 함수 ) : 평균 제곱 오차처럼 실제값과 예측값 사이의 오차에 대한 식
optimizer ( 옵티마이저 ) : 최적의 기울기와 절편을 찾기 위해 경사하강법을 배웠는데, 이렇게 최적을 해를 찾기 위해 사용하는 방법들을 optimizer라고 한다. -> 우리가 배워온 경사하강법은 여러 옵티마이저 중 하나이다.
activation function ( 활성화 함수 ) : 입력된 값을 다음 층으로 넘길 때 각 값을 어떻게 처리할지를 결정하는 함수
1) Dense 함수
출력값이 하나이므로 첫 번째 인자에 1이라고 설정
입력될 변수도 하나뿐이므로 input_dim 역시 1이라고 설정
activation -> 활성화함수를 정하는 옵션
2)
compile에 optimizer와 loss function 설정
3)
fit에 epochs 숫자를 설정