이 글은 필자가 "밑바닥부터 시작하는 딥러닝 1"을 보고 헷갈리는 부분이나 다시 보면 좋을만한 부분들을 위주로 정리한 글입니다.
🪀 헷갈릴만한 단어
- 활성화 함수 vs. 손실함수
- 활성화 함수: 퍼셉트론에 작용
- 손실 함수: NN 전체에 작용
- 오차역전법(수단) vs. 최적화기법(목표)
- 오차역전법: 오차역전법으로 매개변수를 업데이트 하여 최적화 한다.
- 최적화기법: 최적의 매개변수 구하기
🪀 신경망 개요
- Goal: Function approximation = p_\theta (x) 높이기 = 손실함수의 값을 가능한 낮추는 매개변수 찾기 = 매개변수의 최적값을 찾기
- Frequentest View: Model의 파라미터들을 Fixed Value로 취급하여 데이터로부터 그 값을 구해 냅니다. <-- 현재 관점
- Bayesian View: Model의 파라미터들을 각각 하나의 Random Variable로 취급하여 그 Distribution을 구해 냅니다.
🪀 단순 퍼셉트론의 작용
$$y=h(b+w_1 x_1 + w_2 x_2)$$
$$h(x) =\begin{cases}0 & x \leq 0\\1 & x > 0\end{cases} $$
- y=b+w_1 x_1 + w_2 x_2
- 활성화 함수(Activation function) 적용 y=h(b+w_1 x_1 + w_2 x_2)
- Sigmoid 함수: h(x) = \frac{1}{1+e^{-x}}
- ReLU 함수
- Softmax 함수(대부분 출력 노드의 마지막 출력값에 사용)
- 활성화 함수 값에 따른 0, 1 설정
- 결과에 따른 손실 함수(Loss function): 전체 퍼셉트론 결과에 따른 손실을 구하는 것을 말한다.
- 손실 함수
- 평균제곱오차(Mean Squared Error, MSE)
- 교차엔트로피오차(Cross Entropy Error, CEE)
- 신경망 학습은 손실 함수를 지표로, 손실 함수의 값이 작아지는 방향으로 가중치 매개변수를 갱신한다.
- 손실 함수
🪀 오차역전법Back-Propagation
: 가중치 매개변수의 기울기를 효율적으로 구하는 방법, 계산 그래프를 이용하여 풀이
🪀 최적화Optimization
- 결과에 따른 손실 함수(Loss function): 전체 퍼셉트론 결과에 따른 손실을 구하는 것을 말한다.
- 매개변수/가중치 갱신
- 오차역전법으로 가중치 매개변수의 기울기 계산
- 기울어진 방향으로 가중치의 값을 갱신
'AI, Deep Learning Basics > Basic' 카테고리의 다른 글
[Probability] MLE를 통한 MAP 추론: Posterior/Prior/Likelihood -Bayes rule/Bayesian Equation (0) | 2022.01.08 |
---|---|
[기초] 2. Optimization최적화기법/최적화: 매개변수 초기화 및 갱신 (0) | 2022.01.08 |
[NN] PyTorch 함수 모음 (0) | 2021.12.29 |
[Pytorch] 모델 만들 때 초기값을 설정해주는 이유 (0) | 2021.11.24 |
[Machine Learning] Linear Model선형모델/LinearRegression선형회귀/LinearClassification선형분류 (0) | 2019.05.03 |