순차 학습에 대한 설명과 주어진 식의 풀이를 해드리겠습니다.
순차 학습 (Online Learning)
순차 학습은 학습 데이터를 하나씩 또는 작은 배치 단위로 순차적으로 학습하는 방법입니다. 이는 대규모 데이터를 처리할 때 메모리 사용을 최소화하고, 점진적으로 모델을 업데이트할 수 있는 장점이 있습니다.
주어진 식 설명
주어진 식은 순차 학습에서 가중치를 업데이트하는 공식을 나타냅니다. 각 단계에서 가중치 ( w )가 목표 값 ( t_n )과 예측 값의 차이를 기반으로 업데이트됩니다.
식은 다음과 같습니다:
[ w^{(\tau+1)} = w^{\tau} - \mu \nabla E_n ]
[ w^{(\tau+1)} = w^{\tau} - \mu (t_n - w^{(\tau)T} \phi_n) \phi_n ]
여기서:
- ( w^{(\tau)} ): 현재 학습 단계 (\tau)에서의 가중치 벡터
- ( w^{(\tau+1)} ): 다음 학습 단계 (\tau+1)에서의 가중치 벡터
- ( \mu ): 학습률 (learning rate)
- ( E_n ): 단일 데이터 포인트 ( n )에 대한 손실 함수
- ( \nabla E_n ): 단일 데이터 포인트 ( n )에 대한 손실 함수의 그래디언트
- ( t_n ): 데이터 포인트 ( n )의 실제 목표 값
- ( \phi_n ): 데이터 포인트 ( n )의 피처 벡터
식 풀이
첫 번째 식
[ w^{(\tau+1)} = w^{\tau} - \mu \nabla E_n ]
이 식은 가중치 업데이트의 일반적인 형태를 나타냅니다. 현재 가중치 ( w^{\tau} )에서 손실 함수의 그래디언트 ( \nabla E_n )에 학습률 ( \mu )를 곱한 값을 빼줍니다. 이는 그래디언트 방향으로 가중치를 업데이트하여 손실 함수를 최소화하려는 목적입니다.
두 번째 식
[ w^{(\tau+1)} = w^{\tau} - \mu (t_n - w^{(\tau)T} \phi_n) \phi_n ]
이 식은 첫 번째 식을 좀 더 구체적으로 표현한 것입니다. 여기서 그래디언트 ( \nabla E_n )는 다음과 같이 구해집니다:
[ \nabla E_n = - (t_n - w^{(\tau)T} \phi_n) \phi_n ]
- ( t_n ): 실제 목표 값
- ( w^{(\tau)T} \phi_n ): 현재 가중치에 의한 예측 값
- ( t_n - w^{(\tau)T} \phi_n ): 예측 값과 실제 값의 차이, 즉 오차
이 오차에 피처 벡터 ( \phi_n )를 곱한 값이 그래디언트가 됩니다.
따라서 두 번째 식은 오차에 학습률 ( \mu )를 곱하고, 그 값을 현재 가중치 ( w^{\tau} )에서 빼줌으로써 가중치를 업데이트합니다. 이 과정이 데이터 포인트 ( n )마다 반복되어 가중치가 점진적으로 학습됩니다.
요약
순차 학습에서는 매 데이터 포인트마다 가중치를 업데이트하여 모델을 학습합니다. 주어진 식들은 이러한 업데이트 과정을 수식으로 표현한 것입니다. 예측 값과 실제 값의 차이(오차)를 계산하고, 이 오차를 기반으로 가중치를 조정하여 모델이 더 정확한 예측을 할 수 있도록 합니다.
'배움 - 차근차근 기록하자 > [개발] 딥러닝 🍩' 카테고리의 다른 글
L1, L2 정규화와 스파시티(Sparcity) (0) | 2024.06.14 |
---|---|
정규화항 (1) | 2024.06.14 |
편향 (0) | 2024.06.14 |
가우시안 분포 (0) | 2024.06.14 |