728x90
반응형
기본 아이디어
최종 식에서 ( w_0 )는 모델이 얼마나 편향되어 있는지(즉, 예측이 목표 값과 얼마나 다른지)를 보정해주는 역할을 합니다.
식 다시 보기
[ w_0 = \frac{1}{N} \sum_{n=1}^{N} t_n - \frac{1}{N} \sum_{j=1}^{M-1} w_j \phi_j ]
이 식은 두 부분으로 나눌 수 있습니다:
- 목표 값의 평균: (\frac{1}{N} \sum_{n=1}^{N} t_n)
- 가중치와 함수의 조합의 평균: (\frac{1}{N} \sum_{j=1}^{M-1} w_j \phi_j)
1. 목표 값의 평균 ((\frac{1}{N} \sum_{n=1}^{N} t_n))
훈련 데이터에서 목표 값 ( t )를 모두 더한 후, 데이터의 개수 ( N )으로 나눈 것입니다. 쉽게 말해, 훈련 데이터의 목표 값들의 평균을 나타냅니다.
2. 가중치와 함수의 조합의 평균 ((\frac{1}{N} \sum_{j=1}^{M-1} w_j \phi_j))
여기서 ( w_j )는 가중치, ( \phi_j )는 함수입니다. 이 둘을 곱한 값을 모두 더하고, 데이터의 개수 ( N )으로 나눕니다. 이것은 모델이 예측한 값들의 평균이라고 생각할 수 있습니다.
전체 식 ( w_0 )
목표 값의 평균에서 모델 예측 값의 평균을 빼면 ( w_0 )가 나옵니다. 즉, ( w_0 )는 모델이 목표 값에서 얼마나 벗어나 있는지를 보정해주는 역할을 합니다.
쉽게 말해, ( w_0 )는 모델이 예측하는 값이 실제 목표 값과 더 가깝도록 만들어주는 값입니다. 이렇게 해서 모델이 더 정확한 예측을 할 수 있게 됩니다.
이해가 되셨길 바랍니다! 더 궁금한 점이 있으시면 언제든지 물어보세요.
728x90
반응형
'배움 - 차근차근 기록하자 > [개발] 딥러닝 🍩' 카테고리의 다른 글
정규화항 (1) | 2024.06.14 |
---|---|
순차학습 (1) | 2024.06.14 |
가우시안 분포 (0) | 2024.06.14 |
제곱합오류함수(SSE) 미분 식 (1) | 2024.06.14 |