일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- deep learning
- XGBoost
- Machine Learning
- Back-propagation
- lime
- Gradient Boosting Machine
- Explainable AI
- data science
- Gradient Tree Boosting
Archives
- Today
- Total
목록Back-propagation (1)
Kicarussays

Francisco S. Melo 선생님의 Neural networks and the Back-propagation algorithm을 참고하였음을 밝힙니다. 구글에 검색하면 pdf파일 나오니까 참고하면서 보면 좋을 듯합니다. 여기에서 다운로드 받으실 수 있습니다. 이제 수식으로 역전파 알고리즘을 이해해볼텐데요, 편미분과 그래디언트 디센트 알고리즘(Gradient Descent Algorithm), 벡터의 내적과 행렬의 곱셈에 대한 개념이 있어야 이해에 도움이 될 것입니다. 1. 퍼셉트론(Perceptron) 퍼셉트론을 잘 나타내는 그림입니다. 데이터 x=[x0,⋯,xp]가 activation 함수를 거치면 $$ a = w_0 + \sum_{i..
Deep Learning
2020. 8. 6. 14:30