Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- GitHub
- 모두를 위한 딥러닝
- Git
- overfitting
- deep learning
- jupytertheme
- Python
- feature scaling
- 주피터노트북
- ubuntu
- 딥러닝
- regression
- 경사하강법
- 주피터노트북 커널 제거
- Machine Learning
- random forest
- deeplearning
- 데이터분석
- MySQL
- Udacity
- 주피터테마
- pandas
- 주피터노트북 커널 목록
- 한빛미디어
- 주피터노트북 커널 추가
- 주피터 노트북 테마
- 회귀분석
- Linear Regression
- 나는리뷰어다2021
- lol api
Archives
- Today
- Total
목록ReLU (1)
유승훈

지난시간에는 Neural Network로 XOR을 푸는 것에 대해서 알아보았는데요, 이번에는 모델을 만들면서 사용되는 함수나 테크닉들에 대해서 소개하고 있습니다. 기존의 Neural Network 구조에 대해서 복습하면, 어떤 Input이 Network를 거쳐 Output을 만들어냅니다. 모델이 계산해 낸 Output과 실제 Output간의 차이를 Loss라고 하는데요. 이 Loss를 미분한 값을 Backpropagation 하면서 Network를 학습해나갑니다. Loss를 미분한 값을 Gradient라고 하고, 이 Gradient는 기울기입니다. 이 Sigmoid 함수를 보면, 파란색으로 표시된 영역은 기울기가 큽니다. 기울기가 크다는 것은 변화량이 크다는 것을 의미하죠. 반면 빨간색으로 표시된 영역,..
강의정리/모두를 위한 딥러닝 시즌 2
2021. 2. 24. 04:18