일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 주피터노트북 커널 목록
- Python
- 주피터노트북 커널 추가
- 주피터노트북 커널 제거
- Machine Learning
- 딥러닝
- regression
- pandas
- lol api
- 회귀분석
- GitHub
- Git
- Linear Regression
- jupytertheme
- Udacity
- overfitting
- MySQL
- ubuntu
- 주피터 노트북 테마
- feature scaling
- 모두를 위한 딥러닝
- 주피터테마
- 나는리뷰어다2021
- 주피터노트북
- random forest
- 데이터분석
- 한빛미디어
- 경사하강법
- deep learning
- deeplearning
- Today
- Total
목록overfitting (2)
유승훈

앞서 배웠던 머신러닝에서 개념적인 부분이 아니라 실제 적용을 위해서 필요한 내용들을 살펴봅니다. Gradient Descent. 경사하강법에서 Learning Rate는 기울기로 Weight를 업데이트할 때 기울기를 얼만큼 반영할지에 대한 지표입니다. Tensorflow에서도 기울기와 Learning Rate를 통해 실제 모델값을 최적의 값으로 업데이트 할 수 있습니다. 이 Learning Rate에 따라 모델의 학습 성능이 달라집니다. 보통은 0.01의 작은 값을 사용합니다. 꼭 0.01을 써야 하는 것은 아니고, 적절한 값을 찾아야 합니다. 너무 큰 Learning Rate는 Cost가 낮아지는 것이 아니라 오히려 커지는 방향으로 업데이트가 이루어질 수 있습니다. 너무 작은 Learning Rate는..

Feature Selection의 기본은 우리가 가진 데이터의 트렌드와 패턴을 잘 파악할 수 있는 최소한의 변수를 선택하는 것입니다. 우리의 Machine Learning Algorithm은 우리가 넣은 Feature들이 좋은 만큼 좋은 성능을 내기 때문입니다. 좋지 않은 Feature는 오히려 Algorithm의 성능을 떨어뜨릴 수 있습니다. "Garbage in, Gabage out"이라는 말이 있죠. Feature Selection은 크게 두 개의 Task가 있습니다. 첫번째는 최고의 Feature들을 고르는 것입니다. 이는 도움이 되지 않는 Feature를 제거하는 것이기도 합니다. 두번째는 새로운 Feature를 만드는 것입니다. 우리가 데이터에서 끌어낸 패턴을 새로운 Feature로 추가하는 ..