일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- GitHub
- Udacity
- Machine Learning
- ubuntu
- feature scaling
- Linear Regression
- 주피터노트북
- lol api
- overfitting
- 회귀분석
- deep learning
- jupytertheme
- 주피터테마
- MySQL
- Git
- 주피터 노트북 테마
- 한빛미디어
- pandas
- 주피터노트북 커널 추가
- random forest
- 딥러닝
- Python
- 주피터노트북 커널 제거
- 경사하강법
- regression
- 나는리뷰어다2021
- 데이터분석
- deeplearning
- 모두를 위한 딥러닝
- 주피터노트북 커널 목록
- Today
- Total
목록경사하강법 (2)
유승훈
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bFXd7f/btq2IhS62MU/nuEx2aZQK4ANZOVS9OqsuK/img.jpg)
본 도서는 한빛미디어 도서 서평단 로 선정되어 받은 도서입니다. 리뷰 작성 겸 각 챕터를 간단하게 정리해보고자 합니다. 앞선 챕터에서는 문제를 푸는데 필요한 가중치(W)와 편향을 알고 있었습니다. 이번에는 이를 최적화하는 과정에 대해서 공부해보고자 합니다. 오차 우리는 가중치와 편향을 계속해서 갱신해서, 우리의 딥러닝 알고리즘이 내는 답인 `f(x)`가 실제값인 `y`에 가까이 가도록 합니다. "우리의 답이 정답과 다르다"라는 것은, 원하는대로 예측이 이루어지지 않는 것을 의미합니다. 책에서는 어떤 이미지가 길쭉한지 길쭉하지 않은지를 판단하는 문제가 등장하는데, 실제로는 길쭉한 이미지를 모델은 길쭉하지 않다고 판단한다면, 모델이 우리가 의도하지 않은 방향으로 문제를 풀고 있음을 알 수 있습니다. 이상적으..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bhpXVR/btqV35Ght5P/TB7lsHxjw5omK88r4HdkW0/img.gif)
본 글은 모두를 위한 딥러닝 강의를 듣고 작성한 글입니다. 앞선 강의에서 Linear Regression의 기본 개념에 대해 살펴보았습니다. 간단하게 Review하면, 이 Cost, 즉 비용이 적을수록 우리의 Line, Hypothesis가 실제 데이터를 잘 대변하고 있다고 볼 수 있습니다. Linear Regression의 목적은 Cost를 최소화하는 W와 b를 찾는 것입니다. 우리가 썼던 앞선 가정에서 y절편인 b를 생략해봅시다. 이런 식의 가정입니다. 사실 나중에 `W`가 Matrix가 되면, b를 그 안에 집어넣을 수 있으니 크게 구조가 달라진 것은 아닙니다. 주어진 데이터를 기반으로 Cost를 계산하면, W=0, Cost=4.67 W=1, Cost=0 W=2, Cost=4.67 W=3, Cost..