일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
- 주피터테마
- Udacity
- 경사하강법
- deeplearning
- Machine Learning
- 모두를 위한 딥러닝
- regression
- 주피터노트북 커널 추가
- 주피터노트북 커널 제거
- Python
- Linear Regression
- 데이터분석
- pandas
- ubuntu
- 주피터노트북
- 회귀분석
- Git
- 한빛미디어
- lol api
- 주피터 노트북 테마
- feature scaling
- GitHub
- random forest
- 주피터노트북 커널 목록
- overfitting
- deep learning
- jupytertheme
- 나는리뷰어다2021
- MySQL
- 딥러닝
- Today
- Total
목록Udacity (11)
유승훈
Decision Tree는 분류(Classification)와 회귀(Regression)문제를 둘 다 풀 수 있는 알고리즘입니다. 변수들에 조건을 붙여서 데이터들을 분류하는 방식으로 모델을 만듭니다. 데이터를 나눌때 우리는 Decision Boundary를 설정합니다. 데이터를 어떤 변수를 기준으로 어떻게 Split할지를 정하는 것입니다. 가장 위의 그림을 보면, 파란색(Fast)과 빨간색(Slow) 각 Class에서 3개의 Data Point 때문에 Decision Boundary가 길게 삐져나와 있는 것을 볼 수 있습니다. 극히 일부의 데이터 때문에 분류영역이 생성된 것인데, 이는 Overfitting(과적합) 문제를 의심해볼 수 있습니다. Decision Tree의 Parameter들을 통해 이를 ..
SVM은 두 클래스를 가장 잘 분리하는 초평면을 찾는 것입니다. 여기서 "가장 잘 분리"한다는 것은? 분리 기준에서 가장 가까운 포인트까지의 거리를 최대화하는 것입니다. 분리기준에서 가장 가까운 데이터 포인트까지의 거리를 Margin이라고 합니다. Support Vector Machine은 Margin을 Maximize 하기 전에, 데이터 분리의 정확도를 최우선으로 삼습니다. Target데이터에 따라 분리한 뒤에, Margin을 Maximize할 방법을 찾는 것입니다. 이상치가 있을 때는, Decision Boundary를 만든 뒤에, 따로 표시를 해 둡니다. 이런 이상치를 얼마나 허용할지도 조정할 수 있습니다. 비선형 SVM. 1번 그럼처럼 선형으로 분리하기 어려운 데이터는 차원을 바꿔서 선형으로 분리..
가지고 있는 동물들을 Acerous, Non-Acerous로 분류해두었다고 합시다. 여기에 새로운 동물이 들어와서 그룹 분류를 할 때, 이전에 어떤 기준으로 분류해두었는지를 봐야합니다. 분류기준은 동물의 색일수도 있고, 다리의 갯수, 뿔의 유무 등 다양한 것들이 있을 수 있습니다. 퀴즈. 네 가지 예시 중, 지도학습. 그 중에서도 분류문제에 해당하는 것은? 2번은 이전에 fraud - non fraud로 분류된 label 데이터가 없기 때문에 unsupervised learning에 해당합니다. 처음에는 fraud만 보고 classification 인 줄 알았는데, 틀리고 다시 보니 label이 없었습니다. 4번은 학습 스타일에 따라 학생들을 묶는 것이기 때문에 unsupervised learning, ..