Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 딥러닝
- 모두를 위한 딥러닝
- overfitting
- 주피터노트북 커널 추가
- regression
- random forest
- feature scaling
- ubuntu
- 한빛미디어
- deep learning
- jupytertheme
- 주피터 노트북 테마
- 주피터노트북
- Udacity
- deeplearning
- Python
- GitHub
- lol api
- 나는리뷰어다2021
- 데이터분석
- Linear Regression
- 주피터테마
- 회귀분석
- Machine Learning
- 주피터노트북 커널 목록
- Git
- pandas
- 주피터노트북 커널 제거
- MySQL
- 경사하강법
Archives
- Today
- Total
목록SupportVectorMachine (1)
유승훈

SVM은 두 클래스를 가장 잘 분리하는 초평면을 찾는 것입니다. 여기서 "가장 잘 분리"한다는 것은? 분리 기준에서 가장 가까운 포인트까지의 거리를 최대화하는 것입니다. 분리기준에서 가장 가까운 데이터 포인트까지의 거리를 Margin이라고 합니다. Support Vector Machine은 Margin을 Maximize 하기 전에, 데이터 분리의 정확도를 최우선으로 삼습니다. Target데이터에 따라 분리한 뒤에, Margin을 Maximize할 방법을 찾는 것입니다. 이상치가 있을 때는, Decision Boundary를 만든 뒤에, 따로 표시를 해 둡니다. 이런 이상치를 얼마나 허용할지도 조정할 수 있습니다. 비선형 SVM. 1번 그럼처럼 선형으로 분리하기 어려운 데이터는 차원을 바꿔서 선형으로 분리..
강의정리/udacity - machine learning
2020. 11. 8. 18:39