Books
[혼공머신] 3주차 - CH04. 다양한 분류 알고리즘
whatwant
2024. 7. 22. 03:07
어느덧 벌써 4장을 공부하고 있는 3주차가 되었다.
만날 일요일 밤에 벼락치기하고 있는 불량한 참가자 신세이지만....
이렇게라도 공부하려하는 스스로를 기특해 해야지 !!!!! 쓰담~ 쓰담~
04-1 로지스틱 회귀 (Logistic Regression)
- 분류 (Classifier) 모델
- vs. KNeighborClassifier
- 이진 분류 : 시그모이드(Sigmoid)
- 다중 분류 : 소프트맥스(Softmax), parameter C
04-2 확률적 경사 하강법 (Stochastic Gradient Descent)
- 점진적 학습 → 확률적 경사 하강법
- 손실함수 (loss function)
- 로지스틱 손실 함수 (logistic loss function, Binary Cross-Entropy loss function)
- partial_fit()
가제트 형사를 그려주신 것 같은데... MZ(GenZ?) 분들은 아시려나!? ㅋㅋㅋ
Homework
[기본 숙제]
- ① 시그모이드 함수(Sigmoid Function)
→ 기본적으로 선형 함수만 사용하는 경우 결과값이 너무 커지거나 너무 작아질 수 있으므로
비선형 함수를 이용하여 값을 수렴하게 만드는 것이 계산하기에 용이해진다.
이 때, 로지스틱 회귀에서 이진 분류를 사용하는 경우 시그모이드 함수를 이용하면
0에서 1사이의 값으로 변환이 되며, 0.5를 기준으로 0과 1로 결과를 판단하기에 적합하다.
[추가 숙제]
반응형