Lec 05-1 - Logistic Classification의 가설 함수 정의
1. Classification
- Regression은 특정 값을 예측하는 것에 비해, Classification은 분류 하는 것,
- binary Classification은 두개 중 하나 분류, Ture / False 1/0
- Spam Detection: Spam or Ham
- Facebook feed: show or hide
- Credit Card Fraudulent Transaction detection: legitimate/fraud
2. Logistic Hypothesis
1) Linear Regression 적용시 문제점
- 과도하게 크거나 작은 범위의 값이 적용될 경우 왜곡이 쉽게 발생함
EX) 5시간 공부해도 합격, 100 시간 공부해도 합격
2) 0과 1사이의 Cost Fuction : logistic function / sigmoid function
sigmoid : Curved in two directions, like the letter "S", or the Greek ς (sigma)
3) Logistic Hypothesis with Vector
Lec 05-2 - Logistic Regression의 cost 함수 설명
1. cost Function
1) 기존 코스트 함수 : local minimum 발생으로 최소값을 찾기 곤란함
2) New Cost Function Concept
(그래프 그려주는 사이트 : https://www.desmos.com/calculator )
2. understanding New cost Fuction
- y=1, H(x) =1 -> correct -> cost Low : C( H(x), y) = -log ( 1 ) = 0
- y=1, H(x) =0 -> wrong -> cost high : C( H(x), y) = -log ( 0 ) = 무한대
- y=0, H(x) =0 -> correct -> cost Low : C( H(x), y) = -log ( 1 - 0) = 0
- y=0, H(x) =1 -> wrong -> cost high : C( H(x), y) = -log ( 1 - 1) = - log (0) = 무한대
3. New cost Fuction : 두 경우의 선형 조합
4. Minimize Cost
Lab 05: TensorFlow로 Logistic Classification의 구현하기
1. Logistic Regression
2. code
'교육&학습 > Deep Learning' 카테고리의 다른 글
[학습] 모두를 위한 딥러닝 #5 Lec 07-1, 07-2, Lab 07-01, 07-02 (0) | 2017.12.10 |
---|---|
[학습] 모두를 위한 딥러닝 #4 Lec 06-1, 06-2, Lab 06-01, 06-02 (0) | 2017.12.09 |
[학습] 모두를 위한 딥러닝 #2 Lab 01 - Lab 04 (0) | 2017.11.30 |
[학습] 모두를 위한 딥러닝 #1 (Lec 00 ~ Lec 04) (0) | 2017.11.30 |
0. 개발 환경 설정하기 ( 아나콘다, CUDA, TensorFlow GPU 버전) (0) | 2017.11.27 |