본문 바로가기
Programming/Deep learning

Logistic regression classification

by OKOK 2018. 1. 16.

수업의 궁극적인 목표 뉴럴 네트워크 딥러닝을 잘 이해하는 것인데, 이것은 굉장히 중요한 컴포넌트 입니다. 이번 수업도 인터넷에 있는 자료 이며, 앤드류 응 교수님의 수업을 많이 이용하였습니다. 리니어 리그레션에 대해서 애기했습니다. 가설 코스트 함수 미니마이즈하는 함수있습니다. 이렇게 리니어하게 폼으로 주어졌습니다. 코스트는 이렇게 리니어하게 가설 가지고 있는 학습데이터와 선을 그은 가설을 세운 선이 얼마나 가깝고 먼가를 측정하는 가가 차이입니다. 학습을 한다는 것이 데이터를 이용해서 바로이 코스트를 최소화하는 것을 찾아내는 것입니다. 어떤 것인지를 알아야 하기 때문에, 오케이요.  


찾고자 하는 점이었습니다. 코스트 함수를 미분한 값으로 나타납니다. 기울기. 한번에 얼마나 움직일까. 바로 알파로 스텝의 사이즈입니다. 오케이요. 이것이 알파로 주어집니다. 러닝 레이트라고 부릅니다. 2개 중에 하나를 고르는 것입니다. 카테고리를 고르는 것입니다. 스팸 이메일 검출, 이메일이 오면 오케이요. 햄이 될지, 페이스북에 들어가면 재미있는 것들 타임라인들,  분류알고리즘을 알기 위해서는 무엇인가요. 좋아요를 선택한 것에 대해서 학습을 해서, 많이 활용되는 분야입니다. 숫자 0, 1 로 인코딩을 합니다. 카테고리를 1이나 0으로 합니다. 오케이요. 굉장히 많은 곳에서 사용됩니다. 이미지를 보고, 이것이 투머, 투머, 오케이, 주식 시장에서 살까 팔까를 이전의 시장 동향을 기록하여 할 수 있습니다. 사람보다 잘 하는 분야. 머신 러닝 사용하는 것입니다. 얼마나 잘 맞추는지 살펴보도록 하겠습니다. 시험에 통과와 실패에 대한 것. 오케이요. 3시간 공부 4시간 공부 6시간 공부에 대해서 1 합격, 어떻게 할 것인지,  


문제점이 존재합니다. 0과 1이 존재합니다. 가설이 존재하게 된다면, 값이 존재하게 됩니다. 웨이트가 0.5 이렇게 학습을 하고 비는 0으로 학습했습니다. 1시간 2시간 5시간 10시간, 11시간 이것을 가지고 학습을 하니, 대략 0에서 1사이의 값이 되겠습니다. 이렇게 모델을 학습시키고, 0과 1 사이에 압축을 시켜주는 0에서 1사이로 만들어주더라 이런 함수가 있을까요. 찾다가 이 함수를 보면 지의 제트값을 입력으로 받습니다. 오케이요. 0에 가깝고 오케이요. 함수를 그려보면 이런 함수의 형태가 나타납니다. 시그모이드 형태로 나타납니다. 오케이요. 에스자모양으로 걸쳐져있습니다. 이것을 로지스틱 함수라고 부릅니다. 시그모이드 함수라고 부릅니다. 제트값이 쥐의 값입니다. 아 새로운 가설을 두고, 쥐의 제트로 두면 됩니다. 오케이요. 그래서 로지스틱 가설은 이렇게 주어집니다. 이것이 바로 시그모이드 함수였습니다. 리니어 하이퍼시스를 넣은 것입니다. 더블유 벡터의 형태. 로지스틱 분류 함수입니다. 코스트를 구하고 코스트를 최소화하는 것입니다. 오케이요.