본문 바로가기
Programming/Deep learning

Classifier 알 수 있습니다.

by OKOK 2018. 1. 22.

이런 것들 사실은 만들기 위해서 만들어 봤지만, 잘 만들기 위해서는 알아 볼 필요성이 있습니다. 최적화 분류, 분류 경계선 x가 하나의 랜더베리어블 일때, 키의 분포에 따라 유무 키큰 사람 키 작은 사람 없는 사람 다 가, 오라고 해서, 키에 계산이 가능하리라 생각됩니다. 노말을 따른닥 가정을 하면 노말을 하면 피엑스 바 피엑스, 파라미터들을 추정을 해서 넣어 줄 수 있을 것 입니다. 예를 들면, 있고, 없고 키만 활용하는 것이 아니라 키와 지역, 


200개 정도의 다큐멘트를 가지고 벡터의 길이를 제어보니, 29717 유니크 워드가 있었습니다. 오케이요. 사람들이 쓰는 단어들이 다양 합니다. 클래스는 파지티브와 내가티브가 있습니다. 나이브 베이지 클래시 파이어 베리어블이 정의됩니다.  배그오브워드라는 말이 표현이 되어 있습니다. 29717개가 들어가 있습니다. 컬럼이 있고 로우가 있습니다. 개별 리뷰를 표현하고 있습니다. 3만개의 것들이 있습니다. 열어보도록 하겠습니다. 매트릭스가 있는데, 우측으로 가봅니다. 실제 구현을 할 때 로그로 덥셈을 곱셈을 합니다. 로그도 모노토닉하게 인크리징하기 때문에 곱셈해도 판별만 하는데 사용됩니다. 클래스를 부여하겠다는 것입니다. 그래서 여기서도 마찬가지로 로그값이 어디 쪽인지 보고, 오류는 없습니다. 


로지스틱 레그레션 룰베이스드 그리고 룰베이스들 나이브베이즈에 대해서 알아보도록 하겠습니다. 엠엘이 엠에이피. 정의를 해보도록 하겠습니다. 베이즈 리스크 에러가 들어가는 확률, 그래서 그런 방법으로 설계를 해보도록 하겠습니다. 데이터를 어떻게 핏팅할 것인지, 확인햅도록 하겠습니다. 600 90 건의 점들이 있는 상태입니다. 이 것을 리니어 리그레션으로 피팅해보도록 하겠습니다. 리스판스 베리어블이 지금 디스크립트한 상황입니다. 핏팅하는 방향으로 흐릅니다. 오케이요. 그것을 그냥 적용해보도록 하겠습니다. 빨간 선처럼 나오게됩니다. 파란색 점들이 데이터 셋입니다. 왼쪽에는 낮은 0의 값을 가지고 있고, 익스트림한 값.