본문 바로가기
Programming/Deep learning

Motivation

by OKOK 2018. 1. 22.

머신러닝 기계학습, 많이 활성화된 이유가 데이터가 축적이 되었고, 공개되어 있고, 처리할 수 있는 능력이 생겼습니다. 보면 다양한 신문정보라던지 소셜 네트워크, 머신의 로그 데이터도 사용됩니다. 주가지수의 변동 스페셜 정보 이런것들도 많이 쓰이고 있습니다. 이런 정보들을 특성에 맞춰서 본다고 하면 텍스트, 네트워크, 타임 시리즈, 시계열 기반의 데이터가 있습니다. 이미지 데이터도 있습니다. 주가 지수, 마켓의 상태는 어떠한가, 번호판 자동으로 인식해서 문을 열어주는 시스템이 있습니다. 번호판을 인식하는 것 페이스북하거나 트위터하느 것들, 팔로우하면 좋을 것들, 추천되서 나오는 것들, 로봇들을 행동을 결정합니다. 헬리콥터가 날아가고 있을때, 인버티드 그런 행동들을 현실화가능합니다.  요약하고 정리하고 군집하고 찾아내는 것, 그리고 마지막으로 어떤 것들이 조금 더 인텔리전트한 행동인가. 


알려주는 데이터가 있습니다. 이런것들은 찾고, 이런것들은 찾지 않도록 합니다. 슈퍼바이스드 러닝이라고 합니다. 스팸 필터링이 있습니다. 슈퍼비전없이 주는 것입니다. 


동그라미나 꽃표가 없다. 어떤 패턴이 있는지 찾아보세요. 선호하는 패턴이 있고, 찾고 싶지 않았던 관심이 없던 패턴도 있습니다. 군집화 이후에는 유용합니다. 클러스터를 찾는 것. 현상을 드러나는 이유, 많은 신문기사 클러스터링 기사가 되겠습니다. 요인이 무엇인지 패턴을 찾는데 쓰일 수 있습니다. 클러스터링 방법이라던지, 필터링을 아웃해서 우리가 원하고자 하는 데이터를 찾아내는 방법, 언슈퍼바이즈 러닝을 활용할 수 있습니다. 


세타햇이 되겠습니다. 오케이 엠엘이라는 과정을 거쳐서 5분 3, 5분의 2입니다. 세타는 0.6 입니다. 음 그래, 많이 배운 사람이라서 다르긴 한데, 시간이 남아서 던져보았더니, 앞정을 50번, 30번, 20번 이렇게 나왔어, 50번던져서 30번 나온거라 같은건가 다른건가?, 파라미터에 대해 추론을 한 것이지, 에러를 줄 일 수 있습니다. 이런수식을 봤는데 트루파라미터, 세타는 아무런 에러없어 던졌을 때 나오는 값, 트라이얼 에러는 항상 존재합니다. 동일할 수는 없습니다. 추론한 세타햇, 르푸라마티, 셋타, 스타, 이것의 차이가 특정에러보다 클 확률은 엔이 더 늘어나서 파라미터 추정된 파라미터 사이의 에러가 더 작을 것입니다. 트루와 0.1 오차가 나면서, 0.1 0.01 퍼센트보다 작게끔 만들 수 있을까요.   


엠에이피라는 과정에 대해서 알아보도록 하겠습니다. 추가정보를 넣었습니다. 가미한 세타를 넣어보도록 하겠습니다. 공식을 만들었습니다. 데이터가 존재할 정보, 세타의 사전 정볼르 고하고 세타가 주어졌을때, 데이터가 주어쎠을떄, 셋타의 확률을 만들어 낼 수 있습니다. 세타에 대한 사전정보, 관측될 확률, 포스테리어 셋타가 사실일 확률을 이렇게 표현할 수 있습니다. 중요한 공식을 이렇게 만들어 낸 것입니다. 피디바 셋타 바이노미얼 베르누이 엑스페리먼트, 오케이요. 그리고 피 셋타라고 하는 50대 피디바셋, 피 세타를 가미하다. 포스테리어를 계산해봅시다. 데이터와 전처리를 함꼐 적용해서 피 세타바디를 알아보도록 하겠습니다. 알파 베타를 파라미터는 알파와 베타입니다. 바이너미널 헤드, 테일이 나온 햇수 셋타라는 것을 활용하는 파라미터가 있었습니다. 베타 디스트리븉 알파베타가 필요합니다. 계산을 해보도록 합니다. 수식을 잘 만들어두었습니다. 곱하면 됩니다. 가져옵니다. 피 세타 여기에 정의가 되어있씁니다. 가져옵니다. 알파오 바테가ㅏ 결정이 되어가는것, 컨스턴트 텀이이 있습니다. 셋타에 의존하게끔 되어 있습니다. 비파트는 프로포션으로 처리합니다. 자승에 대해서 덧셈을 하게 됩니다. 세타바 디를 최적화하면 어떻게 될 것인가요. 자승과 자승을 덧셈하고, 특정하게 추정하려는 부분을 가져올 수 있습니다. 알파 베타 - 2분에 입니다. 1 알파 베타 셋타 햇이 되는 것입니다. 최적화하는 것입니다. 동일함니다. 관점이 다르다. 사전 정보를 넣을 수 있는 방법이 생기는 것입니다.


숫자가 다르다. 엠엘이 엠에피, 값이 달라집니다. 아주 여러번 실험을 해보면 사전정보의 값이 페디ㅡ 어웨이 하고, 에이치와 티에 의해서 오케이요. 알파 베타의 영향력이 주러듭니다. 단순히 동전 던지기 하자 했을 경우에, 50대 50이지 않을까? 쉽게 애기했던 확률이 엠엘이 엠에피라는 관점에서 다른 숫자가 나올 수 있습니다. 기계학습과 머신러닝 필드에서 중요한 컨셉이 되겠습니다. 


위크원 베이직 부분 함수는 매핑이기 때문에 정의했다고 생각합니다. 몇몇 가지 특성을 알아볼 수 있습니다. 에이와 비라고 하는 사건들이 있는데, 특수한 관계에 있는 것이라고 생각을 해봅시다.  조건부 확률입니다. 오케이요. 아래 공식은 우리가 학기가 지나가면서 많이 활용할 공식입니다. 모든 이벤트의 합을 더하면 1이 됩니다. 항상 0 과 1사이에 있습니다. 이렇게 확률 누적 밀도 함수, 다양한 정의 들이 있습니다. 표족하게, 등등 여러함수들이 있습니다. 공식 자체를 바꾸는 것입니다. 이름을 줍니다. 노말, 푸아송 디스트리뷰션이다. 파라미터를 정의하게 됩니다. 베타 디스트리뷰션이 있습니다. 사실 다른 부분이 있습니다. 범위가 정해져 있는 것. 확률을 모델링 할때는 베타 디스트리뷰션을 할 수 있습니다. 0에서 1사이라는 범위가 형성됩니다. 베이지라는 사람이 프라이얼 디스트리뷰션 어허게 쓸까? 베타 디스트리뷰션입니다. 민, 베리언스가 있습니다 .알파와 베타가 바로 그 파라미터가 되는 것입니다. 바이노미얼 디스트리뷰션이 있습니다. 바이노미얼 에스 노 초이스 한다거나 군집이 5개 있는데, 초이스 해보세요. 확률의 부분에 간단히 알아봤습니다. 


가장 기초적인 것을 개관적으로 디스젼드리 리니어 레그레이션, 룰베이스, 통계적인 방법을 활요하는 기계 학습 방법을 배워보도록 하겠습니다.