본문 바로가기
Programming/Deep learning

lec 08-1 : 딥러닝의 기본 개념 : 시작과 XOR문제

by OKOK 2018. 5. 4.

뇌가 굉장히 복잡하게 연결되어 있다. 단순한 동작원리가 있습니다. 어떤 인풋이 있고. 신호의 양이 달라집니다.


엑스곱웨이트 그리고 바이어스가 들어오더락. 그리고 활성화가 되고. 그 이상이 되면 활성가가 되더라. 이 정도는 기계적 수학적으로 만들 수 있겠다. 이런 형태의 값을 모으는 것이 있다고 가정합니다.


이런 단순한 형태로 만들 수 있겠다. 된것입니다. 1 아니면 0. 여러개를 모은 다면 동시에 여러개를 출력할 수 있다. 학습을 하기 위한 다이얼을 돌려서 이렇게 웨잇을 조정합니다. 특정한 인풋 값들에 대해서 어떤 형태의 출력을 내게 됩니다. 이것을 가지고 인공지능이라고 생각했고. 많은 사람들이 관심을 끌자 허황된 약속하기 시작합니다. 

 


많은 사람들의 관심을 끌자. 연구하는 분들이 허황된 약속을 하게 됩니다. 민스킨 자신도 어느 누구도 바이어스와 웨이트를 학습시킬 수 없다고 생각하였습니다. 




라쿤 교수님 실험. 그림을 볼때 어떤 신경망 세포가 동시에 그림 전체를 보는 것이 아니라 일부 담당하는 신경들이 있고. 나중에 조합되는 것이 아닌가. 라쿤 교수님의 생각이었습니다. 1990

 

그림이 있으면 뉴럴네트워크에 한번에 보이는 것이 아니라. 이것을 잘라서 레이어로 보내고 각각 레이어로 보내고 나중에 합치는 방법으로 하는 네트워크를 개발한 것입니다. 알파고도 사용했습니다. 문자 인식은 90%이상의 성능을 보이고 있습니다. 미국의 경우 책을 자동으로 읽어들이는 기계를 만들어 사용했습니다. 


자율주행차 1974에서 어느정도의 성능도 거두었습니다. 백프로파게이션이는 알고리즘이 몇개는 동작하는 실제로 포함하는 것은 굉장히 십여개 되는 이상되는 레이어가 필요합니다. 학습 시킬 수 있어야 합니다. 뒤에서 이렇게 가는 구조였기 때문에 앞의 에러를 뒤로 보낼 때. 의미가 갈 수록 약해져서. 



훨씬 더 알고리즘 랜덤포레스트, SVM이 더 잘 되더라. 너무 복잡하기 때문에 어렵다.


CIFAR 단체 

연구센터를 세우면서 당장 돈이 되고, 활용도가 있지 않아도 밀어줌.  딥 러닝. 뉴럴 네트워크 동일한 것입니다. 처음 초기값을 잘 주면 트레이닝이 잘 되더라 입니다. 정말 주목을 받게 된 계기는 이미지넷이라는 것. 컴퓨터에 맞추게 하는 것입니다. 


오류가 26에서 15프로 툭 떨어지게 됩니다. 이게 뭐지? 관심을 가졌고, 계속해서 발전을 해서 작년의 경우 2015년에는 딥러닝 기반의 시스템은 3%의 에러로 들어갔습니다. 스탠포드 그림을 가지고 공부를 해봤는데. 이것이 5프로 정도가 나왔습니다. 컴퓨터가 잘 할 수 있게 된 것입니다. 


그림의 명사 뿐만 아니라. 설명할 수 있게 되었습니다. 연구실 딥 에이피아이 러닝이라는 것입니다. 프로그램 개발 많이 사용하는데 자동 예측 해주자. 자연어로 시스템에게 입력을 줍니다. 파일을 카피해서. 그리고 이것을 디렉토리에 저장하고 싶다. 이렇게 말만 하면 우리의 시스템이 어떤 에이피아이를 써야하는지를 쭉 나열해줍니다. 이것을 가져다가 그대로 놓고 변수들만 채우면 프로그램이 완성됩니다.


유트브 자막 자오는 것.

음성 인식.

페이스 관심이 가는 피드들만 학습을 통해서 보여줍니다. 

넷플릭스, 아마존, 홍콩 인터넷 쇼핑몰. 예측을 해서 매출을 올릴 수 있습니다.

삶에 도움이 정말 많이 도와줍니다. 지금 해도 따라잡기 쉽습니다. 텐서플로 같은 툴이 많습니다. 쉬운 랭귀지가 있습니다. 충분히 배워서 활용할 수 있습니다.


무엇보다도 이 분야가 재밌는 분야이기 때문에 재미를 볼 수 있을 것 입니다.