본문 바로가기

전체 글547

LAB 08 : Tensor Manipulation RANK, SHAPE, AXIS 을 이렇게 쓸 수 있습니다. 슬라이싱 : 콜론을 이용합니다. 이렇게 1차원에서 어레이를 쉽게 볼 수 있고, 원하는 형태를 가져다 사용할 수 있수 있습니다. 2차원 어레이도 이와 같은 원리로 동작합니다. 데이터를 다루는 키워드 쉐이프, 랭크, 엑시스. shape 이 달라도 연산이 가능한 것이 브로드 캐스팅입니다. 디멘션도 추가할 수 있습니다. 스퀴즈도 있습니다. 원핫 개념도 있습니다. 캐스팅, 스택 쌓는다는 의미입니다. https://www.youtube.com/watch?v=ZYX0FaqUeN4&index=23&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm 2018. 5. 5.
lec 08-1 : 딥러닝의 기본 개념 : 시작과 XOR문제 뇌가 굉장히 복잡하게 연결되어 있다. 단순한 동작원리가 있습니다. 어떤 인풋이 있고. 신호의 양이 달라집니다. 엑스곱웨이트 그리고 바이어스가 들어오더락. 그리고 활성화가 되고. 그 이상이 되면 활성가가 되더라. 이 정도는 기계적 수학적으로 만들 수 있겠다. 이런 형태의 값을 모으는 것이 있다고 가정합니다. 이런 단순한 형태로 만들 수 있겠다. 된것입니다. 1 아니면 0. 여러개를 모은 다면 동시에 여러개를 출력할 수 있다. 학습을 하기 위한 다이얼을 돌려서 이렇게 웨잇을 조정합니다. 특정한 인풋 값들에 대해서 어떤 형태의 출력을 내게 됩니다. 이것을 가지고 인공지능이라고 생각했고. 많은 사람들이 관심을 끌자 허황된 약속하기 시작합니다. 많은 사람들의 관심을 끌자. 연구하는 분들이 허황된 약속을 하게 됩니.. 2018. 5. 4.
lab 07-2 : Meet MNIST Dataset 한자리씩 따지면 784자리가 됩니다. 그리고 None 은 우리가 원하는 갯수 만큼을 넣을 수 있다는 것입니다. 소프트 맥스에서 원핫 인코딩을 사용했습니다. 10개의 출력을 나타내게 됩니다. 이런 형태의 처리 해야 하는데. 복잡하기 때문에. 텐서플로에서 임포트를 하고, 디렉토리를 지정해줍니다. 이렇게 해서 데이터를 읽었으면 트레이닝 하고 넷스트 100개 하면, 100개의 엑스와 와이 트레닝 데이터가 얻어집니다. 원핫을 트루두 두면 원핫으로 처리한다는 것을 알 수 있습니다. 클래스가 10개가 되니다. 엑스와 와이가 784가 왜나왔는지. 몇개 출력인가를 따라서 정해집니다. 엑스 와이가 정해졌으면 간단한 소프트맥스 클래스 파이어를 사용합니다. 더블유의 쉐이프를 신경씁니다. 그리고 바이어스도 신경씁니다. 입력이 .. 2018. 5. 4.
Training/test dataset, Learning rate, normalization (LAB) 테스트 셋이라는 것은 모델의 입장에서는 한번도 본적이 없는 것입니다. 데이터 셋을 가지고 모델을 평가하는 것입니다. 이것이 가장 공정한 것입니다. 엑스 와이 플레이스 홀드, 웨잇과, 바이어스를 선언합니다. 하이퍼시스, 코스트, 옵티마이저는 동일합니다. 예측하는 것이 있습니다. 그리고 이것이 마는지 아닌지를 측정합니다. 그리고 정확도를 구합니다. 이런 방법은 동일 합니다. 어떤 값을 던져주는 가에 따라서 테스트 데이터를 던져서 테스트 할 수 있습니다. 세션을 열고 베리어블을 초기화하고. 엑스 데이터 Learning rate:너무 클때랑 너무 작을때를 나타냅니다.학습이 되지 않고, 발산이 되는 경우가 존재합니다. 그리고 너무 작은 값이 있다면 지역 최소값에 갇히게 됩니다. 학습이 안될 수도 있습니다. 로컬 .. 2018. 5. 4.
도커(Docker)란 무엇인가? 초보를 위한 도커 안내서 https://subicura.com/2017/01/19/docker-guide-for-beginners-1.html 목차 도커란 무엇인가.설치하고 컨테이너 실행하기.이미지 만들고 배포하기. 서버를 관리한다는 건 복잡하고 어려우며 고급 개발자들의 섬세한 작업이 필요한 영역입니다. 맨 처음 했던 일은 매뉴얼을 보고 Redhat Enterprise Linux 4에 Oracle 10g을 설치하는 일이였습니다. 정확히 기억이 나지는 않지만 설치 매뉴얼은 길고 복잡했고 알 수 없는 이유로 자꾸 설치를 실패하였습니다. 제대로 설치가 되지 않으면 다시 OS를 설치하는 것부터 반복하여 몇 번을 재설치한 끝에 성공하곤 했습니다. 회사에서 사용하는 리눅스와 오라클 버전은 딱 정해져 있었고 버전을 .. 2018. 5. 4.
힙(heap) 목차 개요기본 구조값 삽입최대값 삭제힙 정렬C++ STL priority_queue 개요 힙은 이진 트리를 활용한 자료구조이며, 종류로는 최소 힙과 최대 힙이 있습니다. 최대 힙을 알면 최소 힙을 만드는 건 어렵지 않습니다. 최대 힙 자료구조는 기본적으로 아래의 세 연산을 빠르게 수행하기 위한 자료구조입니다. 최대 힙에 새로운 값을 삽입.최대 힙 안의 최대값을 삭제.최대 힙 안의 값 중에 최대값 찾기. 세 연산을 배열로 간단하게 처리하려고 하면, 삽입은 오1로 가능하더라도 최대값을 찾기에서 오엔이 필요함을 알 수 있습니다. 배열에서 최대값을 찾기 위해서, 배열 안의 모든 값을 조사하는 선형 검색이 필요하기 때문입니다. 반면에 힙은 이 세 개의 연산을 모두 빠르게 수행하기 위해 사용하는 자료구조로 삽입과 .. 2018. 5. 4.
크루스칼 알고리즘(Kruskal's algorithm) 목차 개요최소 스패닝 트리크루스칼 알고리즘크루스칼 알고리즘의 구현문제 개요 크루스칼 알고리즘은 무향 연결 그래프가 주어질 때, 최소 스패닝 트리라고 부르는 서브 그래프를 찾는 알고리즘입니다. 크루스칼 알고리즘은 유니온 파인드 자료구조에 사용합니다. 최소 스패닝 트리(minimum spanning tree) 해당 그래프의 모든 정점을 포함하는 트리 형태의 서브 그래프를 뜨샇ㅂ니다. 왼쪽 그래프에서 스패닝 트리를 하나 찾아보면 오른쪽 트리가 나옵니다. 스패닝 트리는 여러개 있을 수 있습니다. 그런 스패닝 트리들 중에서 간선의 가중치의 합이 가장 작은 스패닝 트리를 최소 스패닝 트리라고 부릅니다. 최소 스패닝 트리 중 하나를 찾음으로서 간선의 가중치의 합의 최솟값을 찾는 알고리즘입니다. 크루스칼 알고리즘 크루.. 2018. 5. 4.
유니온 파인드(Union-find) 목차 개요초기화간단한 방법최적화 단계 1최적화 단계 2 - 유니온 파인드 트리유니온 파인트 트리 - 코드문제 개요 집합을 관리하는 자료구조로서, disjoint set이라고 부르기도 합니다. 이 자료구조를 활용하면 아래의 두 가지 연산을 수용할 수 있습니다. 요소 에이와 요소 비가 같은 집합에 속하는지 확인.요소 에이가 속한 집합과 요소 비가 속한 집합을 병합. 이런 식의 두 연산을 효율적으로 하기 위한 자료구조가 유니온 파인드, disjoint set 입니다. 초기화 초기 상태는 각각의 요소가 따로 따로 집합에 속하는 상태입니다. 이 상태를 만들어 주는 간단한 방법으로 아이번째 요소는 아이번째 집합에 속한다 라고 지정하는 방법이 있습니다. 간단한 방법 same_set()함수의 시간복잡도는 O(1) me.. 2018. 5. 3.
Traning/test dataset, Learning rate, normaliztion 07-1 : training/test dataset, learning rate, normalization. 알파값을 임의로 정하였습니다. 소스코드에서 코스트를 정의하고. 미니마이즈할때. 러닝레이트를 임의의 값을 넘겨 주었습니다. 러닝 레이트를 잘 정하는 것이 중요합니다. 굉장히 큰 값을 정한다고 보면, 경사면을 따라서 한발자국의 스텝이 있습니다. 그레디언트 디센트. 코스트 함수 웨이트가 여러개있을때 2차원상에서 표현을 하게 됩니다. 왜곡된 형태의 등고선이 나타날 것입니다. 알파값을 잡았을 때, 노말라이즈 할 필요가 있습니다. 보통 많이 쓰는 방법이 제로 센터 데이터입니다. 또 가장 많이 사용하는 것은 이 값 전체의 범위가 항상 범위안에 들어가도록 노말라이즈 하는 것입니다. 러닝 레이트. 코스트 함수 발산.. 2018. 5. 3.
CNN(Convolutional Neural NetworK) 개념 정리 Machine/Deep Learning 수업의 개요와 일정 요약 2016년 3월 컴퓨터 역사, 인류 역사에 기록될 사건입니다. 알파보가 이세돌 선수에게 4:1의 승을 거두었습니다. 머신 러닝의 대가 앤드류 응교수님. 지금 시대에 머신 러닝을 잘 이해하고 잘 활용해서 슈퍼파워를 가질 수 있다고 말씀하심. 머신러닝을 블랙박스로 사용하다 간단한 이해를 가지고 사용만 합니다. 와이는 더블유엑스 플러스 비 입니다. 목표는 다음과 같습니다. 기본 머신 러닝 알고리즘을 이해하는 것입니다. 선형 회귀와 로지스틱 회귀(분류). 뉴럴 네트워크, 컨볼루션 뉴럴 네트워크, 리커런트 뉴럴 네트워크, 파이선과 텐서플로를 사용하여 나의 문제를 풀고자 합니다. 보고 배우면서 사용하고 있습니다. 대력적인 스케쥴은 머신러닝은 무엇인지 .. 2018. 5. 3.