본문 바로가기

전체 글547

객체 지향 기본 개념 캡슐화(묶음+보호) 클래스 내부에서 여러 속성과 여러 오퍼레이션을 함께 묶음을 의미.클래스 내부의 속성이나 오퍼레이션을 외부에 노출하지 않고 보호하는 것. 추상화(공통) 객체에서 공통된 속성과 행위를 추출하는 것. 객체 기술 사전에 따르면 중요하지 않거나, 주 관심 대상이 아닌 자세한 부분은 감추거나 무시하고, 가장 중요하고, 근간이 되고, 다른 대상들과 구분될 수 있는 면만을 포함하고 있는 모델이며, 공통점을 강조하기 위해 차이점을 제거한 결과물. 상속 자신이 가지고 있는 것을 하위에 물려주거나, 하위에서 물려받는 것. 재사용으로 인해 코드가 줄어듬. 하위 클래스에서 오퍼레이션을 다시 정의하지 않고 상속받아서 사용함으로써 코드가 줄어듬. 좀 더 범용성 있게 사용할 수 있음. 또한 자신만의 자료와 메소드.. 2018. 5. 7.
HUE (HSV컬러모델) 영상처리를 하다보면 HSV 라는 컬러모델을 접하게 되는 경우가 많다. 우리가 평소에 접하는 컬러모델은 RGB 라서 그런지 조금은생소한 느낌이 드는 것은 사실입니다. RGB는 Red, Green, Blue 로 이루어진 컬러모델로써, 모든 컬러를 Red, Green, Blue 의 가산혼합으로 표현하는 방식입니다. 우리가 사용하는 모니터가 RGB를 사용하는 대표적인 장치라고 볼 수 있습니다. 그렇다면 HSV는 무엇인가요? Hue, Saturation, Value 로 이루어진 컬러모델로써 모든 컬러를 Hue, Saturation, Value 로 표현하는 방식입니다. 색상, 채도, 명도를 의미합니다. Hue 는 0~100도, Saturation 은 0~100퍼센트, Value 는 0~100퍼센트 입니다. Open.. 2018. 5. 7.
lab 12-6 RNN with time series data 타임 시리즈 데이터라는 것은 시간에 따라서 값이 변하는 것입니다. 타이. 벨류가 될 것 입니다. 주식 시장의 시장의 가격. 오픈가 종가. 체결량. 상한가, 하한가 가격 데이터를 가지고 있을 것 입니다. 타임시리즈라고 할 수 있습니다. Many to one 이 되겠습니다. 7일 정도의 데이터 쭉 있고, 8일째 되는 값이 궁금한 것입니다. 데이터를 가지고 학습하게 됩니다. 생각 해 볼 점들 입력의 디멘션, 시퀀스의 길이는 얼마인지, 출력의 히든 사이즈는 얼마인지 알아야 합니다.아웃풋 1이 되겠습니다. 인풋은 5가 되고 시퀀스는 7이 되겠습니다. fc를 연결하면 원하는대로 만들 수 있습니다. 히든 사이즈를 원하는대로 설정하고 아웃풋을 도출해 냅니다. 마지막 것만 사용합니다. 그리고 풀리커넥티드의 최종 출력은 .. 2018. 5. 6.
lec 12 : NN의 꽃 RNN Sequence data 가 있습니다. 단어. 맥락을 이해하는 것. 단어를 이해한 다음에 다음 단어가 이해가 됩니다. 시퀀스 데이터가 되겠습니다. NN/CNN에는 시퀀스 데이터가 아닙니다. 시리즈 데이터들을 처리하기가 어렵습니다. 그래서 많은 사람들이 고민한 끝에 만들어 낸 것이 RNN 입니다. 실제로는 구현되는 형태가 있습니다. 어떠한 입력이 있고 각각 출력이 있습니다. 이전의 상태(state)가 다음 것에 영향을 미치는 것을 의미합니다. 어떤 시점에서 계산을 할때 이전의 상태의 값이 영향을 미친다. RNN에는 state 라는 개념이 있습니다. 스테이를 보면 이전의 데이터가 입력으로 사용됩니다. 바닐라 RNN (가장 기초가 되는 RNN) 알고리즘은 이것입니다. 각각의 웨이트를 만들어줍니다. 똑같은 형식.. 2018. 5. 6.
lec 6-1 : Softmax Regression Logistic regression 또는 Logistic classification. 리니어한 값을 가지고 출발했습니다. 더블유 엑스의 단점은 리턴하는 값이 실수의 값이 되기 때문에. 바이너리 클래스 0이나 1이냐에 접합하지 않았습니다. 그래서 생각한 방법이 이것이 하나의 z 라고 두고, g(z)라고 두고. 큰 값을 압축을 해서 0이나 1로 그 사이의 값으로 나누어주면 좋겠다 라고 생각을 했습니다. 그래서. z 에 축의 값이 커지더라도 0과 1사이의 값안에 들어왔으면 좋겠다라고 생각했습니다. 그것이 바로 Sigmod 라고 부르고나 로지스틱이라고도 불렀습니다.와이햇에 대해서 예측한 것입니다. 와이햇이 H(x) 입니다. 불류 해야 할 데이터가 있다고 가정합니다. 더블유를 학습한다 로지스틱 레그레션을 학습한다.. 2018. 5. 6.
lec 10-1 : Sigmod >>>> ReLU 변수를 선언하고. 이것을 연결하면 됩니다. L1, L2, ... 최종 가설은 이렇게 됩니다.좋지 않은 결과가 나온다.? 왜 이런일이 생길까요? 텐서보드를 통해서 보니. 코스트와 정확도를 살펴보았습니다. 2단 3단 정도의 경우는 잘 학습이 되는데, 9단 10단은 학습이 잘 안되는 것입니다. 이것이 문제였는데. 문제를 봅시다. 백 프로파게이션을 봅니다. 미분을 했는데. 전체를 하기 어려우니, 뒤에서부터 하나씩 해나갔습니다. 제일 처음 변수가 f에 a미치는 영향을 알고 싶습니다. 시그모이드를 통과하기 떄문에 1보다 작은 값이고 운이 좋지 않으면 0.01과 같이 굉장히 작은 값들이 곱해집니다. 그럼 이값들이 곱해지면 굉장히 작은 값이 됩니다. 최종적인 출력에서 2, 3단까지는 괜찮지만 뒤로 갈수록 곱해지는 항들.. 2018. 5. 6.
lec11-3 COnvNet의 활용 예 인풋이 손으로 쓴 글씨 이미지 입니다. 그 다음 살펴볼 것은 AlexNet 이라는 것입니다. 많은 사람들의 관심을 끌었던 것입니다. 이미지 경진 대회에서 1등을 하였습니다.풀링도 이어집니다. 정리를 하면 아래와 같이 됩니다.conv, maxpool, norm, conv, conv 를 쌓아 나갑니다. 4096의 입력을 받아서 4096출력을 만들어는 Fully connected 를 만들어 냅니다. 그리고 2014 우승자는 구글넷입니다. 인셉션 모둘이라고 부르는데. 병렬적으로 쓰기도 하고, 풀링도 하고 conv 도합니다. 2015년 최강자 ResNet. 사람이 판단하는 5%를 능가하는 시스템입니다. 중간에 점프를 합니다. 왜 학습이 잘되는지 설명하기는 어렵지만, 점프해서 더해주지만. 잘되는지는 이해하지 못하고.. 2018. 5. 6.
lec11-2:ConvNet Max pooling 과 Full Network 풀링 레이어는 샘플링이라고 생각하면 됩니다. 하나의 레이어만 뽑아낸다고 가정합니다. 이것을 사이지를 작게 만드는 것을 말합니다. 풀링이라고 말합니다. 하나의 예를 들어보겠습니다. Max pooling 이라고 봅시다. 이렇게 하면 총 몇개의 출력이 생길까요. 2*2의 아웃풋이 될 것 입니다. 그러면 값이 이렇게 있는데, 여러가지 방법이 있을 수 있습니다. 평균. 최대값, 최소값. 가장 많이 사용되는 것은 MAX POOLING 이라는 최대값을 뽑아내는 것입니다. 전체의 값들 중에 하나를 뽑기 떄문에 샘플링이라고 불리기도 합니다. 렐루는 벡터를 렐루라는 펑션에 입력을 하게 되면 쉽게 되는 것입니다. 풀링은 샘플링 하는 방법입니다. 이런 것들을 원하는 순서대로 쌓으면 됩니다. 그리고 마지막 층에 이제 FC를 하.. 2018. 5. 6.
elc11-1 ConvNet의 Conv 레이어 만들기 CNN에 대해서 적어보겠습니다. 예를 들어 입력을 받고, 연산을 앞으로 보내고 출력을 내는 것을 만들 수 있습니다. 전체가 연결되었다고 해서 Fully connected 라고도 불립니다. (forward). 그리고 입력이 여러 형태로 나눈 경우도 생각할 수 있습니다. 이것이 CNN의 기본형태로 생각하시면 됩니다.CNN의 기본 아이디어는 고양이 실험에서 시작되었습니다. 고양이에게 어떤 형태의 그림을 보여주었더니. 그림을 읽어들이는 뉴런들이 동시에 동작하는 것이 아니라, 어떤 부분에 대해서만 동작한다는 것을 알게 되었습니다. 입력을 나누어 받는 것에 착안해서 이것을 수식화 하자고 해서 만든 것입니다. conv 잘라서 넣는 것을 말합니다. 렐루를 넣고, 도 겹겹히 쌓습니다. 그리고 풀링도 하고 마지막으로 풀리.. 2018. 5. 6.
lec 9-1 : XOR 문제 딥러닝으로 풀기 / lec 9-2 : backpropagation Multiple logistic regression units.No one on earth had found a viable way to train. Forward propagationCan you find another W and b for the XOR?XOR 을 하나의 로지스틱 회귀로 풀 수 있는가. and, or 는 쉽게 풀 수 있습니다. 그래프로 나타내서. xor 은 초창기 NN 연구자들에게 절망을 주었던 문제입니다. 하나의 로지스틱 회귀로는 문제를 절대로 풀 수 없다는 것이 수학적으로 증명되었습니다. 하나가 아니라 두개 또는 3개를 합치면 풀 수 있습니다. 그런데! 여러 가지로 겹치면 풀 수는 있지만 각각의 복잡한 네트워크에 들어있는 weight 와 bias를 학습 할 수 있는가? 이것은 불가.. 2018. 5. 6.