본문 바로가기
Programming/Sensors

Feature Extraction

by OKOK 2018. 1. 2.

분류 트래킹 가능한 물체 흥미, 특징 벡터는 추출됩니다 수행하기 위해서 분류 단계에서 이 특징 벡터는 사용됩니다. GMMC가 사용됩니다. 다음 구성으로. 중심점이나, 하중. 표준화된 카테시안 디멘션 이 특징 대응은 루트 민 스쿼어 넓이 그리고 길이 디멘션. 내부 표준. 언급하다 정의하다.  레디어스 이것은 원 분류 점. 이 원은 피팅 방법입니다. 사용되는 근거하여 GUIV에 평균 분포 미디언으로 부터 이것은 받다. 미디언 정의됩니다. 


라이다 기반 분류기

이 세션은 설명합니다. GMMC를 이것은 실행됩니다 기반으로 데이터 라이다. 이 물체 분류 모델은 유한 GMM 분류 그것의 파라미터는 추정됩니다. 하는 동안 감독 훈련. 이 최대 Posteriori 결정룰은 사용됩니다. 결정하는데 a posteriori 확률 각 물체의 속하는 흥미 층의.


이 물체 분류는 모델됩니다. 이 가중화된 조합 가우시안 확률 밀도 함수 그것은 언급됩니다. 이 context 가우시안 부품 혼합 모델 묘사하다 이 분류. GMM 모델 이 확률 분포 이 다수의 디메셔널 임의 벡터는 혼합 M 가우시안 확률 밀도 함수. 정의됩니다 따라서.  


ROC 커브는 GMM 분류기 라이다 데이터 보행자와 차량을 찾습니다. 물체 확률 최대값. 최대 숫자 분류 이 키는 아이디어 우리의 알고리즘은 GMMC 사용하다 MAP 결정 룰. 관찰된 특징 벡터 MAP는 각 발견된 물체 시간 프레임. 클래스 인덱스, 훈련 모델 각 클래스 최족 이전 확률 k 숫자는 현재 검출된 segments 특징 벡터 각 segment MAPj 는 최대값. 각각 for 문 while 문으로 구성되어 있습니다. 


시각 베이스 시스템 이 시스템은 사용합니다. 각 하르 특징. 이 추출하다 정보를 주어진 이미지로부터. 이 검출된 물체는 수행됩니다. 사용하여 이 특징 들어가다 아다 부스트 분류기 이 아다부스트 분류기는 훈련됩니다. 수행하다 검철 물체. 환경에 대해서. 이 주요 목적은 배우는 알고리즘은 찾습니다. 작은 하르 특징 최적 분류 물체 분류. 거절하다 최대 배경 물체. 그리고 구성하다. 분류기 함수. 이 서포트하다 이 목적. 이 약한 러닝 머신은 고안됩니다. 선택하다 단일 특징 최고 분류 긍정 부정 예제. 각 분류기에 대해서 이 약한 분류기는 결정합니다. 최적 임계 분류 함수를 그러도록 이 최소 예제 숫자 오 분류. 이 약한 분류기는 구성하다 특징. 임계값 동등합 나타내다 물체 클라스 그리고 나타내다 논 물체. 각각 분류기는 per si 는 검출할 수 없습니다. 물체 catergory 하도록 이 반응하다. 몇가지 단순 특징 image 관련되어 있다. 물체 이 최고 분류기는 구성됩니다. 이 최적화  함 약한 분류기는 나타냅니다. 방정식. 


이 검출은 됩니다. 미끄러지다 각 윈도우 통해서 각각 서브 이미지와 체크하다 인지아닌지 이미지 지역 특정 지역은 분류되다. 물체 클래스. 최적으로, 이 검출 위치는 분류됩니다. 이 검출 물체는 같은 사이즈의 분류기. 그리고 윈도우 사이지는 증가합니다. 베타 사이즈 위도우 동일하다. 이 과정은 반복됩니다. 각각 물체가 훈련되다. 분류기는 구성됩니다. 각각 물체가 원하는 불뉴하도록. 이 획득하다. ostriori 확률 그리고 아다부스트 분류기 이것은 사용됩니다. formulation logistic 상관관계. 최적의 아다부스트 각각의 예는 가지다 같은 가중치. 그리고 가각의 스텝은 약한 


실험 결과 

이 실험은 수행됩니다. 외부 환경, 구성된 낮은 스피드 움직이는 물체. 그리고 20m 거리. 다른 사이즈의 자세와 빛나는 환경. 이것의 hit rate는 그리고 숫자 거짓 긍정 각 분류기는 나타납니다. 아다부스트와 GMM 분류기 그리고 합체 분류기 오케이.