본문 바로가기

Programming/Sensors27

다중 영상 센서의 캘리브레이션 1. 서론2. 복수의 카메라 환경 카메라, 영상서의 대응쌍 검출 방법, SIFT, SURF, BRISK, 대응쌍 검출 알고리즘들의 성능 비교 3. 카메라와 깊이 센서 환경 깊이 센서, 영상-깊이 영상 대응쌍 검출 방법에 대한 제안, 카메라-깊이 센서 캘리브레이션 4. 카메라와 3D LIDAR 환경 3D 라이다, 영상-3D 포인트 클라우드 대응쌍 검출 방법에 대한 제안, 평판 평면 위를 지나는 3D 포인트 정렬, 평판 코너의 3D 위치 검출 및 적합성 판별, 마름모형 평판을 이용한 방법, 카메라-3D Lidar 캘리브레이션 1. 서론최근 이동 매핑 시스템이나 물체 인식 등 다양한 로봇 비전 분야들에서는 목적에 따라 다양한 조합의 다중 센서를 사용하고 있습니다. 예를 들어 다수의 카메라로부터 획득한 영상들응.. 2017. 8. 8.
ROS 기본 정리 왜 로봇 소프트웨어 플랫폼을 써야 하는가?프로그램의 재사용성입니다. 자신이 개발하고자 하는 부분에 집중하고 나머지 기능에 대해서는 관련 패키지를 내려받아서 사용할 수 있습니다. 마찬가지로 자신이 개발한 프로그램은 다른 이들이 사용할 수 있도록 공유할 수도 있습니다. 통신 기반 프로그램입니다. 흔히, 하나의 서비스를 제고아기 위하여 센서나 액추에이터 단의 드라이브부터 센싱, 인식, 동작까지 하나의 프로그램을 작성하는 것이 많은데 로봇 소프트웨어의 재사용을 위해서는 이를 각각 처리 프로세서의 목적에 따라 작게 나누게 됩니다. 플롯폼마다 이를 컴포넌트화 혹은 노드 패키지화라고 합니다. 최소 실행 단위로 나뉜 프로그램은 나누어진 노드끼리 데이터를 주고받아야 하는데 플랫폼들은 이 데이터 통신에 대한 전반적인 사항.. 2017. 8. 7.
Camera and lidar calibration and visualization in ROS ROS를 vagrant 에서 셋팅합니다. 환경설정 -> 패스 한번 배그 파일을 저장해봅니다. 그리고 그 배그 파일에서 topic 이 어떤것들이 들어있는지 확인합니다. 제시된 예시해서는 카메라인포, 이미지칼라, 포인트 이렇게 3가지가 있습니다. 이것들을 받을 수 있는지 확인합니다. 자 지금까지 점검도 잘하고 토픽설정도 잘 했습니다. 이미지 수정하기칼리브레이션 정보를 배그 파일에 더합니다.bag_tools 설치하고 새로운 배그파일을 만듭니다. 여기서 토픽부분만 수정해서 사용하면 되겠습니다. python change_camera_info.py ../2017-08-06-18-31-54.orig.bag ../2017-08-06-1-31-54.cameracalibrator.bag /camera_info=../Res.. 2017. 8. 7.
camera lidar calibration github 카메라와 라이더의 캘리브레이션을 위해서 깃허브 패키지를 돌리고 싶습니다. 물리적인 이해는 뒤로 하고 먼저 돌리는데 중점을 두고, 하나씩 이해해 나가도록 하겠습니다. https://github.com/swyphcosmo/ros-camera-lidar-calibration먼저 위의 사이트에 접속해서 안내대로 ROS를 셋팅합니다. 도중에 vagrant could not detect virtualbox, make sure virtualbox is properly installed 라는 에러메시지가 나옵니다. 그래서 저는 이것이 우분투를 virtualbox 에 깔아야 하나 생각했습니다. 그래서 virtualbox 를 설치하고 돌려보았으나, 돌아가지 않아서, 지금은 vmware 에서 우분투 안에 virtualbox.. 2017. 8. 3.
Lidar M8 Lidar 를 통해서 물체를 검출하고, 인식하고, 거리를 측정합니다. 이의 팔로우 모델은 유투브의 동영상을 참하면 됩니다. 여러 동영상이 있지만, 제가 가장 많이 참고한 동영상은 다음과 같습니다. https://www.youtube.com/watch?v=2TEohJYcPyE 먼저 주변의 사물중에 장애물을 탐지하여 빨간색으로 나타냅니다. 다음으로 3D 클러스터링을 적용하여, 물체마다 색을 달리 합니다. 다음으로 tracking 기술을 적용하여 클러스터링 된 물체를 라이더 측정 거리까지 사물을 분리합니다. 다음으로 분류라고 하여, 자동차는 빨간색으로 보행자는 파란색, 자전거를 그린색으로 나타냅니다. 이 과정을 시도하기 위해서 github에 올라온 자료들을 하나씩 뜯어 보면서 수정하도록 하겠습니다. 먼저.. 2017. 8. 2.
Real-time Face Detection and Recognition Method using Machine Learning 도입부연구한 주제는 머신런닝을 이용한 실시간 얼굴 검출과 인식 방법입니다. 짧은 시간이지만 발표 순서는 기술에 대한 정의, 동향, 문제점, 실험 결과, 설계 디자인 순으로 발표하겠습니다. 그리고 시간에 따라 뒤의 상세한 기술부분에 대한 발표를 이어 나가도록 하겠습니다. 얼굴 검출 기술은 카메라에서 담은 이미지에서 배경을 분리하고 사람 얼굴을 검출하는 기술입니다. 그리고 얼굴 인식 기술은 훈련된 얼굴 데이터를 가진 컴퓨터에 새로운 얼굴을 입력 하였을 때 그 사람이 누구인지 인식하는 기술을 말합니다. 다음으로 이 분야에 대한 동향을 말씀 드리겠습니다. 개인 스마트폰에도 적용되어 있는 것을 확인 할 수 있는 것과 같이 현재 실시간 얼굴 검출의 경우, 안정적인 기술이 상용화가 되어 있습니다. 하지만, 얼굴 인식.. 2017. 6. 16.
Face recognition using Eigen face and Fisher face * It is a summary material of studying university design class 2017. 6. 14.
Averaging filter basic * 개인적으로 공부를 하면서 정리해둔 자료입니다. 1. 평균 필터란 무엇일까? 1.1 재귀식평균은 데이터의 총합을 데이터 개수로 나눈 값입니다. 예를 들어 k개의 데이터가 있을 때 평균은 다음과 같습니다. 이렇게 데이터를 모두 모아서 계산하는 식을 batch expression(배치식) 이라고 합니다. 그런데 여기에 데이터가 하나 더 추가되면 어떻게 될까요? 모든 데이터를 다시 더해서 k+1 로 나눠야 합니다. 이 과정에서 앞서 계산한 평균은 사용하지 못합니다. 위의 식은 이전 결과를 다시 활용하는 재귀식(recursive expression)이 아니기 때문입니다. 재귀식은 이전 결고라를 재사용하여 계산량을 줄여줍니다. 데이터 수가 많은 수록 계산량 차이가 극명하게 나타납니다. 메모리 저장 공간의 측면에.. 2017. 6. 12.
webcam #include "opencv2/opencv.hpp"#include using namespace std;using namespace cv; int main() { VideoCapture vcap(0);if (!vcap.isOpened()) {cout frame;video.write(frame);imshow("Frame", frame);char c = (char)waitKey(33);if (c == 27) break;}return 0;} 2017. 5. 26.
Mesuirng engineering study I am currently studying for the more accurate recognition of the face of a person. Accepts information through sensors and digitizes this information to facilitate copying, gathering, and editing or information. In order t o understand the concpet of control, it is necessary to understand the sensor and the actuator. Collecting data through the sensor, and using the information to drive the actu.. 2017. 4. 17.