반응형

Camera 4

🛰️ Day 30: 센서 융합 종합 프로젝트 (ROS2 기반)

안녕하세요! ✨앞서 우리는 개별 센서들의 원리와 Python/ROS2 실습을 통해 센서 융합 단계를 하나씩 배워왔습니다.오늘은 이를 종합해, ROS2 기반 센서 융합 프로젝트를 설계하고 구현하는 방법을 정리해보겠습니다.🔍 프로젝트 목표LiDAR, Camera, Radar, IMU 데이터를 ROS2에서 동시에 구독EKF 기반 센서 융합으로 차량의 위치, 속도, 객체를 추정RViz2에서 통합된 결과를 시각화👉 실제 자율주행 소프트웨어 스택의 축소판 프로젝트로 이해하면 됩니다.⚙️ ROS2 프로젝트 구조css sensor_fusion_ws/ └── src/ ├── lidar_node/ ├── camera_node/ ├── radar_node/ ├── imu_no..

자율주행 2025.09.26

📷 Day 28: LiDAR + Camera 융합 (Feature matching)

안녕하세요! ✨앞서 Day 27에서는 Particle Filter 구현 실습을 진행했습니다.오늘은 자율주행의 핵심 기술 중 하나인 LiDAR와 Camera 융합을 살펴보고, 특히 Feature Matching을 통해 두 센서 데이터를 정렬·결합하는 과정을 학습하겠습니다.🔍 왜 LiDAR + Camera 융합인가?LiDAR: 정밀한 거리 및 3D 점군 데이터 제공Camera: 풍부한 색상·텍스처·객체 인식 가능👉 두 센서를 융합하면:LiDAR → 정확한 거리 정보Camera → 의미 있는 시각적 특징결과: 객체를 더 정확하게 인식하고 3D 공간에서 시각적으로 매핑 가능⚙️ Feature Matching 개념카메라 영상에서 특징점(Feature Point) 을 추출 (예: SIFT, ORB, SURF)L..

자율주행 2025.09.24

🤖 Day 20: ROS2에서 간단한 센서 데이터 융합 실습

안녕하세요! ✨앞서 Day 19에서는 Kalman Filter를 활용한 센서 퓨전 개념을 소개했습니다.오늘은 ROS2 환경에서 LiDAR와 Camera 센서를 융합하는 간단한 실습을 진행해보겠습니다.🔍 센서 융합 실습 개요자율주행차는 하나의 센서만 사용하지 않고, 여러 센서 데이터를 동시에 받아들여 융합합니다.ROS2에서는 이 과정을 노드(Node)와 토픽(Topic)을 통해 구현할 수 있습니다.LiDAR → 장애물의 3D 위치 정보Camera → 시각적 객체 인식 정보융합 → Camera가 인식한 객체를 LiDAR의 거리 정보와 결합해 더 정확한 결과 생성⚙️ ROS2 센서 융합 흐름도LiDAR 노드 → /lidar_points 토픽 퍼블리시Camera 노드 → /camera_detections 토픽..

자율주행 2025.09.16

🔎 Day 18: 센서별 장단점 정리 (LiDAR vs Camera vs Radar)

안녕하세요! ✨앞서 Day 17에서는 초음파 센서와 ROS2 연동을 다뤘습니다.오늘은 자율주행차에서 핵심적으로 사용되는 LiDAR, Camera, Radar 센서를 비교하며 각각의 장단점을 정리해보겠습니다.🚘 왜 센서 비교가 중요한가?자율주행차는 단일 센서에 의존하지 않고, 다양한 센서를 조합해 주행 환경을 인식합니다.각 센서는 강점과 한계가 있기 때문에, 이를 이해해야 센서 융합(Sensor Fusion) 의 필요성을 알 수 있습니다.📊 LiDAR vs Camera vs Radar 비교표구분 LiDAR Camera Radar 원리레이저 빔 반사 측정가시광선 이미지 캡처전파 반사 분석거리 측정정확도 매우 높음직접 불가 (추정 필요)수백 m 가능속도 측정불가 (추가 알고리즘 필요)불가Doppler 효과..

자율주행 2025.09.14
반응형