반응형

sensorfusion 3

🚗 Day 57: Cartographer + IMU 융합

Google이 만든 실시간 SLAM의 정밀도를 높이는 비밀🧠 1. Cartographer란 무엇인가?Google Cartographer는 자율주행 로봇과 차량을 위해 개발된실시간 2D·3D SLAM 오픈소스 라이브러리입니다.주요 특징은 다음과 같습니다.실시간 맵핑: 빠른 연산으로 이동 중에도 지도 작성 가능센서 융합 기반 구조: LiDAR, IMU, GPS 등 다양한 센서를 결합정확한 Loop Closing: 누적된 오차를 자동으로 보정즉, Cartographer는 로봇의 ‘눈과 기억’을 동시에 담당하는 똑똑한 뇌라고 할 수 있습니다.🧩 2. 왜 IMU를 융합해야 할까?IMU(Inertial Measurement Unit)는가속도(acceleration)와 각속도(angular velocity)를 측..

자율주행 2025.10.23

🚗 Day 56: ROS2에서 Visual SLAM + GPS 융합

눈과 위성이 함께 그리는 자율주행의 지도🧠 1. Visual SLAM과 GPS, 왜 융합해야 할까?Visual SLAM은 카메라 영상을 이용해 로봇의 위치를 추정하고 지도를 작성하는 기술입니다.한편 GPS는 절대 좌표 정보를 제공하지만, 도심이나 실내처럼 신호가 약한 환경에서는 정확도가 떨어집니다.이 두 기술을 결합하면,SLAM의 “정밀한 상대 위치 정보”와 GPS의 “절대 위치 정보”가 만나더욱 안정적이고 일관된 위치 추정이 가능합니다.즉, 눈(Visual SLAM)과 위성(GPS)이 서로의 약점을 보완하는 셈이죠.🌐 2. ROS2에서의 융합 구조 개요ROS2(Robot Operating System 2)는 센서 융합을 위한모듈형 통신 구조와 고성능 노드 시스템을 제공합니다.Visual SLAM +..

자율주행 2025.10.22

🤖 Day 20: ROS2에서 간단한 센서 데이터 융합 실습

안녕하세요! ✨앞서 Day 19에서는 Kalman Filter를 활용한 센서 퓨전 개념을 소개했습니다.오늘은 ROS2 환경에서 LiDAR와 Camera 센서를 융합하는 간단한 실습을 진행해보겠습니다.🔍 센서 융합 실습 개요자율주행차는 하나의 센서만 사용하지 않고, 여러 센서 데이터를 동시에 받아들여 융합합니다.ROS2에서는 이 과정을 노드(Node)와 토픽(Topic)을 통해 구현할 수 있습니다.LiDAR → 장애물의 3D 위치 정보Camera → 시각적 객체 인식 정보융합 → Camera가 인식한 객체를 LiDAR의 거리 정보와 결합해 더 정확한 결과 생성⚙️ ROS2 센서 융합 흐름도LiDAR 노드 → /lidar_points 토픽 퍼블리시Camera 노드 → /camera_detections 토픽..

자율주행 2025.09.16
반응형