반응형

ROS2 20

Day 60: 논문 리뷰 + 학습 정리

오늘은 지금까지 진행해온 SLAM, Localization, Mapping 프로젝트를 마무리하면서,그동안 배운 내용을 종합적으로 정리해보려고 합니다.이번 글에서는 실제 논문 인용 대신, 지금까지의 학습을 토대로현재 기술이 어떤 방향으로 발전하고 있는지를 쉽게 풀어보겠습니다.📚 1. 정리의 목적지금까지 다뤄온 SLAM과 Localization 기술은 자율주행의 ‘눈’과 ‘귀’에 해당합니다.하지만 단순히 알고리즘을 이해하는 것을 넘어,이 기술들이 어떻게 진화하고 있고 앞으로 어떤 가능성이 있는지를한 번쯤 정리해보는 과정이 필요합니다.이번 글의 목표는 다음과 같습니다.지금까지 학습한 SLAM·Localization·Mapping의 핵심 개념을 정리하기최근 기술의 발전 방향과 한계점을 이해하기앞으로 학습을 이..

자율주행 2025.10.26

Day 59: Localization & Mapping 종합 프로젝트

오늘은 지금까지 학습해온 SLAM, LiDAR, IMU, GPS 융합 기술을 한데 모아‘Localization & Mapping 종합 프로젝트’를 진행해보려 합니다.이 프로젝트는 단순히 알고리즘을 이해하는 단계를 넘어,실제 자율주행 환경에서 차량의 위치를 정확하게 인식하고 지도까지 완성하는 전 과정을 구현하는 것이 목표입니다.🚗 1. 프로젝트 개요이번 프로젝트는 센서 융합 기반 자율주행 Localization & Mapping 시스템 구축을 목표로 합니다.기존에 학습한 SLAM 기술을 중심으로, IMU와 GPS 데이터를 결합해 더욱 안정적이고 정확한 위치 추정을 수행하게 됩니다.핵심 목표는 다음과 같습니다.센서 융합(Localization)으로 차량의 정확한 위치를 추정LiDAR 기반 SLAM으로 지도..

자율주행 2025.10.25

Day 58: SLAM 정확도 비교 실험

오늘은 자율주행 기술의 핵심 중 하나인 SLAM(Simultaneous Localization and Mapping)의 정확도 비교 실험을 함께 살펴보려고 합니다.SLAM은 말 그대로 ‘동시에 위치를 추정하면서 지도를 만드는 기술’인데요, 사용하는 센서나 알고리즘에 따라 결과의 정확도가 크게 달라질 수 있습니다.그래서 이번에는 여러 SLAM 알고리즘을 같은 조건에서 실험해보고, 어떤 알고리즘이 가장 정확한지 직접 비교해봤습니다.🔹 1. 실험에 사용한 알고리즘이번 비교에서는 대표적인 세 가지 SLAM 알고리즘을 선정했습니다.GMapping (2D LiDAR 기반)가장 오래되고 널리 쓰이는 라이다 기반 SLAM입니다.속도가 빠르고 실시간성이 뛰어나지만, 회전이나 잡음이 많은 구간에서는 오차가 커지는 단점이..

자율주행 2025.10.24

🚗 Day 57: Cartographer + IMU 융합

Google이 만든 실시간 SLAM의 정밀도를 높이는 비밀🧠 1. Cartographer란 무엇인가?Google Cartographer는 자율주행 로봇과 차량을 위해 개발된실시간 2D·3D SLAM 오픈소스 라이브러리입니다.주요 특징은 다음과 같습니다.실시간 맵핑: 빠른 연산으로 이동 중에도 지도 작성 가능센서 융합 기반 구조: LiDAR, IMU, GPS 등 다양한 센서를 결합정확한 Loop Closing: 누적된 오차를 자동으로 보정즉, Cartographer는 로봇의 ‘눈과 기억’을 동시에 담당하는 똑똑한 뇌라고 할 수 있습니다.🧩 2. 왜 IMU를 융합해야 할까?IMU(Inertial Measurement Unit)는가속도(acceleration)와 각속도(angular velocity)를 측..

자율주행 2025.10.23

🚗 Day 56: ROS2에서 Visual SLAM + GPS 융합

눈과 위성이 함께 그리는 자율주행의 지도🧠 1. Visual SLAM과 GPS, 왜 융합해야 할까?Visual SLAM은 카메라 영상을 이용해 로봇의 위치를 추정하고 지도를 작성하는 기술입니다.한편 GPS는 절대 좌표 정보를 제공하지만, 도심이나 실내처럼 신호가 약한 환경에서는 정확도가 떨어집니다.이 두 기술을 결합하면,SLAM의 “정밀한 상대 위치 정보”와 GPS의 “절대 위치 정보”가 만나더욱 안정적이고 일관된 위치 추정이 가능합니다.즉, 눈(Visual SLAM)과 위성(GPS)이 서로의 약점을 보완하는 셈이죠.🌐 2. ROS2에서의 융합 구조 개요ROS2(Robot Operating System 2)는 센서 융합을 위한모듈형 통신 구조와 고성능 노드 시스템을 제공합니다.Visual SLAM +..

자율주행 2025.10.22

🚗 Day 53: Graph-SLAM 구현 실습

이론에서 실제로 — 로봇이 세상을 그리는 방법🧭 1. 오늘의 목표지난 글에서 우리는 Graph-SLAM의 구조와, 포즈 그래프 최적화를 수행하는g2o 라이브러리의 개념을 학습했습니다.오늘은 이론을 넘어, 실제 데이터를 활용하여Graph-SLAM이 어떻게 동작하는지 체험하는 시간입니다.즉, “지도와 경로가 만들어지는 순간”을 직접 눈으로 확인하는 것이죠.🧩 2. 구현 실습의 큰 그림Graph-SLAM 구현은 데이터 수집 → 그래프 구성 → 최적화 → 결과 시각화이 네 단계로 진행됩니다.1️⃣ 데이터 수집 (Sensor Input)LiDAR, IMU, GPS 등 다양한 센서에서 데이터를 수집합니다.로봇은 각 지점에서 주변 환경의 거리나 형태를 관측합니다.2️⃣ 그래프 구성 (Graph Building)로..

자율주행 2025.10.19

🚗 Day 50: 융합 Localization 프로젝트+ LiDAR 융합

― 자율주행의 핵심, 위치 추정(Localization)의 완성 ―🌍 Localization이란 무엇인가?Localization(로컬라이제이션)은 자율주행차가“나는 지금 어디에 있는가?”를 스스로 인식하는 기술입니다.사람으로 비유하자면,GPS는 “지도 위 내 위치”,IMU는 “내가 어떻게 움직이고 있는지”,LiDAR는 “내 주변이 어떻게 생겼는지”를 알려주는 감각기관이에요.이 세 가지 센서를 융합하면차량은 단순히 위치를 아는 수준을 넘어,도로의 곡선, 경사, 장애물까지 인식하는 완벽한 위치 인식 능력을 가지게 됩니다.⚙️ 융합 Localization의 구조 이해Localization 시스템은 크게 3단계로 작동합니다.1️⃣ 센서 데이터 수집GPS: 차량의 절대 위치 좌표 (위도, 경도, 고도)IMU: ..

자율주행 2025.10.16

🚘 Day 49: GPS + IMU + LiDAR 융합

― 센서의 한계를 넘어 완벽한 자율주행을 향해 ―🛰️ 자율주행의 3대 핵심 센서자율주행차는 마치 사람처럼 “보고, 느끼고, 판단”해야 합니다.이를 위해 세 가지 주요 센서를 사용하죠.센서역할장점한계GPS절대적인 위치 정보 제공전 지구적 위치 측정 가능도심, 터널 등에서 신호 끊김IMU차량의 움직임(가속, 회전) 측정반응 속도 빠름, 실시간 추정 가능장시간 사용 시 오차 누적LiDAR주변 환경의 거리와 형태 감지3D 맵 구성, 장애물 인식날씨·반사체 영향 받음👉 각각의 센서가 강점은 있지만 단독으로는 불완전합니다.그래서 세 센서를 융합(Fusion)하면 훨씬 정밀하고 안정적인 자율주행이 가능해집니다.⚙️ 왜 GPS + IMU + LiDAR 융합이 필요할까?GPS는 절대적인 위치를 알려주지만, 끊기면 답..

자율주행 2025.10.15

🤖 Day 48: GPS + IMU 융합 (EKF 적용)

― 오차를 줄이고, 신뢰도를 높이는 자율주행의 핵심 기술 ―🌍 자율주행의 두 감각, GPS와 IMU자율주행차는 스스로 도로를 인식하고 움직이기 위해자신이 어디에 있는지(위치)와 어떻게 움직이는지(자세, 속도)를 정확히 알아야 합니다.이를 위해 가장 기본이 되는 두 가지 센서가 있습니다.GPS: 위성으로부터 위치를 받아 차량의 절대 위치를 알려줌IMU: 차량의 가속도와 회전속도를 측정해 움직임을 계산함하지만 문제는 둘 다 완벽하지 않다는 것이에요.GPS는 터널이나 빌딩 숲에서 신호가 약해지고,IMU는 시간이 지나면서 오차가 조금씩 누적됩니다.그래서 등장한 것이 바로 센서 융합(Sensor Fusion)입니다.그 중심에 있는 기술이 EKF (Extended Kalman Filter) 입니다.🧠 EKF란 ..

자율주행 2025.10.14

🛰️ Day 30: 센서 융합 종합 프로젝트 (ROS2 기반)

안녕하세요! ✨앞서 우리는 개별 센서들의 원리와 Python/ROS2 실습을 통해 센서 융합 단계를 하나씩 배워왔습니다.오늘은 이를 종합해, ROS2 기반 센서 융합 프로젝트를 설계하고 구현하는 방법을 정리해보겠습니다.🔍 프로젝트 목표LiDAR, Camera, Radar, IMU 데이터를 ROS2에서 동시에 구독EKF 기반 센서 융합으로 차량의 위치, 속도, 객체를 추정RViz2에서 통합된 결과를 시각화👉 실제 자율주행 소프트웨어 스택의 축소판 프로젝트로 이해하면 됩니다.⚙️ ROS2 프로젝트 구조css sensor_fusion_ws/ └── src/ ├── lidar_node/ ├── camera_node/ ├── radar_node/ ├── imu_no..

자율주행 2025.09.26
반응형