반응형

imu 11

🚗 Day 53: Graph-SLAM 구현 실습

이론에서 실제로 — 로봇이 세상을 그리는 방법🧭 1. 오늘의 목표지난 글에서 우리는 Graph-SLAM의 구조와, 포즈 그래프 최적화를 수행하는g2o 라이브러리의 개념을 학습했습니다.오늘은 이론을 넘어, 실제 데이터를 활용하여Graph-SLAM이 어떻게 동작하는지 체험하는 시간입니다.즉, “지도와 경로가 만들어지는 순간”을 직접 눈으로 확인하는 것이죠.🧩 2. 구현 실습의 큰 그림Graph-SLAM 구현은 데이터 수집 → 그래프 구성 → 최적화 → 결과 시각화이 네 단계로 진행됩니다.1️⃣ 데이터 수집 (Sensor Input)LiDAR, IMU, GPS 등 다양한 센서에서 데이터를 수집합니다.로봇은 각 지점에서 주변 환경의 거리나 형태를 관측합니다.2️⃣ 그래프 구성 (Graph Building)로..

자율주행 2025.10.19

🚗 Day 52: 포즈 그래프 최적화 (g2o 라이브러리)

자율주행차의 뇌를 정교하게 만드는 기술🧠 1. 포즈 그래프 최적화란?포즈 그래프 최적화(Pose Graph Optimization)는 로봇이나 자율주행차가 이동하면서 얻은 위치 정보를 정리해, 가장 일관성 있는 지도와 이동 경로를 계산하는 과정입니다.쉽게 말해, 여러 번의 관측과 이동 정보를 하나의 “가장 그럴듯한 결과”로 정리하는 기술이죠.🧩 2. 그래프 구조의 기본 개념Graph-SLAM에서 환경은 **그래프(graph)**로 표현됩니다.노드(Node): 로봇이 지나간 위치나 자세엣지(Edge): 두 위치 사이의 상대적인 거리나 방향 정보포즈 그래프 최적화는 이 노드들과 엣지들의 관계를 고려해모든 위치가 실제 환경과 가장 잘 맞도록 조정하는 과정을 의미합니다.⚙️ 3. g2o 라이브러리란?**g2..

자율주행 2025.10.18

🚗 Day 51: Graph-SLAM 개념 학습

자율주행의 핵심 — 세계를 그래프로 표현하다!🔍 1. Graph-SLAM이란 무엇인가?SLAM(Simultaneous Localization and Mapping, 동시적 위치추정 및 지도작성)은로봇이나 자율주행차가 “자신의 위치를 추정하면서 환경의 지도를 동시에 작성” 하는 기술입니다.이 중 Graph-SLAM(Graph-based SLAM)은 이를 그래프(graph) 형태로 모델링하여보다 효율적이고 정밀하게 최적화하는 방법입니다.🧩 2. 그래프로 표현되는 SLAM의 구조Graph-SLAM은 로봇의 움직임과 관측을 노드(node)와 엣지(edge)로 표현합니다.노드(Node): 로봇의 위치(포즈, Pose)를 의미엣지(Edge): 센서로 측정된 상대 위치 제약(Relative constraint)즉..

자율주행 2025.10.17

🚗 Day 50: 융합 Localization 프로젝트+ LiDAR 융합

― 자율주행의 핵심, 위치 추정(Localization)의 완성 ―🌍 Localization이란 무엇인가?Localization(로컬라이제이션)은 자율주행차가“나는 지금 어디에 있는가?”를 스스로 인식하는 기술입니다.사람으로 비유하자면,GPS는 “지도 위 내 위치”,IMU는 “내가 어떻게 움직이고 있는지”,LiDAR는 “내 주변이 어떻게 생겼는지”를 알려주는 감각기관이에요.이 세 가지 센서를 융합하면차량은 단순히 위치를 아는 수준을 넘어,도로의 곡선, 경사, 장애물까지 인식하는 완벽한 위치 인식 능력을 가지게 됩니다.⚙️ 융합 Localization의 구조 이해Localization 시스템은 크게 3단계로 작동합니다.1️⃣ 센서 데이터 수집GPS: 차량의 절대 위치 좌표 (위도, 경도, 고도)IMU: ..

자율주행 2025.10.16

🚘 Day 49: GPS + IMU + LiDAR 융합

― 센서의 한계를 넘어 완벽한 자율주행을 향해 ―🛰️ 자율주행의 3대 핵심 센서자율주행차는 마치 사람처럼 “보고, 느끼고, 판단”해야 합니다.이를 위해 세 가지 주요 센서를 사용하죠.센서역할장점한계GPS절대적인 위치 정보 제공전 지구적 위치 측정 가능도심, 터널 등에서 신호 끊김IMU차량의 움직임(가속, 회전) 측정반응 속도 빠름, 실시간 추정 가능장시간 사용 시 오차 누적LiDAR주변 환경의 거리와 형태 감지3D 맵 구성, 장애물 인식날씨·반사체 영향 받음👉 각각의 센서가 강점은 있지만 단독으로는 불완전합니다.그래서 세 센서를 융합(Fusion)하면 훨씬 정밀하고 안정적인 자율주행이 가능해집니다.⚙️ 왜 GPS + IMU + LiDAR 융합이 필요할까?GPS는 절대적인 위치를 알려주지만, 끊기면 답..

자율주행 2025.10.15

🤖 Day 48: GPS + IMU 융합 (EKF 적용)

― 오차를 줄이고, 신뢰도를 높이는 자율주행의 핵심 기술 ―🌍 자율주행의 두 감각, GPS와 IMU자율주행차는 스스로 도로를 인식하고 움직이기 위해자신이 어디에 있는지(위치)와 어떻게 움직이는지(자세, 속도)를 정확히 알아야 합니다.이를 위해 가장 기본이 되는 두 가지 센서가 있습니다.GPS: 위성으로부터 위치를 받아 차량의 절대 위치를 알려줌IMU: 차량의 가속도와 회전속도를 측정해 움직임을 계산함하지만 문제는 둘 다 완벽하지 않다는 것이에요.GPS는 터널이나 빌딩 숲에서 신호가 약해지고,IMU는 시간이 지나면서 오차가 조금씩 누적됩니다.그래서 등장한 것이 바로 센서 융합(Sensor Fusion)입니다.그 중심에 있는 기술이 EKF (Extended Kalman Filter) 입니다.🧠 EKF란 ..

자율주행 2025.10.14

⚙️ Day 47: IMU 원리와 센서 데이터 처리

― 자율주행차의 균형 감각, IMU를 이해하자 ―🚗 IMU란 무엇인가?IMU(Inertial Measurement Unit, 관성측정장치)는자율주행차의 “감각 신경” 역할을 하는 핵심 센서입니다.이 장치는 가속도계(Accelerometer)와 자이로스코프(Gyroscope)를 이용해차량의 가속도, 회전속도, 자세 변화를 실시간으로 측정합니다.즉, GPS가 “어디 있는가”를 알려준다면,IMU는 “어떻게 움직이고 있는가”를 알려주는 역할을 하죠.🧩 IMU의 구성 요소구성요소역할출력값가속도계 (Accelerometer)차량의 직선 운동 감지x, y, z축 가속도자이로스코프 (Gyroscope)차량의 회전 운동 감지x, y, z축 각속도자기센서 (Magnetometer, 선택)지구 자기장을 이용해 방향 보정..

자율주행 2025.10.13

🚗 Day 46: GPS 원리와 오차 원인 학습

― 자율주행의 눈, GPS를 이해하자 ―🌍 GPS란 무엇인가?GPS(Global Positioning System)는 지구 어디에서든 자신의 위치를 알 수 있게 해주는 위성 기반 위치 측정 시스템이에요.미국 국방부가 개발했으며, 현재는 전 세계에서 위치, 속도, 시간 정보를 제공하는 핵심 인프라로 사용되고 있습니다.자율주행차에서는 GPS가 차량의 현재 위치를 인식하고, 경로 계획 알고리즘과 결합되어 정확한 주행 경로를 추적하는 데 사용됩니다.🛰️ GPS의 작동 원리GPS는 최소 4개의 인공위성으로부터 신호를 받아 차량의 위치를 계산합니다.이 과정을 삼변측량법(Trilateration)이라고 부릅니다.위성 신호 수신:각 위성은 자신의 위치와 신호 발송 시간을 포함한 정보를 전송합니다.거리 계산:위성에서..

자율주행 2025.10.12

🛰️ Day 30: 센서 융합 종합 프로젝트 (ROS2 기반)

안녕하세요! ✨앞서 우리는 개별 센서들의 원리와 Python/ROS2 실습을 통해 센서 융합 단계를 하나씩 배워왔습니다.오늘은 이를 종합해, ROS2 기반 센서 융합 프로젝트를 설계하고 구현하는 방법을 정리해보겠습니다.🔍 프로젝트 목표LiDAR, Camera, Radar, IMU 데이터를 ROS2에서 동시에 구독EKF 기반 센서 융합으로 차량의 위치, 속도, 객체를 추정RViz2에서 통합된 결과를 시각화👉 실제 자율주행 소프트웨어 스택의 축소판 프로젝트로 이해하면 됩니다.⚙️ ROS2 프로젝트 구조css sensor_fusion_ws/ └── src/ ├── lidar_node/ ├── camera_node/ ├── radar_node/ ├── imu_no..

자율주행 2025.09.26

🔗 Day 25: 센서 융합 (LiDAR + IMU) 실습

안녕하세요! ✨앞서 Day 24에서는 EKF를 활용한 비선형 상태 추정 실습을 진행했습니다.오늘은 자율주행차의 핵심 기술 중 하나인 LiDAR와 IMU 센서 융합을 실습해보겠습니다.🔍 LiDAR + IMU 융합의 필요성LiDAR: 고정밀 3D 위치/거리 측정 가능, 하지만 순간적인 움직임(고속 회전/가속)에 약함IMU: 가속도·각속도 정보를 빠르게 제공, 하지만 장기적으로 드리프트(누적 오차) 발생👉 따라서 두 센서를 융합하면:LiDAR → 위치 안정화IMU → 실시간 반응성 보완⚙️ ROS2에서 센서 융합 흐름LiDAR 노드 → /lidar_points 퍼블리시IMU 노드 → /imu_data 퍼블리시EKF Fusion 노드 → 두 데이터를 결합해 /fused_pose 퍼블리시🧑‍💻 Python..

자율주행 2025.09.21
반응형