반응형

EKF 9

🚗 Day 50: 융합 Localization 프로젝트+ LiDAR 융합

― 자율주행의 핵심, 위치 추정(Localization)의 완성 ―🌍 Localization이란 무엇인가?Localization(로컬라이제이션)은 자율주행차가“나는 지금 어디에 있는가?”를 스스로 인식하는 기술입니다.사람으로 비유하자면,GPS는 “지도 위 내 위치”,IMU는 “내가 어떻게 움직이고 있는지”,LiDAR는 “내 주변이 어떻게 생겼는지”를 알려주는 감각기관이에요.이 세 가지 센서를 융합하면차량은 단순히 위치를 아는 수준을 넘어,도로의 곡선, 경사, 장애물까지 인식하는 완벽한 위치 인식 능력을 가지게 됩니다.⚙️ 융합 Localization의 구조 이해Localization 시스템은 크게 3단계로 작동합니다.1️⃣ 센서 데이터 수집GPS: 차량의 절대 위치 좌표 (위도, 경도, 고도)IMU: ..

자율주행 2025.10.16

🚘 Day 49: GPS + IMU + LiDAR 융합

― 센서의 한계를 넘어 완벽한 자율주행을 향해 ―🛰️ 자율주행의 3대 핵심 센서자율주행차는 마치 사람처럼 “보고, 느끼고, 판단”해야 합니다.이를 위해 세 가지 주요 센서를 사용하죠.센서역할장점한계GPS절대적인 위치 정보 제공전 지구적 위치 측정 가능도심, 터널 등에서 신호 끊김IMU차량의 움직임(가속, 회전) 측정반응 속도 빠름, 실시간 추정 가능장시간 사용 시 오차 누적LiDAR주변 환경의 거리와 형태 감지3D 맵 구성, 장애물 인식날씨·반사체 영향 받음👉 각각의 센서가 강점은 있지만 단독으로는 불완전합니다.그래서 세 센서를 융합(Fusion)하면 훨씬 정밀하고 안정적인 자율주행이 가능해집니다.⚙️ 왜 GPS + IMU + LiDAR 융합이 필요할까?GPS는 절대적인 위치를 알려주지만, 끊기면 답..

자율주행 2025.10.15

🤖 Day 48: GPS + IMU 융합 (EKF 적용)

― 오차를 줄이고, 신뢰도를 높이는 자율주행의 핵심 기술 ―🌍 자율주행의 두 감각, GPS와 IMU자율주행차는 스스로 도로를 인식하고 움직이기 위해자신이 어디에 있는지(위치)와 어떻게 움직이는지(자세, 속도)를 정확히 알아야 합니다.이를 위해 가장 기본이 되는 두 가지 센서가 있습니다.GPS: 위성으로부터 위치를 받아 차량의 절대 위치를 알려줌IMU: 차량의 가속도와 회전속도를 측정해 움직임을 계산함하지만 문제는 둘 다 완벽하지 않다는 것이에요.GPS는 터널이나 빌딩 숲에서 신호가 약해지고,IMU는 시간이 지나면서 오차가 조금씩 누적됩니다.그래서 등장한 것이 바로 센서 융합(Sensor Fusion)입니다.그 중심에 있는 기술이 EKF (Extended Kalman Filter) 입니다.🧠 EKF란 ..

자율주행 2025.10.14

⚙️ Day 47: IMU 원리와 센서 데이터 처리

― 자율주행차의 균형 감각, IMU를 이해하자 ―🚗 IMU란 무엇인가?IMU(Inertial Measurement Unit, 관성측정장치)는자율주행차의 “감각 신경” 역할을 하는 핵심 센서입니다.이 장치는 가속도계(Accelerometer)와 자이로스코프(Gyroscope)를 이용해차량의 가속도, 회전속도, 자세 변화를 실시간으로 측정합니다.즉, GPS가 “어디 있는가”를 알려준다면,IMU는 “어떻게 움직이고 있는가”를 알려주는 역할을 하죠.🧩 IMU의 구성 요소구성요소역할출력값가속도계 (Accelerometer)차량의 직선 운동 감지x, y, z축 가속도자이로스코프 (Gyroscope)차량의 회전 운동 감지x, y, z축 각속도자기센서 (Magnetometer, 선택)지구 자기장을 이용해 방향 보정..

자율주행 2025.10.13

🛰️ Day 30: 센서 융합 종합 프로젝트 (ROS2 기반)

안녕하세요! ✨앞서 우리는 개별 센서들의 원리와 Python/ROS2 실습을 통해 센서 융합 단계를 하나씩 배워왔습니다.오늘은 이를 종합해, ROS2 기반 센서 융합 프로젝트를 설계하고 구현하는 방법을 정리해보겠습니다.🔍 프로젝트 목표LiDAR, Camera, Radar, IMU 데이터를 ROS2에서 동시에 구독EKF 기반 센서 융합으로 차량의 위치, 속도, 객체를 추정RViz2에서 통합된 결과를 시각화👉 실제 자율주행 소프트웨어 스택의 축소판 프로젝트로 이해하면 됩니다.⚙️ ROS2 프로젝트 구조css sensor_fusion_ws/ └── src/ ├── lidar_node/ ├── camera_node/ ├── radar_node/ ├── imu_no..

자율주행 2025.09.26

🔗 Day 25: 센서 융합 (LiDAR + IMU) 실습

안녕하세요! ✨앞서 Day 24에서는 EKF를 활용한 비선형 상태 추정 실습을 진행했습니다.오늘은 자율주행차의 핵심 기술 중 하나인 LiDAR와 IMU 센서 융합을 실습해보겠습니다.🔍 LiDAR + IMU 융합의 필요성LiDAR: 고정밀 3D 위치/거리 측정 가능, 하지만 순간적인 움직임(고속 회전/가속)에 약함IMU: 가속도·각속도 정보를 빠르게 제공, 하지만 장기적으로 드리프트(누적 오차) 발생👉 따라서 두 센서를 융합하면:LiDAR → 위치 안정화IMU → 실시간 반응성 보완⚙️ ROS2에서 센서 융합 흐름LiDAR 노드 → /lidar_points 퍼블리시IMU 노드 → /imu_data 퍼블리시EKF Fusion 노드 → 두 데이터를 결합해 /fused_pose 퍼블리시🧑‍💻 Python..

자율주행 2025.09.21

🔄 Day 24: EKF로 비선형 상태 추정 실습

안녕하세요! ✨앞서 Day 23에서는 확장 칼만필터(EKF)의 원리를 정리했습니다.오늘은 EKF를 실제로 구현해, 비선형 시스템 상태 추정이 어떻게 이루어지는지 실습해보겠습니다.🔍 EKF 실습 시나리오차량이 2D 평면에서 움직이고 있다고 가정상태 벡터: [x,y,v][x, y, v][x,y,v] (위치 x, 위치 y, 속도 v)센서:GPS → 위치(x, y) 제공 (노이즈 있음)IMU → 가속도 제공 (노이즈 있음)👉 EKF로 두 센서 데이터를 융합해 차량의 상태를 추정합니다.⚙️ Python EKF 구현 예제python import numpy as np # 초기 상태 [x, y, v] x = np.array([0.0, 0.0, 1.0]) P = np.eye(3) # 초기 공분산 dt = 1.0 ..

자율주행 2025.09.20

🔄 Day 23: 확장 칼만필터(EKF) 원리

안녕하세요! ✨앞서 Day 22에서는 Python으로 1D 칼만필터 구현을 해봤습니다.오늘은 그 한계를 넘어, 비선형 시스템에서도 활용 가능한 확장 칼만필터(EKF: Extended Kalman Filter) 를 소개합니다.🔍 왜 EKF가 필요한가?기본 칼만필터(KF)는 선형 시스템에서만 최적의 성능을 발휘합니다.하지만 실제 자율주행 환경은 대부분 비선형 시스템입니다.차량의 이동 (x, y 좌표 변환)GPS 좌표 → 차량 위치 변환레이더 측정(거리, 각도) → 차량 속도 추정👉 이런 상황에서는 EKF(Extended Kalman Filter) 가 필요합니다.⚙️ EKF 기본 아이디어KF 수식에서 선형 행렬(A, H) 대신, 비선형 함수 f(·), h(·) 를 사용합니다.예측과 업데이트 과정에서 Jac..

자율주행 2025.09.19

🔄 Day 19: 센서 퓨전 개념 (Kalman Filter 소개)

안녕하세요! ✨앞서 Day 18에서는 LiDAR, Camera, Radar의 장단점 비교를 정리했습니다.오늘은 이들 센서를 효과적으로 융합하는 핵심 기술, 센서 퓨전(Sensor Fusion) 과 대표 알고리즘인 Kalman Filter 를 소개하겠습니다.🔍 센서 퓨전이란?센서 퓨전은 여러 센서의 데이터를 결합해 더 정확하고 신뢰성 있는 정보를 추출하는 기법입니다.LiDAR → 정밀한 3D 지도Camera → 시각적 인식(차선, 표지판)Radar → 속도와 거리 측정👉 각각의 센서 단점을 보완하고, 장점을 극대화할 수 있습니다.예: Radar + Camera → 속도 + 객체 인식 동시 확보⚙️ Kalman Filter의 기본 개념Kalman Filter(칼만 필터)는 센서 퓨전에서 가장 널리 사용되..

자율주행 2025.09.15
반응형