반응형

Radar 8

🛰️ Day 30: 센서 융합 종합 프로젝트 (ROS2 기반)

안녕하세요! ✨앞서 우리는 개별 센서들의 원리와 Python/ROS2 실습을 통해 센서 융합 단계를 하나씩 배워왔습니다.오늘은 이를 종합해, ROS2 기반 센서 융합 프로젝트를 설계하고 구현하는 방법을 정리해보겠습니다.🔍 프로젝트 목표LiDAR, Camera, Radar, IMU 데이터를 ROS2에서 동시에 구독EKF 기반 센서 융합으로 차량의 위치, 속도, 객체를 추정RViz2에서 통합된 결과를 시각화👉 실제 자율주행 소프트웨어 스택의 축소판 프로젝트로 이해하면 됩니다.⚙️ ROS2 프로젝트 구조css sensor_fusion_ws/ └── src/ ├── lidar_node/ ├── camera_node/ ├── radar_node/ ├── imu_no..

자율주행 2025.09.26

📡 Day 29: Radar + LiDAR 융합 실습

안녕하세요! ✨앞서 Day 28에서는 LiDAR + Camera 융합 (Feature Matching) 을 다뤘습니다.오늘은 또 다른 조합인 Radar + LiDAR 융합을 실습해보겠습니다.🔍 Radar + LiDAR 융합의 필요성Radar장점: 속도 추정(Doppler 효과), 악천후(비, 안개)에도 안정적단점: 해상도가 낮아 물체의 모양·위치 정밀도가 부족LiDAR장점: 고해상도 3D 점군 데이터, 정밀한 거리·위치 정보 제공단점: 악천후 환경에 약함, 속도 측정 기능 부족👉 따라서 두 센서를 융합하면:Radar → 속도 및 강인성 제공LiDAR → 위치 및 형상 정확도 보완⚙️ ROS2 기반 융합 흐름Radar 노드 → /radar_points 퍼블리시LiDAR 노드 → /lidar_points..

자율주행 2025.09.25

🤖 Day 20: ROS2에서 간단한 센서 데이터 융합 실습

안녕하세요! ✨앞서 Day 19에서는 Kalman Filter를 활용한 센서 퓨전 개념을 소개했습니다.오늘은 ROS2 환경에서 LiDAR와 Camera 센서를 융합하는 간단한 실습을 진행해보겠습니다.🔍 센서 융합 실습 개요자율주행차는 하나의 센서만 사용하지 않고, 여러 센서 데이터를 동시에 받아들여 융합합니다.ROS2에서는 이 과정을 노드(Node)와 토픽(Topic)을 통해 구현할 수 있습니다.LiDAR → 장애물의 3D 위치 정보Camera → 시각적 객체 인식 정보융합 → Camera가 인식한 객체를 LiDAR의 거리 정보와 결합해 더 정확한 결과 생성⚙️ ROS2 센서 융합 흐름도LiDAR 노드 → /lidar_points 토픽 퍼블리시Camera 노드 → /camera_detections 토픽..

자율주행 2025.09.16

🔎 Day 18: 센서별 장단점 정리 (LiDAR vs Camera vs Radar)

안녕하세요! ✨앞서 Day 17에서는 초음파 센서와 ROS2 연동을 다뤘습니다.오늘은 자율주행차에서 핵심적으로 사용되는 LiDAR, Camera, Radar 센서를 비교하며 각각의 장단점을 정리해보겠습니다.🚘 왜 센서 비교가 중요한가?자율주행차는 단일 센서에 의존하지 않고, 다양한 센서를 조합해 주행 환경을 인식합니다.각 센서는 강점과 한계가 있기 때문에, 이를 이해해야 센서 융합(Sensor Fusion) 의 필요성을 알 수 있습니다.📊 LiDAR vs Camera vs Radar 비교표구분 LiDAR Camera Radar 원리레이저 빔 반사 측정가시광선 이미지 캡처전파 반사 분석거리 측정정확도 매우 높음직접 불가 (추정 필요)수백 m 가능속도 측정불가 (추가 알고리즘 필요)불가Doppler 효과..

자율주행 2025.09.14

🚗 Day 9: Radar와 LiDAR 데이터 비교

안녕하세요! ✨앞서 Day 8에서는 Python으로 Radar 거리·속도 추정 시뮬레이션을 해봤습니다.오늘은 자율주행차의 핵심 센서인 Radar와 LiDAR 데이터를 비교하면서 두 기술의 장단점을 정리해보겠습니다.🔍 Radar와 LiDAR의 공통점둘 다 주변 환경을 인식하는 센서물체의 위치와 거리를 탐지할 수 있음자율주행차에서는 단독이 아닌, 센서 융합(Sensor Fusion) 방식으로 함께 사용📊 Radar vs LiDAR 비교표 구분RadarLiDAR원리전파(Radio Wave) 반사 분석레이저(Laser) 반사 분석거리 측정수백 미터까지 가능수십 ~ 수백 미터, 정확도 높음속도 측정Doppler 효과로 속도 측정 가능속도 측정은 직접 불가(추가 알고리즘 필요)해상도낮음 (물체 형태 파악 어려움..

자율주행 2025.09.05

🚗 Day 8: Python으로 Radar 거리·속도 추정 시뮬레이션

안녕하세요! ✨앞서 Day 7에서는 Radar 신호 처리 흐름(송신, 반사, 수신) 을 살펴봤습니다.오늘은 Python을 활용해 간단한 Radar 거리·속도 추정 시뮬레이션을 직접 구현해보겠습니다.🔍 Radar 거리와 속도 계산 원리Radar는 전파 신호를 발사 → 반사파 수신 → 두 신호 비교 과정을 통해거리: 신호가 왕복하는 시간(Time Delay)속도: 주파수 변화(Doppler Shift)를 계산합니다.👉 실제 자동차 레이더는 복잡한 신호 처리 알고리즘을 사용하지만, 오늘은 Python으로 단순화된 시뮬레이션을 해봅니다.⚙️ Python 시뮬레이션 예제 📌 코드 설명송신 신호: 77GHz 레이더 신호 생성반사 신호: 거리(시간 지연)와 속도(도플러 효과) 반영비트 신호: 송신·수신 신호 곱..

자율주행 2025.09.04

🚗 Day 7: Radar 신호 처리 흐름 (송신, 반사, 수신)

안녕하세요! ✨앞서 Day 6에서는 Radar의 기본 원리(FMCW, Doppler 효과) 를 다뤘습니다.오늘은 한 걸음 더 나아가 Radar 신호 처리 흐름을 단계별로 정리해보겠습니다.🔍 Radar 신호 처리의 3단계Radar는 기본적으로 송신(Transmit) → 반사(Reflection) → 수신(Receive) 과정으로 동작합니다.이 단순한 흐름 속에 수학과 신호 처리 기술이 결합되어, 거리·속도를 정밀하게 측정할 수 있습니다.📡 1단계: 송신 (Transmit)Radar는 특정 주파수 대역(예: 24GHz, 77GHz)을 가진 전파 신호를 발사합니다.FMCW 방식에서는 주파수를 시간에 따라 선형적으로 변화시켜 보냅니다.송신 신호는 공기 중을 이동하며 물체에 부딪힐 준비를 합니다.👉 이 과정..

자율주행 2025.09.03

🚗 Day 6: Radar 기본 원리 (FMCW, Doppler 효과)

안녕하세요! ✨앞서 Day 5에서는 LiDAR 데이터 전처리(노이즈 제거, 다운샘플링) 를 다뤘습니다.오늘은 자율주행차에서 LiDAR와 함께 중요한 역할을 하는 Radar 센서의 기본 원리를 알아보겠습니다.🔍 Radar란 무엇인가?Radar(Radio Detection and Ranging)는 전파(Radio Wave) 를 발사한 뒤, 물체에 반사되어 돌아오는 신호를 분석해 거리와 속도를 측정하는 센서입니다.👉 자율주행차에서는 특히 앞차와의 거리 유지, 속도 측정, 충돌 방지 시스템에 필수적으로 사용됩니다.📡 FMCW Radar의 원리자율주행에서 가장 널리 쓰이는 레이더는 FMCW(Frequency Modulated Continuous Wave) 방식입니다.주파수를 조금씩 변화시키는 연속파(FM 신..

자율주행 2025.09.02
반응형