반응형

분류 전체보기 129

Day 67: YOLO v5 설치 및 실행

🚀 YOLO v5 — 가볍고 빠른 객체 탐지의 표준YOLO v5는 Ultralytics가 개발한 PyTorch 기반 객체 탐지 모델로, YOLO 계열 중에서도 가장 널리 사용되는 버전입니다.YOLO v3 대비 속도와 정확도 모두 향상되었으며, 설치·학습·추론 과정이 간단하여 초보자부터 연구자까지 폭넓게 활용되고 있습니다.이번 글에서는 YOLO v5 설치부터 실제 이미지 탐지 실행까지 단계를 따라가며, 자율주행차·CCTV·AI 비전 시스템의 핵심 기술을 직접 체험해보겠습니다.⚙️ 1. YOLO v5의 주요 특징YOLO v5는 단순한 버전 업그레이드가 아니라, 전체 구조와 워크플로우가 개선된 모델입니다.✅ PyTorch 기반 → TensorFlow보다 가볍고 유연함✅ Pre-trained 모델 제공 → 즉..

자율주행 2025.11.02

Day 66: YOLO v3 구조 학습

🚗 YOLO v3, 실시간 객체 탐지의 새로운 전환점YOLO(You Only Look Once)는 “이미지를 한 번만 본다”는 이름처럼, 전체 이미지를 한 번에 처리하여 객체를 탐지하는 혁신적인 알고리즘입니다. 특히 YOLO v3는 이전 버전보다 정확도와 속도 모두에서 향상된 성능을 보여주며, 자율주행차·CCTV·드론·로봇 등 다양한 실시간 비전 시스템의 핵심으로 자리 잡았습니다.🧠 1. YOLO v3의 핵심 아이디어YOLO v3는 CNN(합성곱 신경망) 기반의 단일 네트워크 구조로, 입력 이미지 전체를 한 번에 처리하여 객체의 **위치(Bounding Box)**와 **클래스(Class)**를 동시에 예측합니다.핵심은 “속도와 정확도의 균형”에 있습니다.YOLO v1: 매우 빠르지만 작은 객체 인식..

자율주행 2025.11.01

Day 65: 보행자 행동 예측 모델 구현

🚶 1. 보행자 행동 예측이란 무엇인가?자율주행차의 핵심 과제 중 하나는 단순히 “사람을 인식”하는 것을 넘어,보행자가 앞으로 어떤 행동을 할지를 예측하는 것이다.예를 들어,보행자가 도로에 진입할 것인지,멈춰 설 것인지,혹은 갑자기 뛰어들 가능성이 있는지 등을 미리 판단하는 것이다.이러한 예측이 가능해야, 차량은 사전에 감속하거나 회피 기동을 수행할 수 있다.따라서 보행자 행동 예측 모델(Pedestrian Behavior Prediction Model) 은자율주행 시스템의 안전성과 반응성을 결정하는 핵심 요소다.🧠 2. 예측 모델의 핵심 아이디어보행자의 행동은 단일 이미지로 판단하기 어렵다.시간에 따라 변화하는 연속된 동작(Sequence) 을 분석해야 하며,따라서 시계열 기반 딥러닝 모델이 필요하..

자율주행 2025.10.31

Day 64: RNN, LSTM 개념 학습

🧠 1. 시퀀스(Sequence) 데이터란?딥러닝은 이미지뿐 아니라 시간의 흐름에 따라 변화하는 데이터, 즉 시퀀스 데이터(Sequence Data) 를 다룰 수도 있다.예를 들어, 다음과 같은 데이터가 시퀀스 데이터의 대표적인 예다.🎵 음성 데이터: 시간에 따라 변화하는 음파📈 주가 데이터: 하루하루의 주가 변동📱 텍스트 데이터: 단어 순서에 의미가 있는 문장이러한 데이터를 학습하려면, “이전 정보가 현재에 영향을 미치는 구조”가 필요하다.이때 사용되는 것이 바로 RNN(Recurrent Neural Network, 순환 신경망) 이다.🔁 2. RNN의 기본 개념RNN은 “기억하는 신경망”이다.기존의 CNN이나 MLP는 입력을 한 번에 처리하지만,RNN은 이전 단계의 출력(Output) 을 다..

자율주행 2025.10.30

Day 63: 차량/보행자 이미지 분류 CNN 구현

🚗 1. CNN을 활용한 이미지 분류, 직접 구현해보기앞선 글에서는 합성곱과 풀링 연산을 통해 CNN의 작동 원리를 살펴보았다.오늘은 그 이론을 바탕으로 실제로 차량과 보행자를 구분하는 CNN 모델을 구현해본다.이 실습은 자율주행의 핵심 기술 중 하나인 객체 인식(Object Recognition) 의 기초 단계다.즉, 차량과 보행자를 정확히 분류할 수 있어야 안전한 주행 판단이 가능하다.🧩 2. 데이터 준비: 차량 vs 보행자 이미지먼저 분류를 위해 두 가지 클래스의 이미지를 준비해야 한다.🚘 Class 1: Vehicle (차량)자동차, 버스, 트럭 등 도로 위 차량 이미지🚶 Class 2: Pedestrian (보행자)횡단보도를 건너거나 길을 걷는 사람 이미지이 데이터는 Kaggle이나 Op..

자율주행 2025.10.29

Day 62: 합성곱, 풀링 연산 실습

🧠 1. CNN의 핵심 연산, 직접 경험해보기이전 글에서 우리는 CNN(합성곱 신경망)의 기본 구조를 살펴봤다.오늘은 그 핵심인 합성곱(Convolution) 과 풀링(Pooling) 연산이 실제로 어떻게 작동하는지,직관적으로 이해할 수 있도록 예시와 함께 실습 형태로 알아본다.CNN의 강점은 이미지 속 특징을 자동으로 추출한다는 점이다.그 중심에 있는 합성곱과 풀링은 “이미지 속 중요한 부분만 뽑아내고 압축하는 과정”이다.🔹 2. 합성곱(Convolution) 연산의 원리합성곱은 이미지의 작은 영역(커널, kernel) 을 움직이며 특징을 추출하는 과정이다.커널은 일종의 작은 창(window)으로, 픽셀의 패턴을 탐색한다.예를 들어, 3×3 크기의 커널을 생각해보자.커널이 이미지 위를 한 칸씩 이동..

자율주행 2025.10.28

Day 61: CNN 기본 구조 이해

📘 1. CNN이란 무엇인가?CNN(Convolutional Neural Network, 합성곱 신경망)은 이미지 인식, 객체 탐지, 자율주행 등 시각 정보 처리에 특화된 인공신경망이다.사람의 시각 피질(Visual Cortex)에서 영감을 받아 만들어졌으며, 이미지의 공간적 특징(Shape, Texture, Pattern) 을 자동으로 학습한다.기존의 완전연결 신경망(Fully Connected Network, FCN)은 모든 픽셀을 동일하게 연결하지만,CNN은 국소 영역(Local Receptive Field) 만을 관찰하고 필터(Filter) 를 이동시키며 전체 이미지를 효율적으로 분석한다.🧩 2. CNN의 기본 구조CNN은 일반적으로 다음과 같은 5단계 구조로 이루어진다.1️⃣ 입력층 (Inp..

자율주행 2025.10.27

Day 60: 논문 리뷰 + 학습 정리

오늘은 지금까지 진행해온 SLAM, Localization, Mapping 프로젝트를 마무리하면서,그동안 배운 내용을 종합적으로 정리해보려고 합니다.이번 글에서는 실제 논문 인용 대신, 지금까지의 학습을 토대로현재 기술이 어떤 방향으로 발전하고 있는지를 쉽게 풀어보겠습니다.📚 1. 정리의 목적지금까지 다뤄온 SLAM과 Localization 기술은 자율주행의 ‘눈’과 ‘귀’에 해당합니다.하지만 단순히 알고리즘을 이해하는 것을 넘어,이 기술들이 어떻게 진화하고 있고 앞으로 어떤 가능성이 있는지를한 번쯤 정리해보는 과정이 필요합니다.이번 글의 목표는 다음과 같습니다.지금까지 학습한 SLAM·Localization·Mapping의 핵심 개념을 정리하기최근 기술의 발전 방향과 한계점을 이해하기앞으로 학습을 이..

자율주행 2025.10.26

Day 59: Localization & Mapping 종합 프로젝트

오늘은 지금까지 학습해온 SLAM, LiDAR, IMU, GPS 융합 기술을 한데 모아‘Localization & Mapping 종합 프로젝트’를 진행해보려 합니다.이 프로젝트는 단순히 알고리즘을 이해하는 단계를 넘어,실제 자율주행 환경에서 차량의 위치를 정확하게 인식하고 지도까지 완성하는 전 과정을 구현하는 것이 목표입니다.🚗 1. 프로젝트 개요이번 프로젝트는 센서 융합 기반 자율주행 Localization & Mapping 시스템 구축을 목표로 합니다.기존에 학습한 SLAM 기술을 중심으로, IMU와 GPS 데이터를 결합해 더욱 안정적이고 정확한 위치 추정을 수행하게 됩니다.핵심 목표는 다음과 같습니다.센서 융합(Localization)으로 차량의 정확한 위치를 추정LiDAR 기반 SLAM으로 지도..

자율주행 2025.10.25

Day 58: SLAM 정확도 비교 실험

오늘은 자율주행 기술의 핵심 중 하나인 SLAM(Simultaneous Localization and Mapping)의 정확도 비교 실험을 함께 살펴보려고 합니다.SLAM은 말 그대로 ‘동시에 위치를 추정하면서 지도를 만드는 기술’인데요, 사용하는 센서나 알고리즘에 따라 결과의 정확도가 크게 달라질 수 있습니다.그래서 이번에는 여러 SLAM 알고리즘을 같은 조건에서 실험해보고, 어떤 알고리즘이 가장 정확한지 직접 비교해봤습니다.🔹 1. 실험에 사용한 알고리즘이번 비교에서는 대표적인 세 가지 SLAM 알고리즘을 선정했습니다.GMapping (2D LiDAR 기반)가장 오래되고 널리 쓰이는 라이다 기반 SLAM입니다.속도가 빠르고 실시간성이 뛰어나지만, 회전이나 잡음이 많은 구간에서는 오차가 커지는 단점이..

자율주행 2025.10.24
반응형