Go Hard
@cheiri741145
수강평 작성수
-
평균평점
-
블로그
전체 7#카테고리
- 웹 개발
- AI 코딩
- 개발 · 프로그래밍 기타
- AI 개발 활용
#태그
- Python
- 파이썬
- 인공지능
- AI
- 테슬라비전
- 센서퓨전
- 알고리즘
- 데이터시뮬레이션
- 자율주행코딩
- OpenCV
- 자율주행
- 컴퓨터비전
- 데이터분석
- pyproject
- 웹크롤링
- Playwright
- Streamlit
- 토이프로젝트
- 자동화
- 파이썬입문
- 영상편집
- 시각화
- 스트림릿
- python
- rembg
- 배경제거
- 누끼따기
![[Python] 자율주행 팬텀 브레이크 현상의 알고리즘적 이해와 시뮬레이션](https://cdn.inflearn.com/public/files/blogs/4f97f231-6735-4a8a-9d49-e70976d61d96/thumbNeil.jpg?w=260)
2026. 03. 11.
0
[Python] 자율주행 팬텀 브레이크 현상의 알고리즘적 이해와 시뮬레이션
안녕하세요. IT 개발자 관점에서 자동차의 최신 기술을 분석하는 채널을 운영 중입니다.자율주행 시스템에서 빈번하게 발생하는 '팬텀 브레이크(Phantom Braking)' 현상을 센서 퓨전(Sensor Fusion) 데이터의 충돌과 페일 세이프(Fail-Safe) 로직 관점에서 분석해 보았습니다.기존 레거시 자동차 브랜드들은 레이더의 오탐지(False Positive)와 카메라의 정상 데이터가 충돌할 때, 보수적인 제동을 선택하도록 하드코딩된 경우가 많습니다. 이를 파이썬으로 간단히 모델링하면 아래와 같은 논리 구조를 갖습니다.Python# phantom_brake_simulator.py def simulate_sensor_fusion(camera_clear, radar_obstacle_detected): """ 카메라와 레이더 센서 데이터 충돌 시 기존 자동차 브랜드의 Fail-Safe 로직 시뮬레이션 """ print(f"[센서 입력] 카메라: 전방 클리어 ({camera_clear}), 레이더: 장애물 감지 ({radar_obstacle_detected})") # Fail-Safe 로직: 하나의 센서라도 장애물을 감지하면 보수적으로 제동 개입 if radar_obstacle_detected or not camera_clear: print("[시스템 판단] 데이터 충돌. Fail-Safe 발동 -> 긴급 제동(Phantom Brake) 개입") return True return False # 난반사로 인한 레이더의 오탐지 상황 가정 simulate_sensor_fusion(camera_clear=True, radar_obstacle_detected=True) 이러한 구조적 딜레마를 해결하기 위해 테슬라가 레이더를 제거하고 비전 AI 트레이닝(Dojo)으로 전환한 배경 등, 개발자 시각에서의 더 깊이 있는 분석은 아래 유튜브 영상에 담아두었습니다. 상세 분석 영상: https://youtu.be/rH0FZhxZQ_Y전체 소스 코드: https://github.com/gohard-lab/phantom_brake_simulator온라인 실행(Colab): https://colab.research.google.com/github/gohard-lab/phantom_brake_simulator
웹 개발
・
Python
・
파이썬
・
인공지능
・
AI
・
테슬라비전
・
센서퓨전
・
알고리즘
・
데이터시뮬레이션
・
자율주행코딩
![[Python] 단 50줄로 구현하는 테슬라 비전과 팬텀 브레이킹의 한계](https://cdn.inflearn.com/public/files/blogs/1e9ab1ce-63db-4286-aaeb-59273170e317/backGround.png?w=260)
2026. 03. 09.
0
[Python] 단 50줄로 구현하는 테슬라 비전과 팬텀 브레이킹의 한계
안녕하세요. 일상의 호기심을 파이썬으로 풀어보는 개발자입니다. 2021년 테슬라가 라이다와 레이더를 버리고 카메라 기반의 'Occupancy Networks'로 전환한 후 발생한 엣지 케이스(팬텀 브레이킹)를, 기초적인 컴퓨터 비전 코드로 시뮬레이션하며 그 한계를 짚어보았습니다.단순한 Haar Cascade 모델을 사용하여 블랙박스 영상 속 차량을 인식하는 기초적인 스크립트입니다. Python# tesla_vision_simulator.py import cv2 def run_vision_simulator(video_path: str, cascade_path: str) -> None: """블랙박스 영상을 통해 기초적인 차량 인식 비전 시뮬레이터를 구동합니다.""" cap = cv2.VideoCapture(video_path) car_cascade = cv2.CascadeClassifier(cascade_path) while cap.isOpened(): ret, frame = cap.read() if not ret: break # CPU 연산 병목 해결을 위한 해상도 축소 resized_frame = cv2.resize(frame, (640, 360)) gray_frame = cv2.cvtColor(resized_frame, cv2.COLOR_BGR2GRAY) # 객체 탐지 및 바운딩 박스 처리 cars = car_cascade.detectMultiScale(gray_frame, scaleFactor=1.1, minNeighbors=3) for (x, y, w, h) in cars: cv2.rectangle(resized_frame, (x, y), (x + w, y + h), (255, 0, 0), 2) cv2.imshow('Tesla Vision Simulator (Basic)', resized_frame) if cv2.waitKey(30) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() if __name__ == "__main__": run_vision_simulator('dashcam_footage.mp4', 'haarcascade_car.xml') 비록 구형 알고리즘이지만, 이 코드를 돌려보면 명암 변화나 짙은 그림자를 장애물로 오인하는 오탐지(False Positive) 현상을 명확히 관찰할 수 있습니다. 레이더라는 크로스체크 수단이 사라진 순수 비전(Vision Only) 모델이 현실의 가혹한 도로 환경에서 어떻게 무너지는지 확인할 수 있는 대목입니다. 요즘 파이썬 생태계 표준에 맞추어, 구형 requirements.txt 대신 pyproject.toml을 적용하여 프로젝트 의존성을 구성해 두었습니다. 자세한 시뮬레이터 구동 과정과 Tesla Vision 기술에 대한 해설은 아래 유튜브 콘텐츠에 담아두었습니다. 여러분의 블랙박스 영상으로도 직접 테스트해 보시길 권장합니다. [▶ 시뮬레이터 구동 및 기술 해설 영상]: https://youtu.be/xWrnxjh1GnY
AI 코딩
・
Python
・
OpenCV
・
자율주행
・
컴퓨터비전
・
데이터분석
・
pyproject
![[토이 프로젝트] K카 중고차 동적 크롤링 및 Streamlit 대시보드 배포](https://cdn.inflearn.com/public/files/blogs/6366a9c6-6233-445b-8b99-0cf4113068cf/thumbNeil.png?w=260)
2026. 03. 07.
0
[토이 프로젝트] K카 중고차 동적 크롤링 및 Streamlit 대시보드 배포
🚀 서비스 실행 링크: https://youtu.be/HnL0wOqci7Q 안녕하세요.파이썬과 데이터 분석에 관심이 많은 '잡학다식 개발자'입니다. K카 중고차 데이터를 수집하여 감가율을 시각화하는 대시보드 프로젝트를 진행하며 겪은,교과서적 이론과 실제 배포 환경의 간극에 대해 공유하고자 합니다. 보통 입문 강의에서는 requests와 BeautifulSoup을 이용한 정적 스크래핑을 배우지만,실제 상용 웹사이트는 동적 렌더링과 보안으로 겹겹이 막혀 있습니다. 이를 해결하기 위해 Playwright를 도입했습니다. 또한 구형 requirements.txt 대신요즘 파이썬 생태계 표준인 pyproject.toml을 도입하여 패키지 의존성을 명확하게 관리했습니다. 특히 Streamlit Cloud 배포 시 리눅스 컨테이너의 샌드박스 제약으로 브라우저가 뻗어버리는 현상을아래와 같이 Headless 옵션으로 우회했습니다. Python# kcar_headless_scraper.py import os from playwright.sync_api import sync_playwright def fetch_car_prices(): # Streamlit Cloud 환경에서 Playwright용 브라우저 강제 설치 os.system("playwright install chromium") with sync_playwright() as playwright_instance: # 이론적인 일반 스크래핑과 달리, 실제 클라우드 서버 환경에서는 # 샌드박스 충돌 및 메모리 부족 현상으로 인한 에러가 발생합니다. # 이를 우회하기 위한 현업의 필수 headless 옵션 세팅입니다. browser_instance = playwright_instance.chromium.launch( headless=True, args=[ '--no-sandbox', '--disable-dev-shm-usage' ] ) # 보안이 적용된 동적 페이지 렌더링 대기 및 데이터 추출 page_instance = browser_instance.new_page() page_instance.goto("https://www.kcar.com") # ... (중략: 데이터 크롤링 로직) ... browser_instance.close() return [] 파이썬 크롤러 배포를 공부하시는 분들께 도움이 되기를 바랍니다.
웹 개발
・
파이썬
・
Python
・
웹크롤링
・
Playwright
・
Streamlit
・
토이프로젝트
・
데이터분석
![[파이썬 토이 프로젝트] 나만의 유튜브 쇼츠(Shorts) 자동화 공장 차리기 🎬](https://cdn.inflearn.com/public/files/blogs/86cfd852-45f9-4790-ac56-dfe43ca32644/thumNeil.png?w=260)
2026. 03. 05.
0
[파이썬 토이 프로젝트] 나만의 유튜브 쇼츠(Shorts) 자동화 공장 차리기 🎬
안녕하세요! 파이썬을 활용해 일상의 반복적인 작업을 시스템으로 만드는 개발자입니다. 파이썬 문법을 익히고 나면 크롤링 말고 또 재미있게 해볼 만한 프로젝트가 없을까 고민되시죠? 오늘은 파이썬으로 영상 편집을 자동화해서, 유튜브 '쇼츠 제작 공장'을 직접 만들어보는 흥미로운 토이 프로젝트를 소개해 드립니다. 영상 편집 자동화, 이론과 현실은 다릅니다!보통 블로그 튜토리얼을 보면 코드 몇 줄로 영상 두 개를 뚝딱 합치면 끝난다고 하죠. 하지만 실제 현실에서는 대본을 읽어주는 목소리(TTS)의 길이에 맞춰서 배경 영상의 길이를 정확하게 잘라내어 맞춰주는 세밀한 계산이 필요합니다. 그렇지 않으면 소리만 나오거나 화면만 멈춰있는 엉성한 결과물이 나오게 됩니다.이러한 현실적인 동기화 문제를 해결한 파이썬 코드를 준비했습니다. 한번 따라 해보세요! 파일명: make_shorts.pyPythonfrom moviepy.editor import VideoFileClip, AudioFileClip # 배경 영상과 음성 파일 가져오기 video = VideoFileClip("background.mp4") audio = AudioFileClip("voice.mp3") # 목소리 길이에 딱 맞게 배경 영상 자르기 (매우 중요!) if video.duration > audio.duration: video = video.subclip(0, audio.duration) # 소리와 영상 합치기 final_clip = video.set_audio(audio) # 새로운 영상 파일로 저장하기 final_clip.write_videofile("my_first_shorts.mp4", codec="libx264") 배포와 관리는 세련되게!프로젝트를 깃허브에 올리거나 세팅하실 때, 예전 방식인 requirements.txt 대신 최신 표준인 pyproject.toml을 사용해 보세요. 프로젝트 구조가 훨씬 깔끔해지고 라이브러리 설치 오류도 획기적으로 줄어듭니다.전체적인 코드 작성 흐름과 파이썬이 실제로 쇼츠 영상을 만들어내는 신기한 구동 화면은 아래 제 튜토리얼 영상에 아주 차분하고 자세하게 담아두었습니다. 파이썬의 무궁무진한 활용법을 확인해 보세요! 👉https://www.youtube.com/watch?v=3m4AEVO1swg
개발 · 프로그래밍 기타
・
파이썬
・
자동화
・
파이썬입문
・
토이프로젝트
・
영상편집

2026. 03. 05.
0
파이썬 토이 프로젝트: F1 레이싱 데이터 분석하고 그래프 그리기 🏎️
안녕하세요! 파이썬을 활용해 실생활의 흥미로운 데이터를 분석하는 개발자입니다.파이썬 기본 문법을 공부하신 뒤 "이제 어떤 데이터를 분석해 볼까?" 고민하시는 분들을 위해, 오늘은 전 세계에서 가장 빠른 스포츠인 F1 레이싱 데이터를 파이썬으로 분석하는 프로젝트를 소개해 드립니다. 깔끔한 데이터는 책 속에만 있습니다보통 파이썬 기초 교재에서는 깔끔하게 정리된 엑셀 데이터를 예제로 다룹니다. 하지만 실제 현업이나 실전 프로젝트에서 다루는 데이터는 그렇지 않죠. 이번에 다룬 F1 센서 데이터 역시 통신 문제로 데이터가 끊기거나 비어있는 결측치가 많습니다. 이런 현실적인 노이즈 데이터를 파이썬으로 어떻게 부드럽게 이어주고(보간법) 분석할 수 있는지 실전 팁을 담았습니다. 한번 실행해 보세요! 핵심 코드F1 공식 데이터를 불러와 드라이버의 속도 그래프를 그리는 기본 뼈대 코드입니다.Pythonimport fastf1 from matplotlib import pyplot as plt # 2023년 몬자 예선전 데이터 불러오기 session = fastf1.get_session(2023, 'Monza', 'Q') session.load() # 가장 빠른 랩타임 데이터 찾기 fast_lap = session.laps.pick_fastest() tel = fast_lap.get_telemetry() # 그래프 그리기 plt.plot(tel['Distance'], tel['Speed']) plt.xlabel("Distance (m)") plt.ylabel("Speed (km/h)") plt.show() 환경 세팅 꿀팁프로젝트를 시작하실 때 옛날 방식인 requirements.txt 대신 요즘 파이썬의 표준인 pyproject.toml을 사용해 보세요. 라이브러리 충돌 없이 훨씬 세련되게 프로젝트를 관리하실 수 있습니다.Ini, TOML[project] name = "f1-project" dependencies = ["fastf1", "matplotlib"] 위 코드를 발전시켜 두 드라이버의 코너링 차이를 정밀하게 비교 분석하는 전체 과정은 아래 영상에 아주 차분하고 자세하게 담아두었습니다. 스포츠 데이터 분석에 흥미를 느끼시는 분들께 좋은 영감이 되길 바랍니다! 👉https://youtu.be/7b1eT20fnHs
웹 개발
・
파이썬
・
데이터분석
・
토이프로젝트
・
시각화
・
파이썬입문

2026. 03. 05.
0
파이썬 Streamlit으로 내 차 유지비 시뮬레이터 만들기 (M2 vs 클리오 편) 💻
안녕하세요! 파이썬으로 재미있는 실생활 데이터를 분석하는 개발자입니다.파이썬 기초를 떼고 나서 토이 프로젝트를 고민하시는 분들을 위해, 누구나 쉽게 웹 대시보드를 띄울 수 있는 Streamlit 활용법을 코드로 공유해 드립니다.진짜 현실 데이터를 반영한 코드 짜기 보통 교과서적인 튜토리얼에서는 연비 계산만 하지만, 실제 차량 유지비는 그런 탁상공론과는 다릅니다. 2019년식 BMW M2 컴페티션 같은 차량은 고급 소모품 비용이 크고, 2020년식 르노 클리오는 또 다른 정비 주기가 존재하죠.이런 현실적인 변수를 사용자가 웹에서 직접 입력할 수 있게 만든 핵심 코드입니다. 한번 복사해서 실행해 보세요!Pythonimport streamlit as st st.title("나만의 자동차 유지비 계산기") # 두 차량의 현실적인 데이터 입력받기 st.write("2019 BMW M2 Competition 설정") m2_oil = st.number_input("M2 엔진오일 비용", value=300000) st.write("2020 Renault Clio 설정") clio_oil = st.number_input("클리오 엔진오일 비용", value=100000) st.success("이제 이 변수들로 그래프를 그려보면 됩니다!") 배포할 땐 pyproject.toml을 쓰세요 완성된 코드를 서버에 올릴 때 옛날 방식인 requirements.txt를 쓰면 에러가 자주 납니다. 요즘 대세인 pyproject.toml을 설정 파일로 쓰시면 훨씬 세련되고 안전하게 배포하실 수 있습니다.Ini, TOML[project] name = "my-streamlit-app" dependencies = ["streamlit"] 파이썬으로 웹 대시보드를 완성해 나가는 전체 과정과 완성된 시뮬레이터 화면은 아래 영상에 아주 차분하게 담아두었습니다. 코드를 직접 따라 쳐보시면서 파이썬의 재미를 느껴보시길 바랍니다!👉https://youtu.be/VQUF9oDzWf8
웹 개발
・
파이썬
・
스트림릿
・
토이프로젝트
・
파이썬입문
・
데이터분석

2026. 03. 04.
0
파이썬으로 3초 만에 이미지 누끼 따기 (OpenCV 삽질 피하는 현실적인 방법)
파이썬과 IT 관련 지식을 정리하고 있는 잡학다식 개발자입니다.오늘은 쇼핑몰을 운영하시거나 블로그 썸네일을 만드시는 분들, 혹은 이미지 전처리 자동화가 필요한 분들이 자주 겪는 '누끼 따기(배경 제거)'에 대해 이야기해 보려고 합니다.이론과 현실의 간극: 왜 교과서적인 방법은 실무에서 실패할까?구글에 '파이썬 이미지 배경 제거'를 검색하면 가장 먼저 나오는 교과서적인 방법은 보통 OpenCV를 이용한 색상 임계값(Thresholding)이나 윤곽선(Contour) 검출 방식입니다. 이론적으로는 배경과 피사체의 색상 차이를 이용해 분리해 내는 훌륭한 원리죠.하지만 현실의 실무 데이터는 그렇게 만만하지 않습니다. 조명에 따라 생기는 그림자, 피사체와 비슷한 색상의 배경, 특히 '머리카락'이나 '퍼(Fur)' 같은 복잡한 경계선을 만나면 이 교과서적인 방법은 여지없이 무너집니다. 결국 파라미터 값을 조정하다가 밤을 새우는 이른바 '탁상공론'식 코딩이 되고 맙니다.실제 현업의 해결책: AI 기반 rembg 라이브러리그래서 실제 서비스 환경이나 실무에서는 픽셀의 색상을 계산하는 대신, U-Net 기반의 딥러닝 모델이 적용된 rembg라는 라이브러리를 사용합니다. 복잡한 수학적 연산이나 파라미터 튜닝 없이, AI가 알아서 피사체와 배경을 완벽하게 분리해 줍니다.구형 방식인 requirements.txt 대신, 요즘 파이썬 생태계 표준인 pyproject.toml을 이용해 환경을 세팅하고 코드를 실행하는 방법을 공유합니다.1. 환경 세팅 (pyproject.toml)Ini, TOML[build-system] requires = ["setuptools", "wheel"] build-backend = "setuptools.build_meta" [project] name = "background-removal-demo" version = "0.1.0" description = "rembg를 활용한 이미지 배경 제거 자동화 스크립트" requires-python = ">=3.9" dependencies = [ "rembg>=2.0.50", "Pillow>=10.0.0" ] 2. 실행 코드 (remove_background.py)Python""" 이미지 배경 제거 자동화 스크립트 - rembg 라이브러리를 활용하여 딥러닝 모델 기반으로 피사체와 배경을 분리함 - 복잡한 윤곽선(머리카락, 그림자 등)을 처리하기 위한 실무 최적화 방식 """ from rembg import remove from PIL import Image import os def process_image(input_path: str, output_path: str): # 입력 및 출력 파일의 유효성 검증 if not os.path.exists(input_path): print(f"[Error] 입력 파일을 찾을 수 없습니다: {input_path}") return try: # 이미지를 메모리에 로드 input_image = Image.open(input_path) # rembg 라이브러리를 통한 배경 제거 처리 (추론) output_image = remove(input_image) # 투명도(Alpha 채널)를 보존하기 위해 PNG 포맷으로 저장 output_image.save(output_path, format="PNG") print(f"[System] 배경 제거 완료. 결과물 저장 경로: {output_path}") except Exception as e: print(f"[Error] 배경 제거 처리 중 예외 발생: {e}") if __name__ == "__main__": # 테스트용 파일 경로 지정 (실제 파일 경로로 수정하여 사용) INPUT_FILE = "sample_input.jpg" OUTPUT_FILE = "sample_output.png" process_image(INPUT_FILE, OUTPUT_FILE) 마치며코드를 보시면 아시겠지만, 실제 현업에서 문제를 해결하는 방식은 때로는 교과서적인 기초 원리보다 이미 잘 만들어진 도구를 얼마나 적절하게 가져다 쓰느냐에 달려있기도 합니다.위의 코드를 복사해서 직접 실행해 보시면 퀄리티에 꽤 놀라실 겁니다. 만약 텍스트와 코드만으로 이해가 어렵거나, 터미널 환경 세팅부터 실제 이미지가 깔끔하게 누끼 따지는 시각적인 과정 전체를 눈으로 확인하고 싶으신 분들은 아래에 제가 정리해 둔 영상 링크를 참고해 주셔도 좋습니다.오늘도 오류 없는 평온한 코딩 하시길 바랍니다. 감사합니다.https://youtu.be/HzuSu2b_5N4
AI 개발 활용
・
python
・
자동화
・
rembg
・
배경제거
・
누끼따기
・
pyproject




