블로그

김준하

'AI 취업 비서' 서비스를 만들어봤어요 피드백 부탁드립니다

안녕하세요! 저는 컴퓨터학부 4학년에 재학 중인, 프론트엔드 개발자를 꿈꾸는 학생입니다. 🧑‍💻취업 준비를 하다 보니 노션, 메모장, 파일 폴더... 자기소개서가 여기저기 흩어져 있어 관리가 너무 힘들더라고요. 특히 작성하려고 하는 주제와 관련된 내용의 자기소개서를 찾는 게 어려웠습니다. 지원 현황부터 자기소개서 관리, 자기소개서를 작성하면서 기존 자료 참고, 자신의 자기소개서를 기반으로 AI 초안, AI 맞춤법 교정, AI 예상 면접 질문까지 한 서비스에 모두 담았습니다!1인 개발이라 아직 부족한 점이 있을 수 있지만, 여러분의 피드백을 받아 더 좋은 서비스로 발전시키고 싶습니다. 많은 관심 부탁드려요![🔥 주요 기능 소개]1⃣ 지원 현황 칸반보드 📊 "이 회사 마감 언제였지?" 노션 정리는 그만! '작성 중 → 지원 완료 → 면접 → 결과' 프로세스를 칸반 보드로 시각화하여, 드래그 한 번으로 지원 현황을 관리하세요.2⃣ 태그 기반 자소서 관리 & 검색 🏷#리더십#직무경험 태그만 검색하면, 과거에 썼던 모든 경험이 카드로 정리되어 나옵니다. 필요한 문장만 쏙쏙 뽑아 쓰세요.3⃣ 나를 학습한 AI 초안 작성 🤖 빈 화면만 보면 막막하신가요? 핵심 키워드만 입력하세요. AI가 내 경험과 문체를 학습하여 나만의 이야기가 담긴 초안을 써줍니다.4⃣ 전문 에디터급 AI 교정 ✨ "이 문장 좀 어색한데..." 싶을 때 버튼 하나만 누르세요. 단순 맞춤법 검사를 넘어, 신뢰감 있는 어조로 문장을 매끄럽게 다듬어 드립니다.5⃣ AI 면접 예상 질문 💬 서류 합격 후가 걱정되시나요? 내가 쓴 자소서를 AI가 분석해 면접관이 물어볼 법한 날카로운 질문을 미리 뽑아드립니다.👉지금 바로 사용해 보기:https://jobsecretary.lat(피드백은 언제나 환영입니다! )#취업준비 #자소서 #AI자소서 #JobSecretary #취업비서 #칸반보드 #면접준비 #대학생 #취준생 #무료배포

AI 코딩프로젝트개인프로젝트웹개발취업

Go Hard

🚀 인위적인 번들거림을 제거한 고충실도(High-fidelity) AI 업스케일러 공개

 기존 AI 화질 개선 툴들이 보여주는 특유의 부자연스러운 매끄러움(Plastic look)에 아쉬움을 느껴 직접 제작한 GoHard AI Upscaler를 소개합니다. 단순히 해상도를 키우는 것을 넘어, 원본이 가진 고유의 질감을 보존하는 데 집중했습니다.✨ 핵심 가치 (Core Values)High-fidelity AI Upscaling: 공격적인 노이즈 제거 대신, 실제 사진과 같은 자연스러운 입자감과 구조적 디테일을 복원합니다.Clean and Intuitive UI: 복잡한 설정 없이 작업에만 집중할 수 있도록 직관적이고 깔끔한 인터페이스를 갖췄습니다.Safe & Private Environment: 사용자의 데이터는 외부 서버로 전송되지 않습니다. 로컬 환경 또는 안전하게 격리된 Google Colab에서만 처리됩니다.💻 핵심 로직 (Python 기반)IT 커뮤니티(OKKY, 벨로그 등)의 성격에 맞춰 기술적 원리를 엿볼 수 있는 핵심 코드 일부를 공유합니다.# 고충실도 텍스트 보존 엔진 예시 from gohard_engine import FidelityModel from tracker_web import log_app_usage def process_high_res(image_path): # 인위적인 스무딩을 억제하고 디테일을 재구성 upscaler = FidelityModel(mode="texture_priority") log_app_usage("upscaler_v1", "high_res_task") return upscaler.run(image_path)🚨 치명적인 단점과 기술적 한계이 프로그램은 완벽하지 않습니다. 고충실도(High-fidelity) 구현을 위해 구조적으로 감수해야 했던 치명적인 단점 한 가지가 존재합니다. 이 기술적 병목 현상이 발생하는 구체적인 이유와 제작 과정에서의 비하인드는 아래 영상에 솔직하게 담았습니다.(배포된 실행 파일은 철저한 검증을 거쳤으므로 안심하고 사용하셔도 됩니다.)치명적인 이유 확인 (유튜브): https://youtu.be/vXHdwpibqEo개발자 양심 가이드: 이 프로그램이 도움이 되었다면, ‘체리피커’가 되기보다 개발자의 양심을 담아 GitHub Star 하나만 부탁드립니다! ⭐

AI 코딩AIPYTHONopensource파이썬GoogleColabPhotography

Go Hard

[Python] Matplotlib을 활용한 F1 레이스카 궤적 이탈 시뮬레이션 구현

안녕하세요.오늘은 파이썬의 NumPy와 Matplotlib 애니메이션 기능을 활용해, F1 차량의 코너링 중 접지력 상실(Hydroplaning) 시점을 계산하고 궤적을 시각화하는 시뮬레이션을 구현해 보았습니다.개발을 하다 보면 종종 '모든 물리 변수를 정밀하게 넣어야 완벽한 코드'라는 이론적 강박에 빠지곤 합니다. 하지만 목적이 '데이터 추출'이 아닌 '현상의 시각화'라면, 모델의 복잡도를 낮추는 것이 렌더링 최적화와 직관성 측면에서 현실적인 정답이 될 수 있습니다.아래는 차량의 현재 위치와 속도, 중력가속도를 계산하여 그립(Grip) 상실 여부에 따라 궤적 벡터를 분기하는 핵심 코드 블록입니다.def calculate_state(t, v0, r, drag_coef): dt_step = t if t < config['t_hydroplaning'] else config['t_hydroplaning'] omega = v0 / r # 정상적인 코너링 궤적 계산 initial_theta = np.pi current_theta = initial_theta + omega * dt_step car_x = r * np.cos(current_theta) + r car_y = r * np.sin(current_theta) + r # 수막현상 발생 시점 이후의 관성 이동 벡터 계산 if t >= config['t_hydroplaning']: lost_grip_theta = initial_theta + omega * config['t_hydroplaning'] lost_grip_pos = np.array([r * np.cos(lost_grip_theta) + r, r * np.sin(lost_grip_theta) + r]) lost_grip_v_vec = np.array([-v0 * np.sin(lost_grip_theta), v0 * np.cos(lost_grip_theta)]) slide_time = t - config['t_hydroplaning'] slide_accel = drag_coef * v0 slide_v_mag = max(0, v0 - slide_accel * slide_time) slide_v_avg = (v0 + slide_v_mag) / 2 slide_dist = slide_v_avg * slide_time v0_unit_vec = lost_grip_v_vec / v0 if v0 > 0 else np.array([0, 0]) car_x = lost_grip_pos[0] + v0_unit_vec[0] * slide_dist car_y = lost_grip_pos[1] + v0_unit_vec[1] * slide_dist return car_x, car_y  이 코드가 실제 화면에서 어떻게 애니메이션으로 구동되는지, 그리고 현업 데이터 분석 환경에서는 이론적인 수식과 어떤 간극이 존재하는지에 대한 구체적인 작동 원리와 자세한 설명은 아래 유튜브 콘텐츠를 참고해 주시면 감사하겠습니다. https://youtu.be/tZ1Vvy1g0Yg 

AI 코딩Python파이썬데이터시각화MatplotlibNumPy시뮬레이션F1모터스포츠

Go Hard

[Python] 단 50줄로 구현하는 테슬라 비전과 팬텀 브레이킹의 한계

안녕하세요. 일상의 호기심을 파이썬으로 풀어보는 개발자입니다.  2021년 테슬라가 라이다와 레이더를 버리고 카메라 기반의 'Occupancy Networks'로 전환한 후 발생한 엣지 케이스(팬텀 브레이킹)를, 기초적인 컴퓨터 비전 코드로 시뮬레이션하며 그 한계를 짚어보았습니다.단순한 Haar Cascade 모델을 사용하여 블랙박스 영상 속 차량을 인식하는 기초적인 스크립트입니다. Python# tesla_vision_simulator.py import cv2 def run_vision_simulator(video_path: str, cascade_path: str) -> None: """블랙박스 영상을 통해 기초적인 차량 인식 비전 시뮬레이터를 구동합니다.""" cap = cv2.VideoCapture(video_path) car_cascade = cv2.CascadeClassifier(cascade_path) while cap.isOpened(): ret, frame = cap.read() if not ret: break # CPU 연산 병목 해결을 위한 해상도 축소 resized_frame = cv2.resize(frame, (640, 360)) gray_frame = cv2.cvtColor(resized_frame, cv2.COLOR_BGR2GRAY) # 객체 탐지 및 바운딩 박스 처리 cars = car_cascade.detectMultiScale(gray_frame, scaleFactor=1.1, minNeighbors=3) for (x, y, w, h) in cars: cv2.rectangle(resized_frame, (x, y), (x + w, y + h), (255, 0, 0), 2) cv2.imshow('Tesla Vision Simulator (Basic)', resized_frame) if cv2.waitKey(30) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() if __name__ == "__main__": run_vision_simulator('dashcam_footage.mp4', 'haarcascade_car.xml')  비록 구형 알고리즘이지만, 이 코드를 돌려보면 명암 변화나 짙은 그림자를 장애물로 오인하는 오탐지(False Positive) 현상을 명확히 관찰할 수 있습니다. 레이더라는 크로스체크 수단이 사라진 순수 비전(Vision Only) 모델이 현실의 가혹한 도로 환경에서 어떻게 무너지는지 확인할 수 있는 대목입니다. 요즘 파이썬 생태계 표준에 맞추어, 구형 requirements.txt 대신 pyproject.toml을 적용하여 프로젝트 의존성을 구성해 두었습니다. 자세한 시뮬레이터 구동 과정과 Tesla Vision 기술에 대한 해설은 아래 유튜브 콘텐츠에 담아두었습니다. 여러분의 블랙박스 영상으로도 직접 테스트해 보시길 권장합니다. [▶ 시뮬레이터 구동 및 기술 해설 영상]: https://youtu.be/xWrnxjh1GnY 

AI 코딩PythonOpenCV자율주행컴퓨터비전데이터분석pyproject

채널톡 아이콘