프롬프트 엔지니어링(Prompt Engineering), 컨텍스트 엔지니어링(Context Engineering), 하네스 엔지니어링(Harness Engineering)을 소개하고 3개 공법을 복합적으로 사용하는 방법을 설명하는 섹션을 세 개 추가했습니다.
비전공자를 위한 인공지능 통계학
아리가람
수식 한 개, 코드 한 줄 없이 인공지능 개발과 활용에 필요한 기초 통계의 본질을 꿰뚫습니다.
입문
인공지능(AI)
챗지피티(ChatGPT)나 클로드 같은 대규모 언어 모형의 기초 원리를 깊이 있게 탐구하면서 개발 역량을 키울 수 있습니다. 흔히 접하기 어려운 다양한 정보와 개발 기법을 배울 수 있습니다.
수강생 100명
난이도 중급이상
수강기한 무제한





엔씨소프트
임직원들도 이 강의를 듣고 있어요!





엔씨소프트
임직원들도 이 강의를 듣고 있어요!
대규모 언어 모형(LLM)의 기초 원리
LLM 제작 과정
LLM을 '써 본 경험'에서 한 걸음 더 들어가, 이 기술이 내부에서 어떻게 돌아가는지·왜 그렇게 설계됐는지·어떤 능력과 한계를 지니는지를 75개 섹션 339개 수업으로 체계적으로 짚습니다. 응용 서비스의 설계·구현·운영에서 판단을 내려야 하는 분들을 위한 종합 강의입니다.
API로 호출하는 단계를 넘어 모형 내부의 작동 원리까지 정리하고 싶은 분. "왜 이렇게 응답할까"를 코드 레벨로 이해하려는 분.
모형 선택·미세 조정 여부·평가 지표·배포 형태를 결정해야 하는 분. 판단 근거를 가진 채로 결정하고 싶은 분.
기존 개발 경험을 LLM 영역으로 확장하려는 분. PyTorch·Transformers 생태계 입문이 필요한 분.
Transformer·Self-Attention·토큰화는 채용 단골 주제입니다. 면접에서 코드와 그림으로 답할 수 있는 수준까지 가고 싶은 분.
원리 → 제작 → 운영 → 사용 시점 제어의 4단 흐름. 한 강의 안에서 LLM의 안과 밖을 모두 짚습니다.
각 섹션은 [기본]·[심화]·[실습] 트랙으로 구성. 시간이 빠듯하면 [기본]만, 깊이를 원하면 [심화]+[실습]까지 — 학습자가 직접 고를 수 있습니다.
LLM "사용 시점"의 제어 원리를 다른 강의에서 보기 어려운 깊이로 다룹니다. Multi-Agent Harness까지 — 최신 흐름을 기초 원리에 연결.
생성형 AI의 정의·전통 AI와의 차이부터 자기회귀·자기주의 모형, Transformer 아키텍처, Scaled Dot Product Attention과 Multi-Head Attention의 구현, 사전 학습 모형까지. 이후 모든 섹션의 공통 기반.
Open-Source vs Closed-Source 비교, LLM 훈련 기본 개념, 토큰화 입문→고급, Foundation Model 구축·후속 작업·LLM-Ops, 그리고 프로젝트 기획·데이터 수집·정제·관리·사전 훈련·미세 조정·강화 학습·평가·안전성 검증까지의 전 과정.
훈련·평가 지표 운용, 모델 경량화·배포 전략, 윤리·책임 AI, 최신 LLM 기술 현황과 연구 동향. 실전 운영에서 부딪히는 쟁점을 원리 위에서 다룹니다.
모델 "제작"에서 모델 "사용 시점 제어"로 이어지는 다리. Prompt·Context·Harness Engineering 입문, 3층 구조의 원리·설계, 하네스가 결과를 바꾸는 직접 체험, Multi-Agent Harness까지.
Transformer·Self-Attention·토큰화 메커니즘을 코드와 그림으로 설명할 수 있습니다.
사전훈련·미세조정·정렬 단계의 의의와 제약을 식별합니다.
평가·경량화·배포·윤리 쟁점에 대해 근거 있는 판단을 내립니다.
Prompt·Context·Harness 3층을 설계 도구로 활용합니다.
Python 기초 문법(함수·클래스·예외 처리). 선형대수·확률 기초 개념(벡터·행렬·확률 분포). LLM 사용 경험. 딥러닝 사전 지식은 요구하지 않습니다 — 모든 개념은 처음 등장할 때 정의합니다.
프롬프트 엔지니어링(Prompt Engineering), 컨텍스트 엔지니어링(Context Engineering), 하네스 엔지니어링(Harness Engineering)을 소개하고 3개 공법을 복합적으로 사용하는 방법을 설명하는 섹션을 세 개 추가했습니다.
2판 내용 검증을 마치고 2판 강의 영상을 게시하기 시작했습니다. 게시 순서를 변경해 수시로 임의의 수업을 게시하겠습니다.
[전면 개정판 (제2판)] 게시를 시작했습니다. 섹션 21부터 제2판을 개시해서 마지막 섹션까지 게시한 뒤에 다시 섹션 1부터 섹션 20까지 게시하겠습니다. (변경합니다. 순서와 상관 없이 2판으로 개정해 나가겠습니다.)
[전체 수업 내용 변경 착수] 전체 수업 구조를 유지하면서 각 수업을 더 역동적이면서도 간결하게 정보를 전달하는 방식으로 바꾸려고 합니다. 기존 수업들은 강의 시간, 설명의 깊이가 일정하지 않고 정적인 발표 자료를 이용한다는 단점이 있었습니다. 이것을 보완하기 위해 전면적으로 개편하였고, 개편한 방식에 맞춰 수업들을 보충하거나 교체하겠습니다. 다만, 깊이 있는 내용을 담아 올려 두었던 수업용 동영상이 필요한 경우에는 알려 주시면 참고 자료로 제공하도록 하겠습니다.
각 수업 번호가 기존에는 장-절-항 번호 체계로 되어 있어 섹션 번호와 달라 혼란스러운 면이 있어, 섹션 번호에 연동하는 형태(예: 첫 번째 섹션의 첫 번째 수업이면 수업 1-1)로 바꿔 목차를 이해하기 쉽게 했습니다. 다만, 각 수업의 슬라이드 번호나 각 첨부 파일의 수업 번호를 바꾸는 데는 상당한 시간이 걸릴 수 있으니 양해해 주시면 감사하겠습니다.
"LLM을 위한 토큰화 완전 정복"이라는 주제를 다루는 초급편·중급편·고급편 섹션을 추가했습니다.
"섹션 17. 'LLM 제작 전 과정 이해하기' 심화"와 "섹션 18. 'LLM 제작 전 과정 이해하기' 실습 (파이썬 + 구글 코랩)"에 속한 수업 목차를 대폭 보강해 개편했습니다. 새 목차에 맞춘 강의 내용을 준비하고 있습니다.
유의 사항을 상세 소개 페이지에 추가했습니다.
"섹션 10. 'Transformer 아키텍처' 실습"의 목차를 개정했습니다. 새 목차에 맞춘 강의 내용을 준비하고 있습니다.
"섹션 16. LLM 제작 전 과정 이해하기"의 목차를 개정했습니다. 이에 따라 기존 강의는 삭제하고, 새 목차에 맞춘 강의 내용을 준비하고 있습니다.
전체 수업을 [기본]·[심화]·[실습]으로 구분해 말머리표를 달았습니다. 기존의 [보충] 수업은 [심화] 수업에 해당하므로 '[심화]'라는 말머리표를 달았습니다.
혼선을 줄이고 학습 과정을 알아보기 쉽게 하기 위해 모든 섹션을 일반적인 섹션([기본] 수업이나 [심화] 수업을 포함하는 섹션)·심화 섹션([심화] 수업만 포함하는 섹션)·실습 섹션([실습] 수업만 포함하는 섹션)으로 분할했습니다.
이렇게 혼선 가능성을 줄임에 따라 2025년 8월 22일에 비공개 상태로 변경했던 모든 수업을 다시 공개했습니다.
섹션 1~10의 실습 목차들을 공개했습니다. 향후 시간을 두고 내용을 공개할 예정입니다.
섹션 1~10의 [보충] 수업과 [심화] 수업 목차를 다시 공개했습니다. 이는 실습 목차와의 연계성을 수강생이 파악하도록 하기 위해서입니다.
아직 완성하지 않은 [심화] 과정과 [보충] 과정에 속한 수업들을 비공개 상태로 변경했습니다. 향후 완성하는 대로 각 섹션별로 공개할 예정입니다. 수강생의 혼선을 줄이기 위한 조치이니 이해해 주시면 감사하겠습니다.
현재 심화 과정 수업들을 추가하고 있고, 강의 시간이 긴 수업들을 분할하고 있습니다. 그래서 수업 자료에 있는 섹션 번호와 목차에 나오는 섹션 번호가 상이할 수 있습니다.
학습 대상은
누구일까요?
대규모 언어 모형의 원리를 이론 중심으로 배우고 싶은 사람
LLM 제작 과정을 이해하고 싶은 분
선수 지식,
필요할까요?
딥러닝
강화 학습
자연어 처리
전체
338개 ∙ (63시간 54분)
해당 강의에서 제공:
전체
5개
지식공유자님의 다른 강의를 만나보세요!
같은 분야의 다른 강의를 만나보세요!