1. LLM은 텍스트를 어떻게 처리하는가LLM이 텍스트 한 줄을 받아서 다음 토큰을 예측하기까지의 전체 과정을 4단계로 따라간다. 토크나이저, 임베딩, 트랜스포머 레이어, 출력까지 "OOM killer가 nginx를" 한 문장이 모델 안에서 겪는 여행.DevOps·2026. 03. 03. 오후 10:00(수정됨)·3분·1·@시스템 엔지니어가 해부하는 LLM의 모든 것·#LLM#트랜스포머#토크나이저+5
6. 추론: Prefill, Decode, KV 캐시LLM이 토큰을 생성할 때 왜 전체를 다시 계산하지 않는지. KV 캐시의 동작 원리, VRAM 비용, Prefill과 Decode의 차이.DevOps·2026. 04. 07. 오후 10:00(수정됨)·2분·0·@시스템 엔지니어가 해부하는 LLM의 모든 것·#KV캐시#Prefill#Decode+5
5. 조립: 토큰이 쌓이고 레이어가 깊어지는 과정어텐션과 FFN을 조립하는 과정DevOps·2026. 03. 31. 오후 10:00(수정됨)·2분·1·@시스템 엔지니어가 해부하는 LLM의 모든 것·#LLM#트랜스포머
4. FFN: 지식이 저장된 곳LLM의 FFN이 어텐션과 어떻게 역할을 나누는지. 확장→압축 구조가 왜 "지식 저장소"인지. 분산 표현의 원리, LayerNorm의 역할까지.DevOps·2026. 03. 24. 오후 10:00(수정됨)·2분·0·@시스템 엔지니어가 해부하는 LLM의 모든 것·#FFN#지식저장소#뉴런+5
3. 어텐션: 새 토큰이 문맥을 얻는 과정LLM 어텐션의 실제 계산 과정을 숫자로 추적한다. Q·K 내적이 주목도를 만들고, V의 가중합이 문맥을 만드는 과정. 멀티 헤드가 필요한 이유, 스케일링(√d), 잔차 연결까지.DevOps·2026. 03. 17. 오후 10:00(수정됨)·3분·0·@시스템 엔지니어가 해부하는 LLM의 모든 것·#어텐션#Q/K/V#멀티헤드+5
2. 입력 처리: 텍스트가 숫자가 되기까지LLM에 텍스트가 들어가면 가장 먼저 일어나는 일. 토크나이저가 문자열을 정수로, 임베딩이 정수를 벡터로 변환하는 과정.DevOps·2026. 03. 10. 오후 10:00(수정됨)·3분·0·@시스템 엔지니어가 해부하는 LLM의 모든 것·#토크나이저#BPE#임베딩+5