
좋은 기회가 되어서 정말 간만에 길벗출판사의 도서를 리뷰하게 되었다.
개인적으로 좀 바쁜 시기였음에도 불구하고, 도저히 피할 수 없는 너무나 매력적인 조건들이라 리뷰 신청을 하지 않을 수 없었다.
- 최근 진행하고 있는 스터디에서 트랜스포머를 건드려보고 있는데, 직접 만들어보는 GPT 라니 !!!
- 개인적으로 공부할 때 가장 좋아하는 스크래치 부터 직접 구현해보는 방식이다 !!!
- 원서의 출처가 MANNING 이라면.... 최소한 기본 이상은 될거라는 믿음이 있다 !!!
- 소스코드 구현도 PyTorch 기반으로 했다. 와우 !!!
- 내가 너무나 추종하는 박해선님이 옮긴이로 참여한 책이다 !!! 우와 !!!
- 박해선님이 참여했다면 ... 하나 하나 꼼꼼하게 다시 만들어 주시는 샘플 코드들이 기대되고 ... !!!
- 박해선님이 참여했다면 ... 혹시 동영상 강의도 기대를 ?! ?!

표지를 보곤 출간한지 좀 오래된 책인 것 같은 느낌이 들었지만,
원서 "Build a Large Language Model (From Scratch)"를 살펴보니 24년 10월 29일에 출간되었다.
음... 그냥 교과서 같은 느낌의 표지 디자인이라고 생각해야겠다! ㅋㅋ

개인적으로 열렬한 팬심을 갖고 있는 박해선님의 책이라 무조건 믿음 이다 !!! ^^
저자인 '세바스찬 라시카'의 그동안의 저서들과 이번 책을 봤을 때 교과서 스타일을 좋아하는 것으로 보이기에
박해선님의 스타일과 너무 잘 맞는, 말 그대로 찰떡궁합인 것 같다.

원서가 출간된지 거의 1년만에 번역본이 출간된 것이다보니 AI 시대에 있어서 1년이라는 시간이 살짝 걱정되지만
최근 LLM의 근간이 되는 그 뿌리에 대한 내용이기도 하고,
코드에 있어서의 문제는 박해선님이 충분히 그 간극을 매꿔주시고 부족한 것은 보충해주셨을 것이라 문제 없을 것이다.

LLM 관련 샘플 코드들의 경우 라이브러리 버전 맞추기라던지, GPU 리소스의 문제가 있기 때문에
종종 Colab에서만 실행 가능하거나, 실습 환경 구축하는 것에 많은 제약이 있기도 하는데
친절하게도 일반적인 환경에서도 실습 가능하도록 세심히 배려해주셨다.
소스코드는 아래 링크와 같이 박해선님의 저장소에서 찾아볼 수 있다.
- https://github.com/rickiepark/llm-from-scratch

이 책은 표지뿐만 아니라 챕터 구성이나 그 내용, 심지어 목차의 타이틀만 봐도 "교과서"의 냄새가 많이 난다.
나쁜 의미가 아니라 LLM에 대해서 공부하는 사람에게는 너무나 좋은 너무나 충실한 책이라는 의미이다.

개인적으로 풀컬러 책을 좋아하기에 조금 아쉽기는 하지만,
그래도 흑백으로만 하지는 않고, 주황색으로 포인트를 주었다.

이 책은 부록이 살짝 숨어있다.
책의 뒷 부분을 보면 "워크북"이 분리가 된다.

그렇다 !!! 이 책은 정말 교과서 였던 것이다 !!!
책을 잘 공부했는지 연습문제도 제공을 해준다 !!!
음... 문제의 퀄리티가 엄청 고급스럽지는 않은 것 같은데,
그래도 제대로 공부했는지 확인하는 용도로는 충분히 괜찮은 것 같다.

혹시나, 하고 찾아봤는데
역시나 박해선님은 나의 기대를 져버리지 않고 동영상 강의를 제공해주셨다.
- https://www.youtube.com/playlist?list=PLJN246lAkhQhgakhcxz-5GwG_NYuJgSv1

교과서 책이라서 그러신 것인지, 별도 강의도 운영을 하신다. (이것은 물론 유료 강의이다 ^^)
- http://www.inflearn.com/course/lt밑바닥부터-만들면서-배우는-llm-1

아! 그리고, 현재 이 책의 경우 아직 초판이기에 정오표 확인이 정말 중요하다.
- https://tensorflow.blog/llm-from-scratch/

오타도 물론 있지만, 소스코드 부분에 있어서 생각보다 많은 부분의 정오표가 기록되어 있다.
공부할 때 빼놓지 말고 필독 !!!

이 책을 보면 설명도 정말 잘 되어있고 그림으로 설명하는 부분도 정말 세심하게 많이 신경써서 표현된 것을 알 수 있다.
하지만, 조금 아쉬운 점은 지나친 한글화 작업이다.
뭔가 의도하신 바가 있으셔서 그렇게 하셨을 것이라 생각은 하지만,
공부하는 입장에서 지나친 한글화는 오히려 더 햇갈리거나 나중에 더 어려움을 느끼게 된다.
예를 들어, "layer normalization" 같은 경우 "층 정규화"라고 사용하는 것이 크게 어색하지는 않은데
"causal attention" 같은 경우 "코잘 어텐션"이라고 한글로 사용을 하게 되면 상당히 많이 어색하다.
구글에서 "코잘 어텐션"이라고 검색해도 잘 나오지도 않는다.
오히려 "인과적 어텐션"이라고 검색하는 것이 더 많은 결과가 나온다.
아직 대중화(?)되지 않은 용어의 경우에는 그냥 본래 단어(영어)로 표현하는 것이 더 좋지 않을까 생각해본다.
(하지만, 미천한 내가 알지 못하는 이유가 있을 거라는 생각은 한다. 셀프 어텐션과 뭔가 pair가 되어야 한다거나 하는...)
마지막으로 이 책에 대해서 총편을 해보자면,
LLM을 공부하고자 하는 사람이라면 교과서로 생각하고 무조건 구매해서 꼼꼼하게 공부해야 하는 책이다 !!!
'Books' 카테고리의 다른 글
| [한빛미디어] 바이브 코딩 너머 개발자 생존법 (0) | 2025.11.23 |
|---|---|
| [한빛미디어] 할루시네이션을 줄여주는 프롬프트 엔지니어링 (0) | 2025.10.28 |
| [한빛미디어] 정지훈의 양자 컴퓨터 강의 (2) | 2025.09.28 |
| [한빛미디어] 코드 너머, 회사보다 오래 남을 개발자 (8) | 2025.08.31 |
| 혼공학습단 14기 회고록 (0) | 2025.08.18 |
