MCP에 대해서 개괄적인 부분을 알고 싶으면 지난 포스팅을 참고하세요.

- MCP (Model Context Protocol) Overview

 

이번 포스팅에서는 MCP라는 것을 어떻게 사용하는지 살짝 체험 해보고자 한다.

 

 

VSCode(Visual Studio Code)에 GitHub Copilot까지는 등록된 환경에서 시작하겠다.

 

오른쪽 채팅창을 잘 살펴보면 3가지 모드를 선택할 수 있는 것을 알 수 있다.

 

Ask / Edit / Agent 3가지 모드가 있는데, 지금 우리가 관심있는 것은 Agent 모드이다.

 

사실 Edit 모드와 Agent 모드는 비슷 인터페이스를 보인다.

하지만, 왼쪽 밑을 보면 살짝 차이가 있는 부분을 발견할 수 있다.

 

Agent 모드에 대한 자세한 설명은 Visual Studio Code의 문서를 참고하면 된다. (GitHub Copilot 설명을?)

- https://code.visualstudio.com/docs/copilot/chat/chat-agent-mode

 

Agent 모드에서도 Edit 모드와 거의 동일하게 동작한다.

 

Agent 모드이기 때문에 채팅창을 벗어나 터미널 명령어들을 사용할 수도 있다.

 

채팅창에서만 동작한 것이 아니라 실제로 'Copilot' 터미널이 열리면서 스스로 동작을 한 것이다.

 

하지만, GitHub 관련한 동작을 시키면 못한다. (당연한 이야기!?)

 

GitHub 관련된 일도 시킬 수 있으면 좋을텐데....

 

이럴 때 필요한 것이 MCP Server 이다 !!!

 

GitHub에서 공식으로 공개한 GitHub MCP Server를 찾아보자.

https://github.com/github/github-mcp-server

 

사전에 준비해야할 사항들이 보인다.

 

Docker를 사용할 수 있는 환경이어야 하는데, 이미 설치되어 있다 ^^

 

GitHub Personal Access Token도 있어야 한다니,

GitHub에 접속해서 내 token을 미리 생성하고 복사해 두자.

 

이제 GitHub MCP Server를 설치하면 되는데,

GitHub 페이지에서 보이는 Badge를 클릭하면 바로 설치가 되기는 하지만... 직접 설치해보자.

 

설치 방법을 잘 살펴보자.

https://github.com/github/github-mcp-server?tab=readme-ov-file#installation

 

VSCode에서 "Ctrl + Shift + P" 단축키를 눌러서 나오는 화면에서

"Preferences: Open User Settings (JSON)"를 선택하자.

 

편집탭에 "settings.json" 파일이 열려있을텐데,

GitHub Installation 부분에 나와있는 json 내역을 추가해주면 된다. (기존 내용이 있으면 그 안에 덧붙이기)

 

그리고 저장을 하면 Copilot 채팅창의 왼쪽 밑에 뭔가 변화가 보일 것이다.

 

그리고 Personal Access Token 값을 넣으라는 창이 나타날 것이다.

 

미리 복사해둔 내용을 붙여넣기 하고 엔터를 치면 된다.

그러면, 도구 정보를 잘 읽어온 것을 볼 수 있을 것이다.

 

무려 30개의 도구를 읽어온 것이 보일텐데, 어떤 도구들이 있는지 궁금하면 클릭해보면 된다.

 

그러면 이제 GitHub MCP Server를 활용하는 사례를 진행해보자.

 

github.com의 내 정보를 알려달라고 했더니, "get_me"라는 도구를 찾아서 사용해도 되는지를 묻는다.

 

이슈 정보를 불러오게 할 수도 있다.

 

MCP Server는 어디에 있는 것일까?

 

내 local pc에 docker가 하나 돌고 있는 것을 확인할 수 있다.

뭔가 기분 나쁨?!

 

나중에 이거 뒤처리 내가 해야할 것 같은데!?

반응형

최근 너무나 핫한 MCP에 대해서 알아보자.

 

구글 트렌드를 보면 알겠지만, 인기가 아주 급성장을 했다.

그것도 엄청 짧은 시간에 확~

 

MCP는 2024년 11월 26일에 ANTHROPIC에서 첫 발표를 했다.

- https://www.anthropic.com/news/model-context-protocol

 

CURSOR.AI에서 지원을 하기로 하면서 인기를 얻다가

Sam Altman이 2025년 3월 27일 X.com에서

MCP 지원을 한다는 메시지를 남긴 이후 정말 급격히 각광을 받기 시작했다.

 

 

Model Context Protocol(MCP)는

AI Agent가 외부의 여러 도구나 데이터들을 연결하기 위한 표준 프로토콜이다.

https://norahsakal.com/blog/mcp-vs-api-model-context-protocol-explained/

 

여러 H/W들을 지원하기 위한 HAL(Hardware Abastract Layer)과 같은 역할이라고 보면 된다.

아니면, 위의 그림처럼 USB-C 표준 프로토콜 처럼 생각하면 된다.

 

 

MCP의 아키텍처는는 아래와 같다.

https://modelcontextprotocol.io/introduction#general-architecture

 

중요한 개념은 볼드로 강조했다.

 

 MCP Hosts

    : Programs like Claude Desktop, IDEs, or AI tools that want to access data through MCP


 MCP Clients

    : Protocol clients that maintain 1:1 connections with servers


 MCP Servers

    : Lightweight programs that each expose specific capabilities through the standardized Model Context Protocol


 Local Data Sources

    : Your computer’s files, databases, and services that MCP servers can securely access


 Remote Services

    : External systems available over the internet (e.g., through APIs) that MCP servers can connect to

 

 

그래서, 결국 정리하자면 다음과 같은 문장으로 MCP를 설명할 수 있다.

 

" Host가 시키면, Client는 전달하고, Server는 수행한다.

 

 

MCP는 태어난지도 얼마 되지 않았고,

그렇기 때문에 아직 기술적 성숙도가 충분히 올라와 있지 않다.

 

그리고, 24년 11월 26일 최초 발표 이후, 25년 03월 26일에 업데이트가 이루어졌다.

아직 업데이트 된지가 얼마되지 않아 관련된 사항을 확인하기도 쉽지는 않다.

 

구글링된 결과들을 참고해도 좋긴 하지만, 공식 문서부터 확인하는 것을 강추 한다.

https://modelcontextprotocol.io/

 

샘플 코드 같은 공식적인 자료들도 아래 GitHub에서 확인을 하면 좋다.

- https://github.com/modelcontextprotocol

 

 

MCP Server들을 모아놓은 Marketplace는 아래 사이트들을 참조하면 좋다.

https://mcp.so/

 

- https://smithery.ai/

 

- https://mcpservers.org/

 

다음 포스팅에서는 간단한 활용법을 알아보도록 하겠다.

반응형

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

 

그렇지 않아도 최근에 LLM과 연관된 스터디를 하고 있던 중에 만나게 된 반가운 책

"NLP와 LLM 실전가이드"

 

 

원서의 제목은 "Mastering NLP from Foundations to LLMs"인데,

한글로 번역하자면... '기초부터 LLM까지, 자연어 처리 완전 정복!' 정도로 될 것 같다 ^^

 

여기서 또 하나 주목해야할 이름이 보인다. "박조은"

데이터분석, Kaggle, Python 같은 것들을 공부하신 분들이라면 한 번쯤은 들어보셨을 이름 ^^

그래서인지 아래와 같이 동영상 강의도 유튜브로 계속 올려주고 계신다. 와우~

 

 

그리고, 실습을 위한 노트북 파일도 새롭게 손봐서 따로 올려주셨다.

- https://github.com/corazzon/Mastering-NLP-from-Foundations-to-LLMs

 

 

원래 제공하는 실습 파일과 비교해보는 것도 재미(?)가 있을 수 있다.

 

 

위에서 볼 수 있는 원서의 표지 그림을 보면 알겠지만

이 책의 본질은 NLP(자연어 처리) 책이다.

그 기반이 되는 수학적인 요소들을 포함해 LLM까지 언급하고 있는 것이다.

 

 

책에서는 "대상 독자"를 아래와 같이 말하고 있다.

 

 

내가 생각했을 때에는 "NLP(자연어 처리)와 관련된 전체적인 내용을 훑어보고 싶은 사람"이라고 말해야 하지 않나 싶다.

 

이 책의 목차는 다음과 같다.

 

CHAPTER   1   자연어 처리 개요 살펴보기
CHAPTER   2   머신러닝과 자연어 처리를 위한 선형대수, 확률, 통계 마스터하기
CHAPTER   3   자연어 처리에서 머신러닝 잠재력 발휘하기
CHAPTER   4   자연어 처리 성능을 위한 텍스트 전처리 과정 최적화
CHAPTER   5   텍스트 분류 강화: 전통적인 머신러닝 기법 활용하기
CHAPTER   6   텍스트 분류의 재해석: 딥러닝 언어 모델 깊게 탐구하기
CHAPTER   7   대규모 언어 모델 이해하기
CHAPTER   8   대규모 언어 모델의 잠재력을 끌어내는 RAG 활용 방법
CHAPTER   9   대규모 언어 모델이 주도하는 고급 응용 프로그램 및 혁신의 최전선
CHAPTER 10   대규모 언어 모델과 인공지능이 주도하는 과거, 현재, 미래 트렌드 분석
CHAPTER 11   세계적 전문가들이 바라본 산업의 현재와 미래

 

전체 목차와 함께 이 책의 쪽수 424쪽인 것을 보면 알겠지만

"기초 수학부터 실전 AI 문제 해결까지" 살펴볼 수 있는 책인 것은 맞지만

깊이 있게까지 살펴보려면 다른 자료들을 더 많이 찾아봐야할 것이다.

 

기초 수학부터 언급한다고 하여 좋아할 사람도 있고, 싫어할 사람도 있을텐데....

그냥 말 그대로 한 번 쭉 훑어보고 지나가는 수준의 수학이기 때문에

너무 큰 기대도 너무 큰 걱정도 할 필요는 없을 것 같다.


이 책은 원서 제목 그대로가 딱 적당한 제목인 것 같다.

 

"Mastering NLP from Foundations to LLMs"

(기초부터 LLM까지, 자연어 처리 완전 정복!)

반응형

Windows 환경에서 NVIDIA 그래픽카드의 드라이버 및

AI 공부를 위한 CUDA, cuDNN을 설치하는 과정을 알아보고자 한다.

 

① 그래픽 카드 확인

GPU-Z 유틸리티를 활용해 내가 갖고 있는 그래픽카드를 확인해보자.

- https://www.whatwant.com/entry/GPU-Z

 

 

② 드라이버 설치

확인한 정보를 바탕으로 나에게 적합한 드라이버를 선택해서 설치해보자.

https://www.nvidia.com/ko-kr/drivers/

 

 

다운로드 받아서 잘 설치 진행하면 된다.

 

 

 

③ PyTorch 확인

CUDA 등이 필요한 이유는 AI 관련된 뭔가를 실습해보기 위해서일테고,

그 중 가장 대표적인 라이브러리가 바로 PyTorch 일 것이다.

 

설치하고자 하는 PyTorch에 맞춰서 CUDA 버전을 확인해보자.

https://pytorch.org/

 

 

CUDA 12.6 버전을 선택했다면,

CUDA 버전에 맞춰 PyTorch를 설치하도록 해야 한다.

 

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

 

 

 

④ CUDA 버전 확인

그런데, 내가 가지고 있는 그래픽카드에서 CUDA 12.6 버전을 지원할까?

 

일단, 그래픽카드 종류에 따라 호환되는 버전을 확인해보자.

https://developer.nvidia.com/cuda-gpus

 

 

어?! 내 그래픽카드는 안보인다! 😅

위키피디아에서 확인해보자.

https://en.wikipedia.org/wiki/CUDA

 

 

7.5 버전이 호환되네!?

그러면, CUDA 버전은 어디까지 쓸 수 있을까?

https://en.wikipedia.org/wiki/CUDA

 

 

오! 다행히 최신 버전까지 모두 호환된다 !!!

CUDA 12.6 사용하는데, 아무런 문제가 없다.

 

 

⑤ CUDA 설치

원하는 버전을 골라서 다운로드 받아 설치하면 된다.

https://developer.nvidia.com/cuda-toolkit-archive

 

 

각자 환경에 맞춰서 잘 선택해서 다운로드 받으면 된다.

 

 

예전에는 직접 설정을 했어야 했던 것 같은데, 지금은 환경 변수에 알아서 잘 셋팅 되는 것 같다.

 

 

CUDA_PATH 부분을 살펴보면 된다.

 

 

 

⑥ cuDNN 설치

설치한 CUDA 버전을 기준으로 cuDNN 버전을 골라서 설치하면 된다.

https://developer.nvidia.com/rdp/cudnn-archive

 

NVIDIA Developer 사이트에 가입이 필요하다. 딱히 손해볼 것 없으니 가입 후 진행하면 된다.

 

 

다운로드 받으면 zip 압축 파일이 보일 것이고,

일단 압축을 풀어주면 된다.

 

 

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6

경로 밑에 저 압축을 풀어서 나온 bin, include, lib 디렉토리들을 그냥 덮어 쓰기로 복사해서 넣어주면 된다.

 

 

기존에 이미 경로가 있을텐데, 동일 이름의 디렉토리에 파일들을 추가하는 개념이다.

 

 

⑦ 테스트

잘 설치가 되었는지 확인을 해보자.

 

먼저, Python 환경이 필요하니 Python 설치부터 진행해야 한다.

- https://www.whatwant.com/entry/Python-397-Windows-10

 

좀 더 편한 개발환경을 위해 VSCode를 설치해보자.

- https://code.visualstudio.com/

 

CUDA 테스트를 위한 가상 환경을 만들어서 진행해보자.

 

> python -m venv .venv

> .venv/Scripts\activate.bat

 

PyTorch 라이브러리 설치는 다음과 같이 하면 된다.

 

> pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

 

VSCode 터미널에서 실행해본 결과는 아래와 같다.

 

 

설치 중간에 WSL 관련해서 아래와 같은 메시지가 나올 수도 있다.

 

 

설치가 잘 되었으면

아래와 같이 import torch 해서 아래와 같이 동작을 확인해볼 수 있다.

 

 

그리고 당연히 드라이버 등이 잘 설치되었기에 nvidia-smi 실행 결과도 볼 수 있다.

 

 

이제 뭔가 환경이 준비 되었다!!!

 

반응형

AI Model 관련하여 공부/실습을 하기 위해서는 GPU 환경이 필요하다.

그리고, 주로 Linux 기반의 환경을 선호한다.

 

문제는 쓸만한 그래픽 카드가 달려있는 PC가

게임 등을 위해서 주로 Windows 환경이라는 것이다.

 

개인적으로 개발환경으로서 Windows는 선호하지 않지만

GPU가 필요한 개발환경이 필요하기에

어쩔 수 없이 Windows 환경을 꾸며야하는 상황이 생긴 것이다.

 

일단 내가 갖고 있는 그래픽 카드 정보를 확인하는 것이 필요한데,

이를 간단하게 살펴볼 수 있는 도구가 있다.

- https://www.techpowerup.com/download/techpowerup-gpu-z/

 

 

CPU 정보를 알려주는 CPU-Z 처럼

GPU 정보를 알려주는 GPU-Z 유틸리티가 있는 것이다.

 

설치 후 실행해보면...

내가 갖고 있는 미천한 그래픽 카드의 정보는 다음과 같다.

 

 

간단하게 포스팅 완료~

반응형

셀레나님의 스터디 가이드 일정표에 다음과 같이 되어있다.

  - 8주차: 부족한 부분 복습 또는 배운 내용을 활용해 새로운 캐글 데이터셋 분석

 

제일 어려운 "자율학습" ... 😅

 

 

0. Kaggle Dataset

그래서 찾아본 캐글 데이터는 다음과 같다.

  - https://www.kaggle.com/datasets/undefinenull/million-song-dataset-spotify-lastfm

 

 

너무 흔한 데이터셋 말고 새로운 것으로 해서 결측치 등을 포함한 데이터셋 찾는 것도

막상 찾아보려고 하니 쉽지 않았다 ^^

 

위에 찾은 것은 "음악 추천 시스템 데이터셋"으로

사용자와 음악 트랙 간의 상호작용 데이터를 활용하여 개인화된 음악 추천 시스템을 구축할 수 있는 데이터셋이라고 한다.

 

 

1. 데이터 다운로드

kaggle 데이터 다운로드 받는 것도 해보자.

 

 

 

2. 데이터프레임

다운로드 받은 데이터셋을 가볍게 살펴보자.

 

 

데이터의 실제 모습을 살펴보려 했는데, 컬럼이 많아서 한 눈에 잘 보이지는 않는다 😅

 

 

 

3. 결측치 처리

info() 정보에서 보이는 것처럼 2개 column에만 결측치가 있는 것으로 보이는데,

직접 한 번 확인해보자.

 

 

데이터들이 어떤 모습인지 한 번 살펴보자.

 

 

genre의 경우 50%가 훨씬 넘는 비율을 갖기에 해당 column을 삭제하면 좋겠는데,

정말 삭제해도 되는지를 고민해봐야 하는데...

잘 모르는 상황에서도 가만히 보면 tags를 가지고 genre를 대체할 수 있을 것으로 보인다.

 

반면, tags의 경우에는 2.22% 비율의 결측치만 있으므로, 해당 row에 대해서 drop을 하는 것으로 하자.

 

 

맞겠지만 그래도 혹시 모르니 확인을 해보자.

 

 

4. 컬럼 분리

tags 부분을 보면 여러 데이터가 ", "으로 묶여서 표현되어 있는 것을 볼 수 있다.

이것을 One-Hot-Encoding 방식처럼 분리를 해보자.

 

 

좀 더 분석해보고 했어야 했는데, 그냥 해보다보니 tags 의 개별 아이템 개수가 엄청 많았다.

덕분에(?) 전체 column의 개수가 120개가 되었다.

 

 

5. 통계

도메인 지식이 미천하다보니.... 😥

음악 분류에 따라 뭔가 수치들이 달리 나오지 않을까 추정해본다.

 

 

 

6. 그래프

뭔가 다양하게 분석을 해봐야할 것 같은데,

일단 생각나는대로 하나 집어서 그래프를 그려봤다.

 

 

원하는 그래프는 아니지만, 그래도 ...

 

 

 

음... ChatGPT한테 일을 많이 시켜봐야겠다.

반응형

드디어 마지막 챕터까지 왔다.

힘들었지만, 그래도 주말마다 꼬박 꼬박 해냈다.

 

07장 의료 데이터 분석 프로젝트

 

 

앞서 했던 "넷플릭스 데이터 분석 프로젝트"와 유사한 방식으로 진행하면 될 것 같다.

 

① 의료 데이터 분석 프로젝트 소개

② 의료 데이터셋 파악하기

③ 심부전 데이터셋 필터링하기

④ 심부전 데이터셋 결측치 처리하기

⑤ 심부전 데이터셋 통계 처리하기

⑥ 심부전 데이터셋 시각화하기

 

 

① 의료 데이터 분석 프로젝트 소개

앞서 진행한 넷플릭스 데이터 분석과 대부분 유사하게 진행되고

차이가 있다면 "logical indexing" 부분에 조금 더 중심을 두고 진행하는 것이라고 한다.

 

 

② 의료 데이터셋 파악하기

교재에서는 자세한 설명이 없었지만, 찾아보니 아래 데이터인 것 같다.

- https://www.kaggle.com/datasets/fedesoriano/heart-failure-prediction

 

 

직접 다운로드 받아보자.

 

 

다운로드 받은 CSV 파일을 데이터프레임으로 읽어오자.

 

 

샘플 데이터를 살펴보자.

 

 

각 columns 의미는 다음과 같다.

 

 

그런데, 교재의 데이터와는 좀 차이가 있는 것 같다.

교재에서 제공하는 데이터를 보면 일부 column에서 결측치 값이 보이는데,

Kaggle에서 내려받은 데이터에서는 결측치 값이 안보인다.

 

아쉽지만, 교재에서 제공받은 파일을 업로드해서 사용해야겠다.

 

 

 

③ 심부전 데이터셋 필터링하기

심장병 여부를 나타내는 'HeartDisease' 컬럼 데이터를 살펴보자.

 

 

결측치 값도 보이고, 0.0/1.0 데이터도 보인다.

값이 '1.0'인 데이터를 True (심장병 맞음) 로 판단하면 된다.

간단히 실습해보자.

 

 

 

④ 심부전 데이터셋 결측치 처리하기

결측치 값들이 얼마나 되는지 살펴보자.

 

 

그다지 큰 비율은 아니지만, 그래도 처리를 해줘야 한다.

책의 저자와는 다른 개인적인 취향으로 별도의 데이터프레임을 만들어서 작업을 진행했다.

 

 

앞서 해봤던 넷플릭스 데이터 분석과 거의 유사한 과정이다.

이렇게 진행한 결과는 다음과 같다.

 

 

 

⑤ 심부전 데이터셋 통계 처리하기

데이터프레임에서는 여러 통계량을 손쉽게 구할 수 있도록 다양한 함수를 제공해준다.

 

 

groupby()를 이용해서 그룹별 통계값들을 구할 수도 있다.

 

 

 

⑥ 심부전 데이터셋 시각화하기

여기에서 사용할 팔레트를 설정해보자.

 

 

흉통 유형을 카테고리화 한 다음 개수를 세고, 이를 파이 차트로 표현해보자.

 

 

심부전 빈도 그래프를 그려보자.

심부전증이 있을 때와 없을 때 ASY(무증상)가 압도적인지 살펴보기 바란다.

 

 

 

나이에 따른 HeartDisease 데이터를 한 번 살펴보자

 

 

이렇게 구한 값을 가지고 나이에 따른 심부전 여부를 살펴볼 수 있는 그래프를 그려보자.

 

 

 

심부전 범주형 산점도 그래프를 그려보자.

 

 

 

워드 클라우드도 하나 만들어보자.

 

 

예쁘게 하트 모양으로 그려졌다.

 

 

여기까지 해서 책을 한 번 살펴봤다.

추후 한 번 다시 복습하면서 곱씹어봐야겠다 ^^

반응형

"한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 협찬 받아 작성된 서평입니다."

 

 

AI 관련해서 공부를 한다면 최소한 한 번 이상 마주쳤을 가능성이 농후한,

갖고 있지 않더라도 책 표지를 보면 "아하! 그 책!" 이라고 외칠 그 유명한 책의 "리마스터판"이 나왔다.

벌써 8주년 이라는 것이 더 놀랍다 !!!

 

 

꼼꼼한 책을 보면서 혹시나 했는데, 역시나 일본 특유의 꼼꼼함을 보여주는 "사이토 고키"라는 분의 저서이다.

아쉽게도 어느 회사에서 연구하고 계시는지 등의 추가적인 정보는 찾을 수 없었다.

 

 

오옷! "개앞맵시" !!! 어디서 많이 들어본 닉네임을 갖고 계신 옮긴이.

'구글 엔지니어는 이렇게 일한다'라는 책의 번역도 맡으셔서 익숙한가!?

삼성전자 VD 사업부에서도 근무를 하셨었구나...

인사이트, 골든래빗 등의 출판사를 거쳐 지금은 한빛미디어에서 근무를 하고 계신 것으로 보인다 ^^

 

 

근래 봤던 책 중에서 중학교 2학년생의 리뷰를 책에 담아준 것은 처음 본 것 같다 !!!

김경수 학생도 대단하고, 한빛미디어도 대단하다는 생각을 해본다.

 

 

"밑바닥부터 시작하는 딥러닝 (Deep Learning from Scratch)"은 시리즈로 구성되어

현재 5권까지 출간되었고 6권도 출간 예정이라고 한다.

 

6권이 출간되기에 앞서 1권의 리마스터판이 이번에 다시 출간된 것이다.

 

 

순서에 상관없이 취사선택(?)하여 볼 수 있다지만

책의 챕터 구성을 보면 1권부터 보는 것이 맞을 것 같다.

 

CHAPTER 1     헬로 파이썬
CHAPTER 2     퍼셉트론
CHAPTER 3     신경망
CHAPTER 4     신경망 학습
CHAPTER 5     오차역전파법
CHAPTER 6     학습 관련 기술들
CHAPTER 7     합성곱 신경망(CNN)
CHAPTER 8     딥러닝

 

이 책은 딥러닝을 이해하는 데 필요한 지식을 기초부터 하나하나 차례로 설명해 준다고 한다.

 

정말 그렇다!

심지어 파이썬까지도 챕터를 하나 할당해서 알려주고 있다!!! 와우~!!

 

이 책이 특히 매력적인 것은 특정 라이브러리 사용을 최소화하고,

파이썬 코어 중심으로 실습 코드를 사용하고 있어서 내부적인 구현 사항에 대해 잘 살펴볼 수가 있다.

 

특히 이번 리마스터링을 통해 공부하기에 더더욱 좋아졌다.

 

 

그동안 이 책이 좋다는 것은 알았지만 출간된지 너무 오래되어 아쉬움이 있던 분들은

지금 바로 딥러닝에 대해서 진지하게 공부할 수 있도록 업데이트된 따끈따끈한 책이 등장했으니 지금 당장 구매를 !!!

 

반응형

+ Recent posts