서브메뉴
검색
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝
Detailed Information
- 자료유형
- 단행본
- ISBN
- 9791165923150 93000
- DDC
- 006.35006.31-23
- 청구기호
- 006.35 박54ㅎ
- 저자명
- 박성환
- 서명/저자
- (자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 / 박성환 ; 남승우 [공]지음
- 원서명
- [표제관련정보] 코드와 결과물로 이해하는 언어 모델과 트랜스포머
- 발행사항
- 서울 : 비제이퍼블릭, 2025
- 형태사항
- x, 303 p : 삽화 ; 25 cm
- 기타저자
- 남승우
- 가격
- \27500
- Control Number
- gtec:424973
- 책소개
-
2025 세종도서 학술부문 선정
자연어 처리의 기본부터
허깅페이스 모델 경량화, 정렬 조정, 강화 학습까지
챗GPT와 같은 대화형 인공지능 챗봇과 다수의 오픈소스 생성형 언어 모델은 대규모 언어 모델(LLM)에 해당합니다. 허깅페이스는 각종 생성형 인공지능을 위한 모델과 데이터셋을 개발자들이 자유롭게 공유하고 쉽게 활용할 수 있도록 API 및 도구를 제공하는데, 『자연어 처리를 위한 허깅페이스 트랜스포머 하드 트레이닝』에서는 다양한 생성형 인공지능 기술 중 자연어 처리를 위한 언어 모델에 집중합니다.
Transformers 라이브러리를 기준으로 토크나이저 및 모델 준비, 한국어 자연어 이해 평가(KLUE) 데이터셋 전처리, 학습 파라미터 선정 및 학습 진행과 성능 평가를 실습해봅니다. 이후 사전학습 단계부터 직접 진행해야 하는 경우를 대비하여 Tokenizers 라이브러리에 대해 살펴보고 정확도, f1 스코어, 정밀도, 재현율을 기준으로 모델을 평가하는 Evaluate 라이브러리에 대해서 알아봅니다. PEFT, 양자화, QLoRA 미세조정과 같이 모델의 메모리 사용량은 줄이고 추론 속도는 높이는 경량화 기법에 대해 코드와 결과물로 꼼꼼하게 확인해본 후 RLHF, SFT, PPO, Best-of-N 샘플링 등 정렬 조정에 해당하는 다양한 방법론과 이를 강화학습을 위한 트랜스포머(TRL)를 통해 활용하는 방식까지 차근차근 학습합니다.
MARC
008250523s2025 ulka 001a kor■020 ▼a9791165923150▼g93000
■040 ▼agtec
■082 ▼a006.35▼a006.31▼223
■090 ▼a006.35▼b박54ㅎ
■1001 ▼a박성환
■24520▼a(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝▼d박성환 ▼e남승우 [공]지음
■2461 ▼i표제관련정보▼a코드와 결과물로 이해하는 언어 모델과 트랜스포머
■260 ▼a서울▼b비제이퍼블릭▼c2025
■300 ▼ax, 303 p ▼b삽화▼c25 cm
■7001 ▼a남승우
■9500 ▼b\27500
Preview
Export
ChatGPT Discussion
AI Recommended Related Books
Buch Status
- Reservierung
- Book Loan Request Service
- Meine Mappe
![(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 / 박성환 ; 남승우 [공]지음](https://shopping-phinf.pstatic.net/main_5225496/52254969625.20250105072413.jpg)

