본문

서브메뉴

(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 / 박성환  ; 남승우 [공]지음
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝

상세정보

자료유형  
 단행본
ISBN  
9791165923150 93000
DDC  
006.35006.31-23
청구기호  
006.35 박54ㅎ
저자명  
박성환
서명/저자  
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 / 박성환 ; 남승우 [공]지음
원서명  
[표제관련정보] 코드와 결과물로 이해하는 언어 모델과 트랜스포머
발행사항  
서울 : 비제이퍼블릭, 2025
형태사항  
x, 303 p : 삽화 ; 25 cm
기타저자  
남승우
가격  
\27500
Control Number  
gtec:424973
책소개  
2025 세종도서 학술부문 선정

자연어 처리의 기본부터
허깅페이스 모델 경량화, 정렬 조정, 강화 학습까지

챗GPT와 같은 대화형 인공지능 챗봇과 다수의 오픈소스 생성형 언어 모델은 대규모 언어 모델(LLM)에 해당합니다. 허깅페이스는 각종 생성형 인공지능을 위한 모델과 데이터셋을 개발자들이 자유롭게 공유하고 쉽게 활용할 수 있도록 API 및 도구를 제공하는데, 『자연어 처리를 위한 허깅페이스 트랜스포머 하드 트레이닝』에서는 다양한 생성형 인공지능 기술 중 자연어 처리를 위한 언어 모델에 집중합니다.

Transformers 라이브러리를 기준으로 토크나이저 및 모델 준비, 한국어 자연어 이해 평가(KLUE) 데이터셋 전처리, 학습 파라미터 선정 및 학습 진행과 성능 평가를 실습해봅니다. 이후 사전학습 단계부터 직접 진행해야 하는 경우를 대비하여 Tokenizers 라이브러리에 대해 살펴보고 정확도, f1 스코어, 정밀도, 재현율을 기준으로 모델을 평가하는 Evaluate 라이브러리에 대해서 알아봅니다. PEFT, 양자화, QLoRA 미세조정과 같이 모델의 메모리 사용량은 줄이고 추론 속도는 높이는 경량화 기법에 대해 코드와 결과물로 꼼꼼하게 확인해본 후 RLHF, SFT, PPO, Best-of-N 샘플링 등 정렬 조정에 해당하는 다양한 방법론과 이를 강화학습을 위한 트랜스포머(TRL)를 통해 활용하는 방식까지 차근차근 학습합니다.

MARC

 008250523s2025        ulka                    001a    kor
■020    ▼a9791165923150▼g93000
■040    ▼agtec
■082    ▼a006.35▼a006.31▼223
■090    ▼a006.35▼b박54ㅎ
■1001  ▼a박성환
■24520▼a(자연어  처리를  위한)  허깅페이스  트랜스포머  하드  트레이닝▼d박성환  ▼e남승우  [공]지음
■2461  ▼i표제관련정보▼a코드와  결과물로  이해하는  언어  모델과  트랜스포머
■260    ▼a서울▼b비제이퍼블릭▼c2025
■300    ▼ax,  303  p  ▼b삽화▼c25  cm
■7001  ▼a남승우
■9500  ▼b\27500

미리보기

내보내기

chatGPT토론

Ai 추천 관련 도서


    신착도서 더보기
    관련도서 더보기
    최근 3년간 통계입니다.
    추천하기

    소장정보

    • 예약
    • 도서대출 신청서비스
    • 나의폴더
    소장자료
    등록번호 청구기호 소장처 대출가능여부 대출정보
    H074161 006.35 박54ㅎ 종합자료실 대출가능 대출가능
    대출신청 마이폴더

    * 대출중인 자료에 한하여 예약이 가능합니다. 예약을 원하시면 예약버튼을 클릭하십시오.

    해당 도서를 다른 이용자가 함께 대출한 도서

    관련도서

    관련 인기도서

    도서위치