서브메뉴
검색
한국어 임베딩 : 자연어 처리 모델의 성능을 높이는 핵심 비결 Word2Vec에서 ELMo, BERT까지
한국어 임베딩 : 자연어 처리 모델의 성능을 높이는 핵심 비결 Word2Vec에서 ELMo, BERT까지
상세정보
- 자료유형
- 단행본
- ISBN
- 9791161753508
- DDC
- 006.31-23
- 청구기호
- 006.31 이18ㅎ
- 저자명
- 이기창
- 서명/저자
- 한국어 임베딩 : 자연어 처리 모델의 성능을 높이는 핵심 비결 Word2Vec에서 ELMo, BERT까지 / 이기창 지음 ; Naver chatbot model 감수
- 발행사항
- 서울 : 에이콘, 2019
- 형태사항
- 347 p. : 천연색삽화 ; 24 cm.
- 총서명
- 에이콘 데이터 과학 시리즈
- 기타저자
- Naver chatbot model
- 가격
- \35000
- Control Number
- gtec:400510
- 책소개
-
자연어 처리 모델의 성능을 높이는 핵심 비결, 〈한국어 임베딩〉
임베딩(embedding)은 자연어를 숫자의 나열인 벡터로 바꾼 결과 혹은 그 일련의 과정 전체를 가리키는 용어다. 단어나 문장 각각을 벡터로 변환해 벡터 공간에 끼워 넣는다(embed)는 취지에서 임베딩이라는 이름이 붙었다. 컴퓨터가 자연어를 처리할 수 있게 하려면 자연어를 계산 가능한 형식인 임베딩으로 바꿔줘야 한다.
임베딩은 컴퓨터가 자연어를 이해하도록 하는 첫 관문으로 매우 중요한 기능을 한다. 자연어 처리 모델의 성능은 임베딩이 좌우한다고 해도 과언이 아니다. 이 책에서는 다양한 임베딩 기법을 일별하고 한국어 데이터 전처리, 임베딩 구축에 이르는 전 과정을 튜토리얼 방식으로 소개한다. Word2Vec 등 단어 수준 기법부터 ELMo, BERT 등 문장 수준 임베딩까지 다룬다.
MARC
008190919s2019 ulka b 001a kor■020 ▼a9791161753508
■082 ▼a006.31▼223
■090 ▼a006.31▼b이18ㅎ
■1001 ▼a이기창
■24510▼a한국어 임베딩▼b자연어 처리 모델의 성능을 높이는 핵심 비결 Word2Vec에서 ELMo, BERT까지▼d이기창 지음▼eNaver chatbot model 감수
■260 ▼a서울▼b에이콘▼c2019
■300 ▼a347 p.▼b천연색삽화▼c24 cm.
■44000▼a에이콘 데이터 과학 시리즈
■7001 ▼aNaver chatbot model
■9500 ▼b\35000


