로그인 메뉴

따끈따끈! 신착 전자책

더보기

콘텐츠 상세보기
파이썬으로 배우는 자연어 처리 인 액션


SMART
 

파이썬으로 배우는 자연어 처리 인 액션

홉슨 레인 | 제이펍

출간일
2020-03-04
파일형태
PDF
용량
80 M
지원 기기
PC 스마트폰태블릿PC
대출현황
보유1, 대출0, 예약중0
콘텐츠 소개
저자 소개
목차
한줄서평

콘텐츠 소개


파이썬과 다양한 AI 패키지로 만드는 수준 높은 예제!
최신 NLP 제품과 서비스 개발을 위한 실용주의적 안내서!

최근 심층 학습(딥러닝) 기술이 발전하면서 응용 프로그램들이 대단히 정확하게 텍스트와 음성을 인식하게 되었다. 또한, 새로운 기술과 Keras나 TensorFlow 같은 사용하기 쉬운 도구들 덕분에 이제는 고품질 NLP(자연어 처리) 응용 프로그램을 예전보다 쉽게 만들어낼 수 있다.

이 책은 사람의 언어를 읽고 해석할 수 있는 프로그램을 만들려는 모든 개발자를 위한 지침서다. 이 책에서는 바로 사용할 수 있는 파이썬 패키지들을 이용해서 텍스트의 의미를 포착하고 그에 따라 반응하는 챗봇을 구축한다. 또한, 전통적인 NLP 접근 방식들은 물론이고, 좀 더 최근의 심층 학습 알고리즘과 텍스트 생성 기법들을 동원해서 날짜와 이름 추출, 텍스트 작성, 비정형 질문에 대한 응답 같은 여러 실질적인 NLP 문제들을 해결한다.

저자소개


저자 : 홉슨 레인
저자 : 홉슨 레인
홉슨은 사람 대신 중요한 결정을 내리는 자율 시스템을 구축하는 분야에서 20년의 경험을 쌓았다. 그는 Keras, scikit-learn, PyBrain 같은 여러 오픈소스 프로젝트에 적극적으로 기여하며, 현재 Total Good에서 오픈소스 인지 조교(cognitive assistant) 구축을 비롯한 개방형 과학 연구 및 교육 프로젝트에 힘쓰고 있다. 또한, AIAA, PyCon, IEEE 등에 논문을 게재하거나
강연했으며, 로봇공학과 자동화에 관련된 여러 특허도 가지고 있다.

저자 : 하네스 막스 하프케
하네스는 전기 공학자가 기계 학습 공학자로 변신한 사례다. 대학교에서는 신경망 개념을 재생 가능 에너지 발전소를 효과적으로 제어하는 데 적용했다. 구인·구직, 보건 응용 프로그램을 위한 심층 학습 모형과 기계 학습 파이프라인을 개발하는 프로젝트에 참여했으며, OSCON, Open Source Bridge, Hack University 같은 여러 콘퍼런스에서 기계 학습을 주제로 강연했다.

저자 : 콜 하워드
콜은 기계 학습 공학자이자 NLP 실무자이자 작가다. 대규모 전자상거래 추천 엔진들과 고차원 기계 지능 시스템을 위한 최신 심층 학습 신경망들을 개발했으며, 그의 모형들은 Kaggle 공모전에서 상위에 랭크되었다. 또한, Open Source Bridge Conference와 Hack University에서 합성곱 신경망과 순환 신경망에 관해, 그리고 그런 신경망들이 자연어 처리에서 차지하는 역할에 관해 강연했다.

역자 : 류광
커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈를 포함하여 60여 종의 다양한 IT 전문서를 번역한 전문 번역가다. 인공지능 관련 번역서로는 《신경망과 심층 학습》(2019)과 《심층 학습》(2018), 《인공지능: 현대적 접근방식 제3판》(2016)이 있다. 번역과 프로그래밍 외에 소프트웨어 문서화에도 관심이 있으며, 수많은 오픈소스 프로젝트의 표준 문서 형식으로 쓰이는 DocBook의 국내 사용자 모임인 닥북 한국(http://docbook.kr)의 일원이다. 홈페이지 occam’s Razor(http://occamsrazr.net)와 게임 개발 사이트 GpgStudy(http://www.gpgstudy.com)를 운영하고 있다.


목차

PART I 말 많은 컴퓨터: NLP의 기초 1
CHAPTER 1 사고의 단위: NLP의 개요 3
1.1 자연어 대 프로그래밍 언어 4
1.2 마법 5
1.2.1 대화하는 기계 6
1.2.2 수학 7
1.3 실제 응용들 9
1.4 컴퓨터의 ‘눈’으로 본 언어 11
1.4.1 자물쇠 언어 12
1.4.2 정규 표현식 13
1.4.3 간단한 챗봇 14
1.4.4 또 다른 방법 19
1.5 짧은 초공간 탐험 23
1.6 단어의 순서와 문법 25
1.7 챗봇의 자연어 처리 파이프라인 27
1.8 더 깊은 처리 30
1.9 자연어 IQ 32
요약 35

CHAPTER 2 나만의 어휘 구축: 단어 토큰화 37
2.1 어려운 문제: 어간 추출의 개요 39
2.2 토큰 생성기를 이용한 어휘 구축 40
2.2.1 내적 50
2.2.2 두 단어 모음의 중복 측정 51
2.2.3 토큰 개선 52
2.2.4 n-그램을 이용한 어휘 확장 58
2.2.5 어휘 정규화 66
2.3 감정 분석 76
2.3.1 VADER-규칙 기반 감정 분석기 78
2.3.2 단순 베이즈 모형 80
요약 84

CHAPTER 3 말 잘하는 수학: TF-IDF 벡터 85
3.1 단어 모음 86
3.2 벡터화 92
3.2.1 벡터 공간 95
3.3 지프의 법칙 101
3.4 주제 모형화 104
3.4.1 돌아온 지프 108
3.4.2 관련성 순위 110
3.4.3 주요 도구: scikit-learn 112
3.4.4 여러 TF-IDF 정규화 방법 113
3.4.5 Okapi BM25 115
3.4.6 다음 단계 116
요약 116

CHAPTER 4 단어 빈도에서 의미 찾기: 의미 분석 117
4.1 단어 빈도에서 주제 점수로 119
4.1.1 TF-IDF 벡터와 표제어 추출 119
4.1.2 주제 벡터 120
4.1.3 사고 실험 122
4.1.4 주제 점수를 매기는 알고리즘 127
4.1.5 LDA 분류기 129
4.2 잠재 의미 분석(LSA) 134
4.2.1 사고 실험의 실현 137
4.3 특잇값 분해 140
4.3.1 왼쪽 특이 벡터 행렬 U 142
4.3.2 특잇값 행렬 S 143
4.3.3 오른쪽 특이 벡터 행렬 VT 145
4.3.4 SVD 행렬의 방향 145
4.3.5 주제 절단 146
4.4 주성분 분석(PCA) 148
4.4.1 3차원 벡터에 대한 PCA 150
4.4.2 말을 떠나 다시 NLP로 돌아가서 152
4.4.3 PCA를 이용한 문자 메시지 잠재 의미 분석 154
4.4.4 절단된 SVD를 이용한 문자 메시지 잠재 의미 분석 157
4.4.5 스팸 분류에 대한 LSA의 정확도 158
4.5 잠재 디리클레 할당(LDiA) 161
4.5.1 LDiA의 기초 162
4.5.2 문자 메시지 말뭉치에 대한 LDiA 주제 모형 165
4.5.3 LDiA + LDA = 스팸 분류기 168
4.5.4 좀 더 공정한 비교: 주제가 32개인 LDiA 171
4.6 거리와 유사도 173
4.7 피드백에 기초한 방향 조정 176
4.7.1 선형 판별 분석(LDA) 177
4.8 주제 벡터의 위력 179
4.8.1 의미 기반 검색 181
4.8.2 개선안 184
요약 184

PART II 더 깊은 학습: 신경망 적용 185
CHAPTER 5 신경망 첫걸음: 퍼셉트론과 역전파 187
5.1 신경망의 구성요소 188
5.1.1 퍼셉트론 189
5.1.2 디지털 퍼셉트론 190
5.1.3 치우침 단위 191
5.1.4 오차 곡면을 누비며 207
5.1.5 경사로를 따라 활강 208
5.1.6 흔들어서 탈출 210
5.1.7 케라스: 신경망 파이썬 구현 211
5.1.8 더 깊게 배우고 싶다면 215
5.1.9 정규화: 스타일 있는 입력 215
요약 216

CHAPTER 6 단어 벡터를 이용한 추론: word2vec 활용 217
6.1 의미 기반 질의와 비유 218
6.1.1 비유 질문 219
6.2 단어 벡터 221
6.2.1 벡터 지향적 추론 225
6.2.2 word2vec의 단어 표현 계산 228
6.2.3 gensim.word2vec 모듈 사용법 238
6.2.4 나만의 단어 벡터 모형 만들기 241
6.2.5 word2vec 대 GloVe 244
6.2.6 fastText 245
6.2.7 word2vec 대 LSA 246
6.2.8 단어 관계의 시각화 247
6.2.9 인위적인 단어들 254
6.2.10 doc2vec을 이용한 문서 유사도 추정 256
요약 258

CHAPTER 7 단어 순서를 고려한 의미 분석: 합성곱 신경망 259
7.1 의미의 학습 261
7.2 도구 모음 262
7.3 합성곱 신경망 264
7.3.1 합성곱 신경망의 구조 264
7.3.2 단계 크기(보폭) 266
7.3.3 필터의 구성 266
7.3.4 여백 채우기 268
7.3.5 훈련(학습) 270
7.4 다시 텍스트로 271
7.4.1 케라스로 합성곱 신경망 구현: 자료 준비 273
7.4.2 합성곱 신경망의 구조 279
7.4.3 풀링 280
7.4.4 드롭아웃 283
7.4.5 마지막 층 추가 284
7.4.6 모형의 저장 및 시험 286
7.4.7 모형을 NLP 파이프라인에 도입 289
7.4.8 나머지 이야기 290
요약 292

CHAPTER 8 돌고 도는 신경망: 순환 신경망 293
8.1 과거를 아는 순환 신경망 296
8.1.1 시간에 대한 역전파 301
8.1.2 무엇을 언제 갱신하는가? 303
8.1.3 정리 306
8.1.4 항상 그렇듯이 함정이 있다 307
8.1.5 케라스를 이용한 순환 신경망 구

한줄서평

  • 10
  • 8
  • 6
  • 4
  • 2

(한글 300자이내)
리뷰쓰기
한줄 서평 리스트
평점 한줄 리뷰 작성자 작성일 추천수

등록된 서평이 없습니다.