PART I 검색이 딥러닝을 만나다
CHAPTER 1 신경망을 이용한 검색
1.1 신경망과 딥러닝
1.2 머신러닝이란?
1.3 검색 시에 딥러닝으로 할 수 있는 일은?
1.4 딥러닝 학습을 위한 계획도
1.5 유용한 정보 꺼내기
1.5.1 텍스트, 토큰, 용어, 검색에 관한 기초 지식
1.5.2 연관도 우선
1.5.3 고전적인 검색 모델
1.5.4 정밀도와 재현율
1.6 미해결 문제들
1.7 검색 엔진 블랙박스 열기
1.8 구조의 손길을 펼치는 딥러닝
1.9 색인아, 뉴런을 만나 주지 않을래?
1.10 신경망 훈련
1.11 신경 검색의 약속들
CHAPTER 2 동의어 생성
2.1 동의어 확장 소개
2.1.1 왜 동의어인가?
2.1.2 어휘 기반 동의어 일치
2.2 맥락의 중요성
2.3 순방향 신경망
2.4 word2vec 사용
2.4.1 Deeplearning4j에 word2vec 끼워 쓰기
2.4.2 Word2vec 기반 동의어 확장
2.5 평가 및 비교
2.6 프로덕션 시스템에 대해 고려할 사항
2.6.1 동의어 대 반의어
PART 2 검색 엔진에 신경망들 던져 넣기
CHAPTER 3 일반 검색에서 텍스트 생성까지
3.1 정보 요구 대 쿼리: 틈새를 메우는 것
3.1.1 대안 쿼리 생성
3.1.2 데이터 준비
3.1.3 데이터 생성 준비
3.2 시퀀스 학습
3.3 재귀 신경망
3.3.1 RNN 내부 구조와 작동 방식
3.3.2 장기 의존성
3.3.3 장단기 기억망
3.4 비지도 학습 방식으로 텍스트를 생성하기 위한 LSTM 망
3.4.1 비지도 쿼리 확장
3.5 비지도 텍스트 생성에서 지도 텍스트 생성까지
3.5.1 시퀀스-투-시퀀스 모델링
3.6 프로덕션 시스템에 대해 고려해야 할 점
CHAPTER 4 그럴듯한 쿼리들 제안하기
4.1 쿼리 제안 생성
4.1.1 쿼리 작성 중에 제안하기
4.1.2 사전 기반 제안
4.2 루씬 룩업 API
4.3 분석된 내용을 활용하는 제안기
4.4 언어 모델 사용
4.5 내용 기반 제안기
4.6 신경 언어 모델
4.7 제안용 문자 기반 신경 언어 모델
4.8 LSTM 언어 모델 조율
4.9 단어 매장을 이용한 제안 다양화
CHAPTER 5 단어 매장을 사용해 검색 결과의 순위지정하기
5.1 순위지정의 중요성
5.2 검색 모델
5.2.1 TF-IDF와 벡터 공간 모델
5.2.2 루씬에서 문서의 순위지정하기
5.2.3 확률 모델
5.3 신경 정보 검색
5.4 단어 벡터에서 문서 벡터까지
5.5 평가 및 비교
5.5.1 평균 단어 매장 기준 유사도
CHAPTER 6 순위지정 및 추천을 위한 문서 매장
6.1 단어 매장으로부터 문서 매장까지
6.2 순위지정 시 단락 벡터 사용
6.2.1 단락 벡터 기반 유사도
6.3 문서 매장과 연관 내용
6.3.1 검색, 추천 그리고 연관 내용
6.3.2 빈출 용어들을 사용해 유사한 내용 찾기
6.3.3 단락 벡터를 사용해 유사한 내용 검색
6.3.4 인코더-디코더 모델에서 벡터를 사용해 유사한 내용 검색
PART 3 한 걸음 더 나아가다
CHAPTER 7 여러 언어로 검색하기
7.1 언어가 서로 다른 사용자들에게 서비스하기
7.1.1 문서 번역 대 쿼리 번역
7.1.2 교차 언어 검색
7.1.3 루씬 기반 다중 언어 쿼리
7.2 통계적 기계 번역
7.2.1 정렬
7.2.2 단락 기반 번역
7.3 병렬 말뭉치를 가지고 일하기
7.4 신경 기계 번역
7.4.1 인코더-디코더 모델
7.4.2 DL4J에서 기계 번역을 하기 위한 인코더-디코더
7.5 여러 언어를 위한 단어 매장 및 문서 매장
7.5.1 선형 사영 1개 국어 사용 매장
CHAPTER 8 내용 기반 이미지 검색
8.1 이미지 내용과 검색
8.2 되돌아보기: 텍스트 기반 이미지 검색
8.3 이미지 이해하기
8.3.1 이미지 표현
8.3.2 특징 추출
8.4 이미지 표현을 위한 딥러닝
8.4.1 CNN
8.4.2 이미지 검색
8.4.3 국소성 민감 해싱
8.5 레이블이 없는 이미지 다루기
CHAPTER 9 성능 엿보기
9.1 성과 및 딥러닝의 약속
9.1.1 모델 설계로부터 모델 산출로
9.2 색인과 뉴런이 협동하게 하기
9.3 데이터 스트림 작업
찾아보기