상세정보

  • HOME
  • 상세정보

미술관에 GAN 딥러닝 실전 프로젝트 : GAN으로 쓰기, 그리기, 게임하기, 작곡하기 = Generative Deep Learning

포스터, 데이비드

책이미지
도서 상세정보
자료유형단행본
개인저자포스터, 데이비드
Foster, David
박혜선
서명/저자사항미술관에 GAN 딥러닝 실전 프로젝트 :GAN으로 쓰기, 그리기, 게임하기, 작곡하기 =Generative Deep Learning /포스터, 데이비드 지음;박혜선 옮김
판사항초판
발행사항서울 :한빛미디어,2019
형태사항356.p :삽화
부분표제
ISBN9791162241080
비통제주제어딥러닝,GAN
소장정보
No. 등록번호 청구기호 소장처/자료실/서가 도서상태 반납예정일 예약
1 EB041651 13.10-06 포58미 2019 국토연구원/자료실/ 대출중 2021-07-30 예약가능

목차 일부

CHAPTER 1 생성 모델링
 1.1 생성 모델링이란?
  1.1.1 생성 모델링과 판별 모델링
  1.1.2 머신러닝의 발전
  1.1.3 생성 모델의 등장
  1.1.4 생성 모델링 프레임워크
 1.2 확률적 생성 모델
  1.2.1 헬로 로들!
  1.2.2 첫 번째 확률적 생성 모델
  1.2.3 나이브 베이즈
  1.2.4 헬로 로들! 앞에서 이...

목차 전체

CHAPTER 1 생성 모델링
 1.1 생성 모델링이란?
  1.1.1 생성 모델링과 판별 모델링
  1.1.2 머신러닝의 발전
  1.1.3 생성 모델의 등장
  1.1.4 생성 모델링 프레임워크
 1.2 확률적 생성 모델
  1.2.1 헬로 로들!
  1.2.2 첫 번째 확률적 생성 모델
  1.2.3 나이브 베이즈
  1.2.4 헬로 로들! 앞에서 이어서
 1.3 생성 모델의 난관
  1.3.1 표현학습
 1.4 환경 설정
 1.5 요약

CHAPTER 2 딥러닝
 2.1 정형 데이터와 비정형 데이터
 2.2 심층 신경망
  2.2.1 케라스와 텐서플로
 2.3 첫 번째 심층 신경망
  2.3.1 데이터 적재
  2.3.2 모델 만들기
  2.3.3 모델 컴파일
  2.3.4 모델 훈련
  2.3.5 모델 평가
 2.4 모델 성능 향상
  2.4.1 합성곱 층
  2.4.2 배치 정규화 층
  2.4.3 드롭아웃 층
  2.4.4 합성곱, 배치 정규화, 드롭아웃 적용하기
 2.5 요약

CHAPTER 3 VAE - 변이형 오토인코더
 3.1 미술 전시회
 3.2 AE - 오토인코더
  3.2.1 첫 번째 AE
  3.2.2 인코더
  3.2.3 디코더
  3.2.4 인코더와 디코더 연결하기
  3.2.5 AE 분석
 3.3 변경된 미술 전시회
 3.4 VAE 만들기
  3.4.1 인코더
  3.4.2 손실 함수
  3.4.3 VAE 분석
 3.5 VAE를 사용하여 얼굴 이미지 생성
  3.5.1 VAE 훈련
  3.5.2 VAE 분석
  3.5.3 새로운 얼굴 생성
  3.5.4 잠재 공간상의 계산
  3.5.5 얼굴 합성
 3.6 요약

CHAPTER 4 GAN - 생성적 적대 신경망
 4.1 애니멀간
 4.2 GAN 소개
 4.3 첫 번째 GAN
  4.3.1 판별자
  4.3.2 생성자
  4.3.3 GAN 훈련
 4.4 GAN의 도전 과제
  4.4.1 진동하는 손실
  4.4.2 모드 붕괴 
  4.4.3 유용하지 않은 손실
  4.4.4 하이퍼파라미터
 4.5 WGAN - 와서스테인 GAN
  4.5.1 와서스테인 손실
  4.5.2 립시츠 제약
  4.5.3 가중치 클리핑
  4.5.4 WGAN 훈련
  4.5.5 WGAN 분석
 4.6 WGAN-GP
  4.6.1 그레이디언트 페널티 손실
  4.6.2 WGAN-GP 분석
 4.7 요약

CHAPTER 5 그리기
 5.1 사과와 오렌지
 5.2 CycleGAN 소개
 5.3 첫 번째 CycleGAN
  5.3.1 개요
  5.3.2 생성자(U-Net)
  5.3.3 판별자
  5.3.4 CycleGAN 컴파일
  5.3.5 CycleGAN 훈련
  5.3.6 CycleGAN 분석
 5.4 CycleGAN으로 모네 그림 그리기
  5.4.1 생성자(ResNet)
  5.4.2 CycleGAN 분석
 5.5 뉴럴 스타일 트랜스퍼
  5.5.1 콘텐츠 손실
  5.5.2 스타일 손실
  5.5.3 총 변위 손실
  5.5.4 뉴럴 스타일 트랜스퍼 실행
  5.5.5 뉴럴 스타일 트랜스퍼 분석
 5.6 요약

CHAPTER 6 쓰기
 6.1 고약한 범법자를 위한 문학 클럽
 6.2 LSTM 네트워크 소개
 6.3 첫 번째 LSTM 네트워크
  6.3.1 토큰화
  6.3.2 데이터셋 구축
  6.3.3 LTSM 모델 구조
  6.3.4 임베딩 층
  6.3.5 LTSM 층
  6.3.6 LTSM 셀
 6.4 새로운 텍스트 생성
 6.5 RNN 확장
 6.6 인코더-디코더 모델
 6.7 질문-대답 생성기
  6.7.1 질문-대답 데이터셋
  6.7.2 모델 구조
  6.7.3 예측
  6.7.4 모델 결과
 6.8 요약

CHAPTER 7 작곡하기
 7.1 준비 사항
  7.1.1 음악 기호
 7.2 첫 번째 음악 생성 RNN
  7.2.1 어텐션
  7.2.2 케라스로 어텐션 메커니즘 생성
  7.2.3 어텐션을 사용한 RNN 분석
  7.2.4 인코더-디코더 네트워크의 어텐션
  7.2.5 다중 선율 음악 생성
 7.3 MuseGAN 소개
 7.4 첫 번째 MuseGAN 
 7.5 MuseGAN 생성자
 7.6 MuseGAN 비평자
 7.7 MuseGAN 분석
 7.8 요약

CHAPTER 8 게임하기
 8.1 강화학습
  8.1.1 오픈AI Gym
 8.2 월드 모델 구조
  8.2.1 VAE-변이형 오토인코더
  8.2.2 MDN-RNN
  8.2.3 컨트롤러
 8.3 환경 설정
 8.4 훈련 과정
 8.5 랜덤한 롤아웃 데이터 수집
 8.6 VAE 훈련
  8.6.1 VAE 구조
  8.6.2 VAE 살펴보기
 8.7 RNN 훈련 데이터 수집
 8.8 MDN-RNN 훈련
  8.8.1 MDN-RNN 구조
  8.8.2 MDN-RNN에서 다음 z 벡터와 보상 샘플링
  8.8.3 MDN-RNN 손실 함수
 8.9 컨트롤러 훈련
  8.9.1 컨트롤러 구조
  8.9.2 CMA-ES
  8.9.3 CMA-ES 병렬화
  8.9.4 컨트롤러 훈련 출력
 8.10 꿈속에서 훈련하기
  8.10.1 꿈 환경에서 컨트롤러 훈련하기
  8.10.2 꿈속 훈련의 도전 과제
 8.11 요약

CHAPTER 9 생성 모델링의 미래
 9.1 최근 5년간의 발전
 9.2 트랜스포머
  9.2.1 위치 인코딩
  9.2.2 멀티헤드 어텐션
  9.2.3 디코더
  9.2.4 트랜스포머 분석
  9.2.5 BERT
  9.2.6 GPT-2
  9.2.7 MuseNet
 9.3 이미지 생성 분야의 발전
  9.3.1 ProGAN
  9.3.2 SAGAN
  9.3.3 BigGAN
  9.3.4 StyleGAN
 9.4 생성 모델링의 적용 분야
  9.4.1 AI 아트
  9.4.2 AI 음악

CHAPTER 10 결론