こしあん
2020-02-14

技術書典8で新刊を委託します!


2.5k{icon} {views}


お久しぶりです! 突然ですが、技術書典8で新刊を出します。モザイク除去の新刊です! GANもGANGAN入ってます。相当気合い入れて書いたので前刊よりも遥かにパワーアップしてます!

ご存知のように、ブログもQiita数ヶ月ぐらい更新してませんでした。更新してなかったのはこの本を書くのに忙しかったからです。

委託情報

日時:技術書典8 DAY2 2020年3月1日 (日)
スペース:DAY2 あ03 「超穏健派」
サークルページ:https://techbookfest.org/event/tbf08/circle/6038091638767616
会場:池袋サンシャインシティ2F 展示ホールD(文化会館ビル2F)
公式サイト:https://techbookfest.org/event/tbf08

私のサークルではありません(私は落選しました)。kiyoさんのサークルで委託します。気になっている方はぜひサークルページ(上記リンク)からチェックをお願いいたします。「チェックリストに追加」をクリックすると内部的にチェック数がカウントされ、印刷部数把握の目安になります。

私のサークルではないので当日に、「こしあんさんういーっす!煽りに来ました」とやりにいくと、kiyoさんが「は??」って顔する可能性があります。ご注意ください。私がサークルスペースにいる時間もできる限り作りたいなと思っていますが、サークルチケットの数に限りがあるので、100%保証はできないかと思います。ご了承ください。

kiyoさんのがUnpaired DataのGANの(Cycle GANの系列)本を書いて、私がPaired DataのGAN(Inpainting)の本を書くので、兄弟のような本になるはずです。kiyoさんの本も合わせてよろしくお願いします。

技術書典8の詳細については上のリンクにあります公式サイトを参照してください。

新刊情報

※以下の情報は2/14時点の原稿です。当日までに予告なく変更される可能性がありますのでご了承ください。

表紙

本書の特徴

モザイク除去を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。

また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。

構成

A4 全195ページ、カラー12ページ
文字数35.8万(文庫本3.5冊相当)

価格

現在調整中
紙の本+電子版、電子版の2種類の頒布形式を検討中です

対象

AI、機械学習、ディープラーニングに興味のある人。モザイク除去に興味のある人。およびそれらの最新事情が知りたい人。今回は最新の内容が多いので、Pythonや機械学習・統計の事前知識があったほうが楽しめるかと思いますが、初心者でも楽しめるようにしています。

本書でカバーする内容

ディープラーニング、特にコンピュータービジョン(CV)やGANが中心。特にInpainting(モザイク除去のようなタスクの専門的な呼び方)を軸に見ていきます。自然言語処理(NLP)は含まれませんのでご注意ください。

前作との違い

本書は2019年4月に頒布した『DeepCreamPyで学ぶモザイク除去』の続編となっていますが、以下のような違いがあります。

  • 本書のほうが最新の研究が多く載せています。ICCV, CVPR, ECCVなどのコンピュータービジョンの世界最高レベルの学会の、最新(2019年)の研究の理論解説+実装を行っています
  • 本書の約半分をGAN(敵対的生成ネットワーク)の研究に費やしている。前回は「GANができたらいいね」程度の軽い位置づけで終わっていましたが、本書はかなりGANのコアの部分に切り込んでいます。GANの安定性についても触れる予定。
  • 前回は割と有名な話(U-Netやスタイル変換)が多かったのに対して、今回はとにかく濃い内容を集めました。本書の導入は機械学習がわからない人向けからはじめているので、根気のある方はついてこられたらいいなぁ。
  • 逆に前回の内容で「物足りないな」と思った方は今回は期待してOK。参考文献の論文だけで相当ボリュームがあります(以下参照)。前回の本が1ヶ月程度でサクッと書いたのに対して、今回は3~4ヶ月かけてじっくりと本気出して書きました。
  • 全体の9割以上を書き直し+増量。GANの部分や最新研究を大幅強化し、TensorFlow2.0+TPU対応。ほぼ別の本です。
  • Google Colaboratoryによる演習問題を読者が動かせる形で明確に付与。章の内容理解を確認するためのものでそこまで難しい内容ではないです。早いと30分ぐらいで終わります。演習問題は各モデルの「エッセンス」を含んでいます。
  • 前回がTensorFlow1.Xだったのに対し、今回はTensorFlow2.X。TPU周りのコードが若干簡単になっている。

後日(当日までの間のいつか)、序章と1章の内容を無料公開する予定です。ご期待ください。

目次

  • 序章 DeepCreamPyで遊ぼう
  • 1章 機械学習・ディープラーニング・畳み込みニューラルネットワーク
  • 2章 超解像ベースのモザイク除去
  • 3章 U-Netによるモザイク除去
  • 4章 モザイクの科学
  • 5章 OPYデータセット
  • 6章 Partial Convolutions(ECCV 2018)によるモザイク除去
  • 7章 Generative Adversarial Network
  • 8章 Gated Conv(ICCV 2019)によるモザイク除去
  • 9章 PEPSI(CVPR 2019)によるモザイク除去
  • 10章 Edge Connect(ICCV 2019)によるモザイク除去
  • 11章 紹介できなかった論文・おわりに

過去情報

技術書典8落選しました

参考文献リスト

本書を書く際に参照した論文一覧です。新刊のおおよそのイメージ把握にご活用ください。

1章

  • A. L. Maas, A. Y. Hannun, A. Y. Ng. Rectifier Nonlinearities Improve Neural Network Acoustic Models. International Conference on Machine Learning (ICML) (2013) .
  • D. Clevert, T. Unterthiner, S. Hochreiter. Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs). ICLR 2015.
  • S. Ioffe, C. Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. ICML 2015.
  • C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich. Going Deeper with Convolutions. CVPR 2015.
  • K. He, X. Zhang, S. Ren, J. Sun. Deep Residual Learning for Image Recognition. CVPR 2016.
  • K. He, X. Zhang, S. Ren, J. Sun. Identity Mappings in Deep Residual Networks. ECCV 2016.

2章

  • C. Ma, C. Y. Yang, X. Yang, M. H. Yang. Learning a no-reference quality metric for single-image super-resolution. Computer Vision and Image Understanding (2017). Volume 158, page 1-16.
  • W. Shi, J. Caballero, F. Huszár, J. Totz, A. P. Aitken, R. Bishop, D. Rueckert, Z. Wang. Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network. CVPR 2016.

3章

  • S. Kaji, S. Kida. Overview of image-to-image translation by use of deep neural networks: denoising, super-resolution, modality conversion, and reconstruction in medical imaging. Radiological physics and technology (2019) Volume 12. pages 235-248.
  • O. Ronneberger, P. Fischer, T. Brox. U-Net: Convolutional Networks for Biomedical Image Segmentation. MICCAI 2015.
  • S. Iizuka, E. S.-Serra, H. Ishikawa. Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification. SIGGRAPH 2016.
  • L. Zhang, Y. Ji, X. Lin. Style Transfer for Anime Sketches with Enhanced Residual U-net and Auxiliary Classifier GAN. ACPR 2017.
  • J. Hu, L. Shen, S. Albanie, G. Sun, E. Wu. Squeeze-and-Excitation Networks. CVPR 2018.
  • D. Hendrycks, K. Zhao, S. Basart, J. Steinhardt, D. Song. Natural Adversarial Examples. arXiv:1907.07174.
  • Y. Zhang, K. Li, K. Li, L. Wang, B. Zhong, Y. Fu. Image Super-Resolution Using Very Deep Residual Channel Attention Networks. ECCV 2018.
  • T. Dai, J. Cai, Y. Zhang, S.-T. Xia, L. Zhang. Second-Order Attention Network for Single Image Super-Resolution. CVPR 2019.
  • A. Guha Roy, N. Navab, C. Wachinger. Concurrent Spatial and Channel Squeeze & Excitation in Fully Convolutional Networks. MICCAI 2018.

4章

  • T. Karras, T. Aila, S. Laine, J. Lehtinen. Progressive Growing of GANs for Improved Quality, Stability, and Variation. ICLR 2018.
  • G. Ghiasi, C. C. Fowlkes. Laplacian Pyramid Reconstruction and Refinement for Semantic Segmentation. ECCV 2016.
  • T. Zhao, Z. Yin. Pyramid-Based Fully ConvolutionalNetworks for Cell Segmentation. MICCAI 2018.
  • Y. Chen, H. Fan, B. Xu, Z. Yan, Y. Kalantidis, M. Rohrbach, S. Yan, J. Feng. Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave Convolution. ICCV 2019.
  • R. Durall, F.-J. Pfreundt, J. Keuper. Stabilizing GANs with Octave Convolutions. arXiv:1905.12534.
  • Z. Fan, J. Mo, B. Qiu, W. Li, G. Zhu, C. Li, J. Hu, Y. Rong, X. Chen. Accurate Retinal Vessel Segmentation via Octave Convolution Neural Network. arXiv:1906.12193.
  • J. Rownicka, P. Bell, S. Renals. Multi-scale Octave Convolutions for Robust Speech Recognition. arXiv:1910.14443.
  • C. Ledig, L. Theis, F. Huszar, J. Caballero, A. Cunningham, A. Acosta, A. Aitken, A. Tejani, J. Totz, Z. Wang, W. Shi. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network. CVPR 2017.
  • M. S. Sarfraz, C. Seibold, H. Khalid, R. Stiefelhagen. Content and Colour Distillation for Learning Image Translations with the Spatial Profile Loss. BMVC 2019.
  • L. Gatys, A. Ecker, M. Bethge. A Neural Algorithm of Artistic Style. Journal of Vision 2016. Vol 16, No 12.

6章

  • G. Liu, F. A. Reda, K. J. Shih, T.-C. Wang, A. Tao, B. Catanzaro. Image Inpainting for Irregular Holes Using Partial Convolutions. ECCV 2018.
  • K. Simonyan, A. Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv:1409.1556.
  • L. A. Gatys, A. S. Ecker, M. Bethge. A Neural Algorithm of Artistic Style. arXiv:1508.06576.
  • Y. Ma, X. Liu, S. Bai, L. Wang, A. Liu, D. Tao, E. Hancock. Region-wise Generative Adversarial ImageInpainting for Large Missing Areas. arXiv:1909.12507.
  • T. Yu, Z. Guo, X. Jin, S. Wu, Z. Chen, W. Li, Z. Zhang, S. Liu. Region Normalization for Image Inpainting. AAAI 2020.

7章

  • I. J. Goodfellow, J. P.-Abadie, M. Mirza, B. Xu, D. W.-Farley, S. Ozair, A. Courville, Y. Bengio. Generative Adversarial Networks. NIPS 2014.
  • T. Karras, S. Laine, M. Aittala, J. Hellsten, J. Lehtinen, T. Aila. Analyzing and Improving the Image Quality of StyleGAN. arXiv:1912.04958.
  • A. Radford, L. Metz, S. Chintala. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. ICLR 2015.
  • J. H. Lim, J. C. Ye. Geometric GAN. arXiv:1705.02894.
  • D. Tran, R. Ranganath, D. M. Blei. Hierarchical Implicit Models and Likelihood-Free Variational Inference. NIPS 2017.
  • A. Brock, J. Donahue, K. Simonyan. Large Scale GAN Training for High Fidelity Natural Image Synthesis. ICLR 2019.
  • M. Arjovsky, S. Chintala, L. Bottou. Wasserstein GAN. arXiv:1701.07875.
  • T. Miyato, T. Kataoka, M. Koyama, Y. Yoshida. Spectral Normalization for Generative Adversarial Networks. ICLR 2018.
  • I. Gulrajani, F. Ahmed, M. Arjovsky, V. Dumoulin, A. Courville. Improved Training of Wasserstein GANs. NIPS 2017.
  • C. Chu, K. Minami, K. Fukumizu. Smoothness and Stability in GANs. ICLR 2020.
  • H. Zhang, I. Goodfellow, D. Metaxas, A. Odena. Self-Attention Generative Adversarial Networks. arXiv:1805.08318.
  • P. Isola, J.-Y. Zhu, T. Zhou, A. A. Efros. Image-to-Image Translation with Conditional Adversarial Networks. CVPR 2017.
  • J.-Y. Zhu, T. Park, P. Isola, A. A. Efros. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. ICCV 2017.

8章

  • C. Barnes, E. Shechtman, A. Finkelstein, D. B. Goldman. PatchMatch: A Randomized Correspondence Algorithm for Structural Image Editing. ACM Transactions on Graphics (Proc. SIGGRAPH) 2009.
  • J. Yu, Z. Lin, J. Yang, X. Shen, X. Lu, T. S. Huang. Generative Image Inpainting with Contextual Attention. CVPR 2018.
  • J. Yu, Z. Lin, J. Yang, X. Shen, X. Lu, T. Huang. Free-Form Image Inpainting with Gated Convolution. ICCV 2019.

9章

  • M. Sagong, Y. Shin, S. Kim, S. Park, S. Ko. PEPSI : Fast Image Inpainting With Parallel Decoding Network. CVPR 2019.
  • M. Sagong, Y. Shin, S. Kim, S. Park, S. Ko. PEPSI++: Fast and Lightweight Network for Image Inpainting. arXiv:1905.09010.

10章

  • K. Nazeri, E. Ng, T. Joseph, F. Z. Qureshi, M. Ebrahimi. EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning. ICCV 2019.
  • T. Zhang, H. Fu, Y. Zhao, J. Cheng, M. Guo, Z. Gu, B. Yang, Y. Xiao, S. Gao, J. Liu. SkrGAN: Sketching-rendering Unconditional Generative Adversarial Networks for Medical Image Synthesis. MICCAI 2019.
  • J. Ostrofsky, A. Kozbelt, A. Seidel. Perceptual Constancies and Visual Selection as Predictors of Realistic Drawing Skill. Psychology of Aesthetics, Creativity, and the Arts 6(2), 124–136 (2012).
  • H. Zhang, I. Goodfellow, D. Metaxas, A. Odena. Self-Attention Generative Adversarial Networks. arXiv:1805.08318.
  • X. Wang, R. Girshick, A. Gupta, K. He. Non-local Neural Networks. CVPR 2018.
  • S. Xie, Z. Tu. Holistically-Nested Edge Detection. ICCV 2015.

11章

  • S. Iizuka, E. S-Serra. H. Ishikawa. Globally and Locally Consistent Image Completion. SIGGRAPH 2017.
  • C. Zheng, T.-J. Cham, J. Cai. Pluralistic Image Completion. CVPR 2019.
  • W. Cai, Z. Wei. Diversity-Generated Image Inpainting with Style Extraction. arXiv:1912.01834.
  • W. Xiong, J. Yu, Z. Lin, J. Yang, X. Lu, C. Barnes, J. Luo. Foreground-aware Image Inpainting. CVPR 2019.
  • Y. Ren, X. Yu, R. Zhang, T. H. Li, S. Liu, G. Li. StructureFlow: Image Inpainting via Structure-aware Appearance Flow. ICCV 2019.
  • T. R. Shaham, T. Dekel, T. Michaeli. SinGAN: Learning a Generative Model from a Single Natural Image. ICCV 2019.
  • B. V. Hoorick. Image Outpainting and Harmonization using Generative Adversarial Networks. arXiv:1912.10960.
  • Z. Yang, J. Dong, P. Liu, Y. Yang, S. Yan. Very Long Natural Scenery Image Prediction by Outpainting. ICCV 2019.
  • Y. Jo, J. Park. SC-FEGAN: Face Editing Generative Adversarial Network with User’s Sketch and Color. ICCV 2019.
  • X. Hong, P. Xiong, R. Ji, H. Fan. Deep Fusion Network for Image Completion. ACM-MM 2019.
  • H. Liu, B. Jiang, W. Huang, C. Yang. One-Stage Inpainting with Bilateral Attention and Pyramid Filling Block. arXiv:1912.08642.
  • Z. Guo, Z. Chen, T. Yu, J. Chen, S. Liu. Progressive Image Inpainting with Full-Resolution Residual Network. ACM-MM 2019.


Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

北海道の駅巡りコーナー


Add a Comment

メールアドレスが公開されることはありません。 が付いている欄は必須項目です