序言
就在过去的七八年时间里,深度学习给世界带来了惊喜,推动了计算机视觉、自然语言处理、自动语音识别、强化学习和统计建模等领域的快速发展。而计算机视觉又是受益颇深的一个领域,在诸多场景下收到了很好的效果。
内容和结构
第一部分包括基础知识和预备知识。chap_introduction 提供深度学习的入门课程。然后在 chap_preliminaries 中,将快速向你介绍实践计算机视觉所需的前提条件,例如如何存储和处理数据,以及如何应用基于线性代数、微积分和概率基本概念的各种数值运算,涵盖了深度学习的最基本概念和技术,例如线性回归、多层感知机和正则化。
第二部分是本书涉及的计算机视觉基础理论,核心部分为神经网络模型。包括神经网络、卷积神经网络、循环神经网络理论讲解,以图像分类、模型拟合与优化作为其代码的实战项目。在模型拟合和优化章节中,着重分享梯度下降、随机梯度下降、动量法、AdaBoost等方法。
接下来的七章集中讨论现代计算机视觉技术实战。描述了计算机视觉的经典卷积神经网络PyTorch实现,并为我们随后实现更复杂的模型奠定了基础。接下来,在chap_cnn 和 chap_modern_cnn 中,我们介绍了卷积神经网络(convolutional neural network,CNN),这是构成大多数现代计算机视觉系统骨干的强大工具。随后,在 chap_rnn 和 chap_modern_rnn 中,我们引入了循环神经网络(recurrent neural network,RNN),这是一种利用数据中的时间或序列结构的模型,通常用于自然语言处理和时间序列预测,但在计算机视觉领域也表现出惊奇的效果。在chap_attention 中,我们介绍了一类新的模型,它采用了一种称为注意力机制的技术,最近它们已经开始在自然语言处理中取代循环神经网络。这一部分将帮助你快速了解大多数现代计算机视觉应用背后的基本工具。
该部分以项目为实战指导,给出详细的项目指导书和代码实现,更为特别的是,给出了notebook可以直接在线运行,跑通结果,免去了本地运行环境的搭建复杂性。于此同时,为了方便读者在本地调试,作者建立了一个名为 L0CV 的第三方包,可以直接在代码中 import L0CV 后使用。
第三部分讨论最近几年出现的“网红”模型,诸如:Transformer、Attention、知识蒸馏、迁移学习、生成对抗模型等。这部分也是此份资料的力挺之作。首先,在 chap_optimization 中,我们讨论了用于训练深度学习模型的几种常用优化算法。
本书中的大部分代码都是基于PyTorch的。PyTorch是一个开源的深度学习框架,在研究界和产业界都非常受欢迎。本书中的所有代码都在最新版本的PyTorch下通过了测试。但是,由于深度学习的快速发展,一些在印刷版中代码可能在PyTorch的未来版本无法正常工作。
与此同时,在GitHub仓库中,我建立了一个L0CV的包,读者可以直接导入即可使用封装好的方法,/notebook文件夹下也同步了各章节中的.ipynb,你可以直接在Colab上运行代码,免去运行时环境的差异带来的不便。
但是,我们计划使在线版本保持最新。如果你遇到任何此类问题,请查看 chap_installation 以更新你的代码和运行时环境。
下面是我们如何从PyTorch导入模块。
- #@tab pytorch
- #@save
- import numpy as np
- import torch
- import torchvision
- from torch import nn
- from torch.nn import functional as F
- from torch.utils import data
- from torchvision import transforms
- from PIL import Image
复制代码
另外,我们也提供tensorflow版本,下面是我们如何从TensorFlow导入模块。
- #@tab tensorflow
- #@save
- import numpy as np
- import tensorflow as tf
复制代码
目标受众
本书面向学生(本科生或研究生)、工程师和研究人员,他们希望扎实掌握深度学习的实用技术,在计算机视觉领域得以应用。因为我们从头开始解释每个概念,所以不需要过往的深度学习或机器学习背景。更为特别的是,我在进阶篇中,解读了最新的cv研究成果,让学有余力或者想成为专业视觉算法工程师的小伙伴紧跟发展。如果你以前没有使用过Python语言,那也没关系,在第七章给出了基本的语法交互学习,numpy、Pandas 、Jupyter Notebook 基础使用。
来自:https://charmve.github.io/comput ... tion/#/book_preface
|