TensorFlow基础¶
本章介绍TensorFlow的基本操作。
前置知识
Python基本操作 (赋值、分支及循环语句、使用import导入库);
NumPy ,Python下常用的科学计算库。TensorFlow与之结合紧密;
线性回归 ;
梯度下降方法 求函数的局部最小值。
TensorFlow 1+1¶
我们可以先简单地将TensorFlow视为一个科学计算库(类似于Python下的NumPy)。
首先,我们导入TensorFlow:
import tensorflow as tf
警告
本手册基于TensorFlow的即时执行模式(Eager Execution)。在TensorFlow 1.X版本中, 必须 在导入TensorFlow库后调用 tf.enable_eager_execution()
函数以启用即时执行模式。在 TensorFlow 2 中,即时执行模式将成为默认模式,无需额外调用 tf.enable_eager_execution()
函数(不过若要关闭即时执行模式,则需调用 tf.compat.v1.disable_eager_execution()
函数)。
TensorFlow使用 张量 (Tensor)作为数据的基本单位。TensorFlow的张量在概念上等同于多维数组,我们可以使用它来描述数学中的标量(0维数组)、向量(1维数组)、矩阵(2维数组)等各种量,示例如下:
# 定义一个随机数(标量)
random_float = tf.random.uniform(shape=())
# 定义一个有2个元素的零向量
zero_vector = tf.zeros(shape=(2))
# 定义两个2×2的常量矩阵
A = tf.constant([[1., 2.], [3., 4.]])
B = tf.constant([[5., 6.], [7., 8.]])
张量的重要属性是其形状、类型和值。可以通过张量的 shape
、 dtype
属性和 numpy()
方法获得。例如:
# 查看矩阵A的形状、类型和值
print(A.shape) # 输出(2, 2),即矩阵的长和宽均为2
print(A.dtype) # 输出<dtype: 'float32'>
print(A.numpy()) # 输出[[1. 2.]
# [3. 4.]]
小技巧
TensorFlow的大多数API函数会根据输入的值自动推断张量中元素的类型(一般默认为 tf.float32
)。不过你也可以通过加入 dtype
参数来自行指定类型,例如 zero_vector = tf.zeros(shape=(2), dtype=tf.int32)
将使得张量中的元素类型均为整数。张量的 numpy()
方法是将张量的值转换为一个NumPy数组。
TensorFlow里有大量的 操作 (Operation),使得我们可以将已有的张量进行运算后得到新的张量。示例如下:
C = tf.add(A, B) # 计算矩阵A和B的和
D = tf.matmul(A, B) # 计算矩阵A和B的乘积
操作完成后, C
和 D
的值分别为:
tf.Tensor(
[[ 6. 8.]
[10. 12.]], shape=(2, 2), dtype=float32)
tf.Tensor(
[[19. 22.]
[43. 50.]], shape=(2, 2), dtype=float32)
可见,我们成功使用 tf.add()
操作计算出 ,使用 tf.matmul()
操作计算出 。
自动求导机制¶
在机器学习中,我们经常需要计算函数的导数。TensorFlow提供了强大的 自动求导机制 来计算导数。在即时执行模式下,TensorFlow引入了 tf.GradientTape()
这个“求导记录器”来实现自动求导。以下代码展示了如何使用 tf.GradientTape()
计算函数 在 时的导数:
import tensorflow as tf
x = tf.Variable(initial_value=3.)
with tf.GradientTape() as tape: # 在 tf.GradientTape() 的上下文内,所有计算步骤都会被记录以用于求导
y = tf.square(x)
y_grad = tape.gradient(y, x) # 计算y关于x的导数
print(y, y_grad)
输出:
tf.Tensor(9.0, shape=(), dtype=float32)
tf.Tensor(6.0, shape=(), dtype=float32)
这里 x
是一个初始化为3的 变量 (Variable),使用 tf.Variable()
声明。与普通张量一样,变量同样具有形状、类型和值三种属性。使用变量需要有一个初始化过程,可以通过在 tf.Variable()
中指定 initial_value
参数来指定初始值。这里将变量 x
初始化为 3.
1。变量与普通张量的一个重要区别是其默认能够被TensorFlow的自动求导机制所求导,因此往往被用于定义机器学习模型的参数。
tf.GradientTape()
是一个自动求导的记录器。只要进入了 with tf.GradientTape() as tape
的上下文环境,则在该环境中计算步骤都会被自动记录。比如在上面的示例中,计算步骤 y = tf.square(x)
即被自动记录。离开上下文环境后,记录将停止,但记录器 tape
依然可用,因此可以通过 y_grad = tape.gradient(y, x)
求张量 y
对变量 x
的导数。
在机器学习中,更加常见的是对多元函数求偏导数,以及对向量或矩阵的求导。这些对于TensorFlow也不在话下。以下代码展示了如何使用 tf.GradientTape()
计算函数 在 时分别对 的偏导数。其中 。
X = tf.constant([[1., 2.], [3., 4.]])
y = tf.constant([[1.], [2.]])
w = tf.Variable(initial_value=[[1.], [2.]])
b = tf.Variable(initial_value=1.)
with tf.GradientTape() as tape:
L = tf.reduce_sum(tf.square(tf.matmul(X, w) + b - y))
w_grad, b_grad = tape.gradient(L, [w, b]) # 计算L(w, b)关于w, b的偏导数
print(L, w_grad, b_grad)
输出:
tf.Tensor(125.0, shape=(), dtype=float32)
tf.Tensor(
[[ 70.]
[100.]], shape=(2, 1), dtype=float32)
tf.Tensor(30.0, shape=(), dtype=float32)
这里, tf.square()
操作代表对输入张量的每一个元素求平方,不改变张量形状。 tf.reduce_sum()
操作代表对输入张量的所有元素求和,输出一个形状为空的纯量张量(可以通过 axis
参数来指定求和的维度,不指定则默认对所有元素求和)。TensorFlow中有大量的张量操作API,包括数学运算、张量形状操作(如 tf.reshape()
)、切片和连接(如 tf.concat()
)等多种类型,可以通过查阅TensorFlow的官方API文档 2 来进一步了解。
从输出可见,TensorFlow帮助我们计算出了
基础示例:线性回归¶
基础知识和原理
UFLDL教程 Linear Regression 一节。
考虑一个实际问题,某城市在2013年-2017年的房价如下表所示:
年份 |
2013 |
2014 |
2015 |
2016 |
2017 |
房价 |
12000 |
14000 |
15000 |
16500 |
17500 |
现在,我们希望通过对该数据进行线性回归,即使用线性模型 来拟合上述数据,此处 a
和 b
是待求的参数。
首先,我们定义数据,进行基本的归一化操作。
import numpy as np
X_raw = np.array([2013, 2014, 2015, 2016, 2017], dtype=np.float32)
y_raw = np.array([12000, 14000, 15000, 16500, 17500], dtype=np.float32)
X = (X_raw - X_raw.min()) / (X_raw.max() - X_raw.min())
y = (y_raw - y_raw.min()) / (y_raw.max() - y_raw.min())
接下来,我们使用梯度下降方法来求线性模型中两个参数 a
和 b
的值 3。
回顾机器学习的基础知识,对于多元函数 求局部极小值,梯度下降 的过程如下:
初始化自变量为 ,
迭代进行下列步骤直到满足收敛条件:
求函数 关于自变量的梯度
更新自变量: 。这里 是学习率(也就是梯度下降一次迈出的“步子”大小)
接下来,我们考虑如何使用程序来实现梯度下降方法,求得线性回归的解 。
NumPy下的线性回归¶
机器学习模型的实现并不是TensorFlow的专利。事实上,对于简单的模型,即使使用常规的科学计算库或者工具也可以求解。在这里,我们使用NumPy这一通用的科学计算库来实现梯度下降方法。NumPy提供了多维数组支持,可以表示向量、矩阵以及更高维的张量。同时,也提供了大量支持在多维数组上进行操作的函数(比如下面的 np.dot()
是求内积, np.sum()
是求和)。在这方面,NumPy和MATLAB比较类似。在以下代码中,我们手工求损失函数关于参数 a
和 b
的偏导数 4,并使用梯度下降法反复迭代,最终获得 a
和 b
的值。
a, b = 0, 0
num_epoch = 10000
learning_rate = 5e-4
for e in range(num_epoch):
# 手动计算损失函数关于自变量(模型参数)的梯度
y_pred = a * X + b
grad_a, grad_b = 2 * (y_pred - y).dot(X), 2 * (y_pred - y).sum()
# 更新参数
a, b = a - learning_rate * grad_a, b - learning_rate * grad_b
print(a, b)
然而,你或许已经可以注意到,使用常规的科学计算库实现机器学习模型有两个痛点:
经常需要手工求函数关于参数的偏导数。如果是简单的函数或许还好,但一旦函数的形式变得复杂(尤其是深度学习模型),手工求导的过程将变得非常痛苦,甚至不可行。
经常需要手工根据求导的结果更新参数。这里使用了最基础的梯度下降方法,因此参数的更新还较为容易。但如果使用更加复杂的参数更新方法(例如Adam或者Adagrad),这个更新过程的编写同样会非常繁杂。
而TensorFlow等深度学习框架的出现很大程度上解决了这些痛点,为机器学习模型的实现带来了很大的便利。
TensorFlow下的线性回归¶
TensorFlow的 即时执行模式 5 与上述NumPy的运行方式十分类似,然而提供了更快速的运算(GPU支持)、自动求导、优化器等一系列对深度学习非常重要的功能。以下展示了如何使用TensorFlow计算线性回归。可以注意到,程序的结构和前述NumPy的实现非常类似。这里,TensorFlow帮助我们做了两件重要的工作:
使用
tape.gradient(ys, xs)
自动计算梯度;使用
optimizer.apply_gradients(grads_and_vars)
自动更新模型参数。
X = tf.constant(X)
y = tf.constant(y)
a = tf.Variable(initial_value=0.)
b = tf.Variable(initial_value=0.)
variables = [a, b]
num_epoch = 10000
optimizer = tf.keras.optimizers.SGD(learning_rate=5e-4)
for e in range(num_epoch):
# 使用tf.GradientTape()记录损失函数的梯度信息
with tf.GradientTape() as tape:
y_pred = a * X + b
loss = tf.reduce_sum(tf.square(y_pred - y))
# TensorFlow自动计算损失函数关于自变量(模型参数)的梯度
grads = tape.gradient(loss, variables)
# TensorFlow自动根据梯度更新参数
optimizer.apply_gradients(grads_and_vars=zip(grads, variables))
在这里,我们使用了前文的方式计算了损失函数关于参数的偏导数。同时,使用 tf.keras.optimizers.SGD(learning_rate=5e-4)
声明了一个梯度下降 优化器 (Optimizer),其学习率为5e-4。优化器可以帮助我们根据计算出的求导结果更新模型参数,从而最小化某个特定的损失函数,具体使用方式是调用其 apply_gradients()
方法。
注意到这里,更新模型参数的方法 optimizer.apply_gradients()
需要提供参数 grads_and_vars
,即待更新的变量(如上述代码中的 variables
)及损失函数关于这些变量的偏导数(如上述代码中的 grads
)。具体而言,这里需要传入一个Python列表(List),列表中的每个元素是一个 (变量的偏导数,变量)
对。比如上例中需要传入的参数是 [(grad_a, a), (grad_b, b)]
。我们通过 grads = tape.gradient(loss, variables)
求出tape中记录的 loss
关于 variables = [a, b]
中每个变量的偏导数,也就是 grads = [grad_a, grad_b]
,再使用Python的 zip()
函数将 grads = [grad_a, grad_b]
和 variables = [a, b]
拼装在一起,就可以组合出所需的参数了。
Python的 zip()
函数
zip()
函数是Python的内置函数。用自然语言描述这个函数的功能很绕口,但如果举个例子就很容易理解了:如果 a = [1, 3, 5]
, b = [2, 4, 6]
,那么 zip(a, b) = [(1, 2), (3, 4), ..., (5, 6)]
。即“将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表”,和我们日常生活中拉上拉链(zip)的操作有异曲同工之妙。在Python 3中, zip()
函数返回的是一个 zip 对象,本质上是一个生成器,需要调用 list()
来将生成器转换成列表。
在实际应用中,我们编写的模型往往比这里一行就能写完的线性模型 y_pred = a * X + b
(模型参数为 variables = [a, b]
)要复杂得多。所以,我们往往会编写并实例化一个模型类 model = Model()
,然后使用 y_pred = model(X)
调用模型,使用 model.variables
获取模型参数。关于模型类的编写方式可见 “TensorFlow模型”一章。
- 1
Python中可以使用整数后加小数点表示将该整数定义为浮点数类型。例如
3.
代表浮点数3.0
。- 2
主要可以参考 Tensor Transformations 和 Math 两个页面。可以注意到,TensorFlow的张量操作API在形式上和Python下流行的科学计算库NumPy非常类似,如果对后者有所了解的话可以快速上手。
- 3
其实线性回归是有解析解的。这里使用梯度下降方法只是为了展示TensorFlow的运作方式。
- 4
此处的损失函数为均方误差 。其关于参数
a
和b
的偏导数为 , 。本例中 。由于均方误差取均值的系数 在训练过程中一般为常数( 一般为批次大小),对损失函数乘以常数等价于调整学习率,因此在具体实现时通常不写在损失函数中。- 5
与即时执行模式相对的是图执行模式(Graph Execution),即 TensorFlow 2 之前所主要使用的执行模式。本手册以面向快速迭代开发的即时执行模式为主,但会在 附录 中介绍图执行模式的基本使用,供需要的读者查阅。