一、TensorFlow 基础
TensorFlow 和其他数字计算库(如 numpy)之间最明显的区别在于 TensorFlow 中操作的是符号。这是一个强大的功能,这保证了 TensorFlow 可以做很多其他库(例如 numpy)不能完成的事情(例如自动区分)。这可能也是它更复杂的原因。今天我们来一步步探秘 TensorFlow,并为更有效地使用 TensorFlow 提供了一些指导方针和最佳实践。
我们从一个简单的例子开始,我们要乘以两个随机矩阵。首先我们来看一下在 numpy 中如何实现:
import numpy as np x = np.random.normal(size=[10, 10]) y = np.random.normal(size=[10, 10]) z = np.dot(x, y) print(z)
现在我们使用 TensorFlow 中执行完全相同的计算:
import TensorFlow as tf x = tf.random_normal([10, 10]) y = tf.random_normal([10, 10]) z = tf.matmul(x, y) sess = tf.Session() z_val = sess.run(z) print(z_val)
与立即执行计算并将结果复制给输出变量z
的 numpy 不同,TensorFlow 只给我们一个可以操作的张量类型。如果我们尝试直接打印z
的值,我们得到这样的东西:
Tensor("MatMul:0", shape=(10, 10), dtype=float32)
由于两个输入都是已经定义的类型,TensorFlow 能够推断张量的符号及其类型。为了计算张量的值,我们需要创建一个会话并使用Session.run
方法进行评估。
要了解如此强大的符号计算到底是什么,我们可以看看另一个例子。假设我们有一个曲线的样本(例如f(x)= 5x ^ 2 + 3
),并且我们要估计f(x)
在不知道它的参数的前提下。我们定义参数函数为g(x,w)= w0 x ^ 2 + w1 x + w2
,它是输入x
和潜在参数w
的函数,我们的目标是找到潜在参数,使得g(x, w)≈f(x)
。这可以通过最小化损失函数来完成:L(w)=(f(x)-g(x,w))^ 2
。虽然这问题有一个简单的封闭式的解决方案,但是我们选择使用一种更为通用的方法,可以应用于任何可以区分的任务,那就是使用随机梯度下降。我们在一组采样点上简单地计算相对于w
的L(w)
的平均梯度,并沿相反方向移动。
以下是在 TensorFlow 中如何完成:
import numpy as npimport TensorFlow as tf x = tf.placeholder(tf.float32) y = tf.placeholder(tf.float32) w = tf.get_variable("w", shape=[3, 1]) f = tf.stack([tf.square(x), x, tf.ones_like(x)], 1) yhat = tf.squeeze(tf.matmul(f, w), 1) loss = tf.nn.l2_loss(yhat - y) + 0.1 * tf.nn.l2_loss(w) train_op = tf.train.AdamOptimizer(0.1).minimize(loss)def generate_data(): x_val = np.random.uniform(-10.0, 10.0, size=100) y_val = 5 * np.square(x_val) + 3 return x_val, y_val sess = tf.Session() sess.run(tf.global_variables_initializer())for _ in range(1000): x_val, y_val = generate_data() _, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val}) print(loss_val) print(sess.run([w]))
通过运行这段代码,我们可以看到下面这组数据:
[4.9924135, 0.00040895029, 3.4504161]
这与我们的参数已经相当接近。
这只是 TensorFlow 可以做的冰山一角。许多问题,如优化具有数百万个参数的大型神经网络,都可以在 TensorFlow 中使用短短的几行代码高效地实现。而且 TensorFlow 可以跨多个设备和线程进行扩展,并支持各种平台。
二、理解静态和动态形状
在 TensorFlow 中,tensor
有一个在图构建过程中就被决定的静态形状属性, 这个静态形状可以是未规定的,比如,我们可以定一个具有形状[None, 128]
大小的tensor
。
import TensorFlow as tf a = tf.placeholder(tf.float32, [None, 128])
这意味着tensor
的第一个维度可以是任何尺寸,这个将会在Session.run()
中被动态定义。当然,你可以查询一个tensor
的静态形状,如:
static_shape = a.shape.as_list() # returns [None, 128]
为了得到一个tensor
的动态形状,你可以调用tf.shape
操作,这将会返回指定tensor的形状,如:
dynamic_shape = tf.shape(a)
tensor
的静态形状可以通过方法Tensor_name.set_shape()
设定,如:
a.set_shape([32, 128]) # static shape of a is [32, 128]a.set_shape([None, 128]) # first dimension of a is determined dynamically
调用tf.reshape()
方法,你可以动态地重塑一个tensor
的形状,如:
a = tf.reshape(a, [32, 128])
可以定义一个函数,当静态形状的时候返回其静态形状,当静态形状不存在时,返回其动态形状,如:
def get_shape(tensor): static_shape = tensor.shape.as_list() dynamic_shape = tf.unstack(tf.shape(tensor)) dims = [s[1] if s[0] is None else s[0] for s in zip(static_shape, dynamic_shape)] return dims
现在,如果我们需要将一个三阶的tensor
转变为 2 阶的tensor
,通过折叠第二维和第三维成一个维度,我们可以通过我们刚才定义的get_shape()
方法进行,如:
b = tf.placeholder(tf.float32, [None, 10, 32]) shape = get_shape(b) b = tf.reshape(b, [shape[0], shape[1] * shape[2]])
注意到无论这个tensor
的形状是静态指定的还是动态指定的,这个代码都是有效的。事实上,我们可以写出一个通用的reshape
函数,用于折叠维度的任意列表:
import TensorFlow as tfimport numpy as npdef reshape(tensor, dims_list): shape = get_shape(tensor) dims_prod = [] for dims in dims_list: if isinstance(dims, int): dims_prod.append(shape[dims]) elif all([isinstance(shape[d], int) for d in dims]): dims_prod.append(np.prod([shape[d] for d in dims])) else: dims_prod.append(tf.prod([shape[d] for d in dims])) tensor = tf.reshape(tensor, dims_prod) return tensor
然后折叠第二个维度就变得特别简单了。
b = tf.placeholder(tf.float32, [None, 10, 32]) b = reshape(b, [0, [1, 2]])
三、作用域和何时使用它
在 TensorFlow 中,变量和张量有一个名字属性,用于作为他们在图中的标识。如果你在创造变量或者张量的时候,不给他们显式地指定一个名字,那么 TF 将会自动地,隐式地给他们分配名字,如:
a = tf.constant(1) print(a.name) # prints "Const:0"b = tf.Variable(1) print(b.name) # prints "Variable:0"
你也可以在定义的时候,通过显式地给变量或者张量命名,这样将会重写他们的默认名,如:
a = tf.constant(1, name="a") print(a.name) # prints "b:0"b = tf.Variable(1, name="b") print(b.name) # prints "b:0"
TF 引进了两个不同的上下文管理器,用于更改张量或者变量的名字,第一个就是tf.name_scope
,如:
with tf.name_scope("scope"): a = tf.constant(1, name="a") print(a.name) # prints "scope/a:0" b = tf.Variable(1, name="b") print(b.name) # prints "scope/b:0" c = tf.get_variable(name="c", shape=[]) print(c.name) # prints "c:0"
我们注意到,在 TF 中,我们有两种方式去定义一个新的变量,通过tf.Variable()
或者调用tf.get_variable()
。在调用tf.get_variable()
的时候,给予一个新的名字,将会创建一个新的变量,但是如果这个名字并不是一个新的名字,而是已经存在过这个变量作用域中的,那么就会抛出一个ValueError
异常,意味着重复声明一个变量是不被允许的。
tf.name_scope()
只会影响到通过调用tf.Variable
创建的张量和变量的名字,而不会影响到通过调用tf.get_variable()
创建的变量和张量。
和tf.name_scope()
不同,tf.variable_scope()
也会修改,影响通过tf.get_variable()
创建的变量和张量,如:
with tf.variable_scope("scope"): a = tf.constant(1, name="a") print(a.name) # prints "scope/a:0" b = tf.Variable(1, name="b") print(b.name) # prints "scope/b:0" c = tf.get_variable(name="c", shape=[]) print(c.name) # prints "scope/c:0"with tf.variable_scope("scope"): a1 = tf.get_variable(name="a", shape=[]) a2 = tf.get_variable(name="a", shape=[]) # Disallowed
但是如果我们真的想要重复使用一个先前声明过了变量怎么办呢?变量管理器同样提供了一套机制去实现这个需求:
with tf.variable_scope("scope"): a1 = tf.get_variable(name="a", shape=[])with tf.variable_scope("scope", reuse=True): a2 = tf.get_variable(name="a", shape=[]) # OKThis becomes handy for example when using built-in neural network layers: features1 = tf.layers.conv2d(image1, filters=32, kernel_size=3)# Use the same convolution weights to process the second image:with tf.variable_scope(tf.get_variable_scope(), reuse=True): features2 = tf.layers.conv2d(image2, filters=32, kernel_size=3)
这个语法可能看起来并不是特别的清晰明了。特别是,如果你在模型中想要实现一大堆的变量共享,你需要追踪各个变量,比如说什么时候定义新的变量,什么时候要复用他们,这些将会变得特别麻烦而且容易出错,因此 TF 提供了 TF 模版自动解决变量共享的问题:
conv3x32 = tf.make_template("conv3x32", lambda x: tf.layers.conv2d(x, 32, 3)) features1 = conv3x32(image1) features2 = conv3x32(image2) # Will reuse the convolution weights.
你可以将任何函数都转换为 TF 模版。当第一次调用这个模版的时候,在这个函数内声明的变量将会被定义,同时在接下来的连续调用中,这些变量都将自动地复用。
四、广播的优缺点
TensorFlow 支持广播机制,可以广播逐元素操作。正常情况下,当你想要进行一些操作如加法,乘法时,你需要确保操作数的形状是相匹配的,如:你不能将一个具有形状[3, 2]
的张量和一个具有[3,4]
形状的张量相加。但是,这里有一个特殊情况,那就是当你的其中一个操作数是一个某个维度为一的张量的时候,TF 会隐式地填充它的单一维度方向,以确保和另一个操作数的形状相匹配。所以,对一个[3,2]
的张量和一个[3,1]
的张量相加在 TF 中是合法的。
import TensorFlow as tf a = tf.constant([[1., 2.], [3., 4.]]) b = tf.constant([[1.], [2.]])# c = a + tf.tile(b, [1, 2])c = a + b
广播机制允许我们在隐式情况下进行填充,而这可以使得我们的代码更加简洁,并且更有效率地利用内存,因为我们不需要另外储存填充操作的结果。一个可以表现这个优势的应用场景就是在结合具有不同长度的特征向量的时候。为了拼接具有不同长度的特征向量,我们一般都先填充输入向量,拼接这个结果然后进行之后的一系列非线性操作等。这是一大类神经网络架构的共同模式。
a = tf.random_uniform([5, 3, 5]) b = tf.random_uniform([5, 1, 6])# concat a and b and apply nonlinearitytiled_b = tf.tile(b, [1, 3, 1]) c = tf.concat([a, tiled_b], 2) d = tf.layers.dense(c, 10, activation=tf.nn.relu)
但是这个可以通过广播机制更有效地完成。我们利用事实f(m(x+y))=f(mx+my)f(m(x+y))=f(mx+my)f(m(x+y))=f(mx+my)
,简化我们的填充操作。因此,我们可以分离地进行这个线性操作,利用广播机制隐式地完成拼接操作。
pa = tf.layers.dense(a, 10, activation=None) pb = tf.layers.dense(b, 10, activation=None) d = tf.nn.relu(pa + pb)
事实上,这个代码足够通用,并且可以在具有任意形状的张量间应用:
def merge(a, b, units, activation=tf.nn.relu): pa = tf.layers.dense(a, units, activation=None) pb = tf.layers.dense(b, units, activation=None) c = pa + pb if activation is not None: c = activation(c) return c
一个更为通用函数形式如上所述:
目前为止,我们讨论了广播机制的优点,但是同样的广播机制也有其缺点,隐式假设几乎总是使得调试变得更加困难,考虑下面的例子:
a = tf.constant([[1.], [2.]]) b = tf.constant([1., 2.]) c = tf.reduce_sum(a + b)
你猜这个结果是多少?如果你说是 6,那么你就错了,答案应该是 12。这是因为当两个张量的阶数不匹配的时候,在进行元素间操作之前,TF 将会自动地在更低阶数的张量的第一个维度开始扩展,所以这个加法的结果将会变为[[2, 3], [3, 4]]
,所以这个reduce
的结果是12.
解决这种麻烦的方法就是尽可能地显式使用。我们在需要reduce
某些张量的时候,显式地指定维度,然后寻找这个 bug 就会变得简单:
a = tf.constant([[1.], [2.]]) b = tf.constant([1., 2.]) c = tf.reduce_sum(a + b, 0)
这样,c
的值就是[5, 7]
,我们就容易猜到其出错的原因。一个更通用的法则就是总是在reduce
操作和在使用tf.squeeze
中指定维度。
五、向 TensorFlow 投喂数据
TensorFlow 被设计可以在大规模的数据情况下高效地运行。所以你需要记住千万不要“饿着”你的 TF 模型,这样才能得到最好的表现。一般来说,一共有三种方法可以“投喂”你的模型。
常数方式(tf.constant
)
最简单的方式莫过于直接将数据当成常数嵌入你的计算图中,如:
import TensorFlow as tfimport numpy as np actual_data = np.random.normal(size=[100]) data = tf.constant(actual_data)
这个方式非常地高效,但是却不灵活。这个方式存在一个大问题就是为了在其他数据集上复用你的模型,你必须要重写你的计算图,而且你必须同时加载所有数据,并且一直保存在内存里,这意味着这个方式仅仅适用于小数剧集的情况。
占位符方式(tf.placeholder
)
可以通过占位符的方式解决刚才常数投喂网络的问题,如:
import TensorFlow as tfimport numpy as np data = tf.placeholder(tf.float32) prediction = tf.square(data) + 1actual_data = np.random.normal(size=[100]) tf.Session().run(prediction, feed_dict={data: actual_data})
占位符操作符返回一个张量,他的值在会话(session
)中通过人工指定的feed_dict
参数得到。
python 操作(tf.py_func
)
还可以通过利用 python 操作投喂数据:
def py_input_fn(): actual_data = np.random.normal(size=[100]) return actual_data data = tf.py_func(py_input_fn, [], (tf.float32))
python 操作允许你将一个常规的 python 函数转换成一个 TF 的操作。
利用 TF 的自带数据集 API
最值得推荐的方式就是通过 TF 自带的数据集 API 进行投喂数据,如:
actual_data = np.random.normal(size=[100]) dataset = tf.contrib.data.Dataset.from_tensor_slices(actual_data) data = dataset.make_one_shot_iterator().get_next()
如果你需要从文件中读入数据,你可能需要将文件转化为TFrecord
格式,这将会使得整个过程更加有效
dataset = tf.contrib.data.Dataset.TFRecordDataset(path_to_data)
查看官方文档,了解如何将你的数据集转化为TFrecord
格式。
dataset = ... dataset = dataset.cache()if mode == tf.estimator.ModeKeys.TRAIN: dataset = dataset.repeat() dataset = dataset.shuffle(batch_size * 5) dataset = dataset.map(parse, num_threads=8) dataset = dataset.batch(batch_size)
在读入了数据之后,我们使用Dataset.cache()
方法,将其缓存到内存中,以求更高的效率。在训练模式中,我们不断地重复数据集,这使得我们可以多次处理整个数据集。我们也需要打乱数据集得到批量,这个批量将会有不同的样本分布。下一步,我们使用Dataset.map()
方法,对原始数据进行预处理,将数据转换成一个模型可以识别,利用的格式。然后,我们就通过Dataset.batch()
,创造样本的批量了。
六、利用运算符重载
和 Numpy 一样,TensorFlow 重载了很多 python 中的运算符,使得构建计算图更加地简单,并且使得代码具有可读性。
切片操作是重载的诸多运算符中的一个,它可以使得索引张量变得很容易:
z = x[begin:end] # z = tf.slice(x, [begin], [end-begin])
但是在使用它的过程中,你还是需要非常地小心。切片操作非常低效,因此最好避免使用,特别是在切片的数量很大的时候。为了更好地理解这个操作符有多么地低效,我们先观察一个例子。我们想要人工实现一个对矩阵的行进行reduce
操作的代码:
import TensorFlow as tfimport time x = tf.random_uniform([500, 10]) z = tf.zeros([10])for i in range(500): z += x[i] sess = tf.Session() start = time.time() sess.run(z) print("Took %f seconds." % (time.time() - start))
在笔者的 MacBook Pro 上,这个代码花费了 2.67 秒!那么耗时的原因是我们调用了切片操作 500 次,这个运行起来超级慢的!一个更好的选择是使用tf.unstack()
操作去将一个矩阵切成一个向量的列表,而这只需要一次就行!
z = tf.zeros([10])for x_i in tf.unstack(x): z += x_i
这个操作花费了 0.18 秒,当然,最正确的方式去实现这个需求是使用tf.reduce_sum()
操作:
z = tf.reduce_sum(x, axis=0)
这个仅仅使用了 0.008 秒,是原始实现的 300 倍!
TensorFlow 除了切片操作,也重载了一系列的数学逻辑运算,如:
z = -x # z = tf.negative(x)z = x + y # z = tf.add(x, y)z = x - y # z = tf.subtract(x, y)z = x * y # z = tf.mul(x, y)z = x / y # z = tf.div(x, y)z = x // y # z = tf.floordiv(x, y)z = x % y # z = tf.mod(x, y)z = x ** y # z = tf.pow(x, y)z = x @ y # z = tf.matmul(x, y)z = x > y # z = tf.greater(x, y)z = x >= y # z = tf.greater_equal(x, y)z = x < y # z = tf.less(x, y)z = x <= y # z = tf.less_equal(x, y)z = abs(x) # z = tf.abs(x)z = x & y # z = tf.logical_and(x, y)z = x | y # z = tf.logical_or(x, y)z = x ^ y # z = tf.logical_xor(x, y)z = ~x # z = tf.logical_not(x)
你也可以使用这些操作符的增广版本,如 x += y
和x **=2
同样是合法的。
注意到 python 不允许重载and
,or
和not
等关键字。
TensorFlow 也不允许把张量当成boolean
类型使用,因为这个很容易出错:
x = tf.constant(1.)if x: # 这个将会抛出TypeError错误 ...
如果你想要检查这个张量的值的话,你也可以使用tf.cond(x,...)
,或者使用if x is None
去检查这个变量的值。
有些操作是不支持的,比如说等于判断==
和不等于判断!=
运算符,这些在 numpy 中得到了重载,但在 TF 中没有重载。如果需要使用,请使用这些功能的函数版本tf.equal()
和tf.not_equal()
。
七、理解执行顺序和控制依赖
我们知道,TensorFlow 是属于符号式编程的,它不会直接运行定义了的操作,而是在计算图中创造一个相关的节点,这个节点可以用Session.run()
进行执行。这个使得 TF 可以在优化过程中决定优化的顺序,并且在运算中剔除一些不需要使用的节点,而这一切都发生在运行中。如果你只是在计算图中使用tf.Tensors
,你就不需要担心依赖问题,但是你更可能会使用tf.Variable()
,这个操作使得问题变得更加困难。笔者的建议是如果张量不能满足这个工作需求,那么仅仅使用Variables
就足够了。这个可能不够直观,我们不妨先观察一个例子:
import TensorFlow as tf a = tf.constant(1) b = tf.constant(2) a = a + b tf.Session().run(a)
计算a
将会返回 3,就像期望中的一样。注意到我们现在有 3 个张量,两个常数张量和一个储存加法结果的张量。注意到我们不能重写一个张量的值,如果我们想要改变张量的值,我们就必须要创建一个新的张量,就像我们刚才做的那样。
小提示:如果你没有显式地定义一个新的计算图,TF 将会自动地为你构建一个默认的计算图。你可以使用
tf.get_default_graph()
去获得一个计算图的句柄,然后,你就可以查看这个计算图了。比如,可以打印属于这个计算图的所有张量之类的的操作都是可以的。如:
print(tf.contrib.graph_editor.get_tensors(tf.get_default_graph()))
不像张量,变量可以更新,所以让我们用变量去实现我们刚才的需求:
a = tf.Variable(1) b = tf.constant(2) assign = tf.assign(a, a + b) sess = tf.Session() sess.run(tf.global_variables_initializer()) print(sess.run(assign))
同样,我们得到了 3,正如预期一样。注意到tf.assign()
返回的代表这个赋值操作的张量。目前为止,所有事情都显得很棒,但是让我们观察一个稍微有点复杂的例子吧:
a = tf.Variable(1) b = tf.constant(2) c = a + b assign = tf.assign(a, 5) sess = tf.Session()for i in range(10): sess.run(tf.global_variables_initializer()) print(sess.run([assign, c]))
注意到,张量c
并没有一个确定性的值。这个值可能是 3 或者 7,取决于加法和赋值操作谁先运行。
你应该也注意到了,你在代码中定义操作的顺序是不会影响到在 TF 运行时的执行顺序的,唯一会影响到执行顺序的是控制依赖。控制依赖对于张量来说是直接的。每一次你在操作中使用一个张量时,操作将会定义一个对于这个张量来说的隐式的依赖。但是如果你同时也使用了变量,事情就变得更糟糕了,因为变量可以取很多值。
当处理这些变量时,你可能需要显式地去通过使用tf.control_dependencies()
去控制依赖,如:
a = tf.Variable(1) b = tf.constant(2) c = a + bwith tf.control_dependencies([c]): assign = tf.assign(a, 5) sess = tf.Session()for i in range(10): sess.run(tf.global_variables_initializer()) print(sess.run([assign, c]))
这会确保赋值操作在加法操作之后被调用。
八、控制流操作:条件和循环
在构建复杂模型(如循环神经网络)时,你可能需要通过条件和循环来控制操作流。 在本节中,我们将介绍一些常用的控制流操作。
假设你要根据谓词决定,是否相乘或相加两个给定的张量。这可以简单地用tf.cond
实现,它充当 python "if" 函数:
a = tf.constant(1) b = tf.constant(2) p = tf.constant(True) x = tf.cond(p, lambda: a + b, lambda: a * b) print(tf.Session().run(x))
由于在这种情况下谓词为True
,因此输出将是加法的结果,即 3。
大多数情况下,使用 TensorFlow 时,你使用的是大型张量,并希望批量执行操作。 相关的条件操作是tf.where
,类似于tf.cond
,它接受谓词,但是基于批量中的条件来选择输出。
a = tf.constant([1, 1]) b = tf.constant([2, 2]) p = tf.constant([True, False]) x = tf.where(p, a + b, a * b)print(tf.Session().run(x))
这将返回[3,2]
。
另一种广泛使用的控制流操作是tf.while_loop
。 它允许在 TensorFlow 中构建动态循环,这些循环操作可变长度的序列。 让我们看看如何使用tf.while_loops
生成斐波那契序列:
n = tf.constant(5)def cond(i, a, b): return i < ndef body(i, a, b): return i + 1, b, a + b i, a, b = tf.while_loop(cond, body, (2, 1, 1)) print(tf.Session().run(b))
这将打印 5。除了循环变量的初始值之外,tf.while_loops
还接受条件函数和循环体函数。 然后通过多次调用循环体函数来更新这些循环变量,直到条件返回False
。
现在想象我们想要保留整个斐波那契序列。 我们可以更新我们的循环体来记录当前值的历史:
n = tf.constant(5)def cond(i, a, b, c): return i < ndef body(i, a, b, c): return i + 1, b, a + b, tf.concat([c, [a + b]], 0) i, a, b, c = tf.while_loop(cond, body, (2, 1, 1, tf.constant([1, 1]))) print(tf.Session().run(c))
现在,如果你尝试运行它,TensorFlow 会报错,第四个循环变量的形状改变了。 因此,你必须明确指出它是有意的:
i, a, b, c = tf.while_loop( cond, body, (2, 1, 1, tf.constant([1, 1])), shape_invariants=(tf.TensorShape([]), tf.TensorShape([]), tf.TensorShape([]), tf.TensorShape([None])))
这不仅变得丑陋,而且效率也有些低下。 请注意,我们正在构建许多我们不使用的中间张量。 TensorFlow 为这种不断增长的阵列提供了更好的解决方案。 看看tf.TensorArray
。 让我们这次用张量数组做同样的事情:
n = tf.constant(5) c = tf.TensorArray(tf.int32, n) c = c.write(0, 1) c = c.write(1, 1)def cond(i, a, b, c): return i < ndef body(i, a, b, c): c = c.write(i, a + b) return i + 1, b, a + b, c i, a, b, c = tf.while_loop(cond, body, (2, 1, 1, c)) c = c.stack() print(tf.Session().run(c))
TensorFlow while 循环和张量数组是构建复杂的循环神经网络的基本工具。 作为练习,尝试使用tf.while_loops
实现集束搜索(beam search)。 使用张量数组可以使效率更高吗?
九、使用 Python 操作设计核心和高级可视化
TensorFlow 中的操作核心完全用 C++ 编写,用于提高效率。 但是用 C++ 编写 TensorFlow 核心可能会非常痛苦。因此,在花费数小时实现核心之前,你可能希望快速创建原型,但效率低下。使用tf.py_func()
,你可以将任何一段 python 代码转换为 TensorFlow 操作。
例如,这就是如何在 TensorFlow 中将一个简单的 ReLU 非线性核心实现为 python 操作:
import numpy as npimport tensorflow as tfimport uuiddef relu(inputs): # Define the op in python def _relu(x): return np.maximum(x, 0.) # Define the op's gradient in python def _relu_grad(x): return np.float32(x > 0) # An adapter that defines a gradient op compatible with TensorFlow def _relu_grad_op(op, grad): x = op.inputs[0] x_grad = grad * tf.py_func(_relu_grad, [x], tf.float32) return x_grad # Register the gradient with a unique id grad_name = "MyReluGrad_" + str(uuid.uuid4()) tf.RegisterGradient(grad_name)(_relu_grad_op) # Override the gradient of the custom op g = tf.get_default_graph() with g.gradient_override_map({"PyFunc": grad_name}): output = tf.py_func(_relu, [inputs], tf.float32) return output
要验证梯度是否正确,可以使用 TensorFlow 的梯度检查器:
x = tf.random_normal([10]) y = relu(x * x)with tf.Session(): diff = tf.test.compute_gradient_error(x, [10], y, [10]) print(diff)
compute_gradient_error()
以数值方式计算梯度,并返回提供的梯度的差。 我们想要的是非常低的差。
请注意,此实现效率非常低,仅适用于原型设计,因为 python 代码不可并行化,不能在 GPU 上运行。 一旦验证了你的想法,你肯定会想把它写成 C++ 核心。
在实践中,我们通常使用 python 操作在 Tensorboard 上进行可视化。 考虑你正在构建图像分类模型,并希望在训练期间可视化模型的预测情况。TensorFlow 允许使用tf.summary.image()
函数可视化图像:
image = tf.placeholder(tf.float32) tf.summary.image("image", image)
但这只能显示输入图像。 为了显示预测,你必须找到一种向图像添加注释的方法,这对现有操作几乎是不可能的。 更简单的方法是在 python 中绘制,并将其包装在 python 操作中:
import ioimport matplotlib.pyplot as pltimport numpy as npimport PILimport tensorflow as tfdef visualize_labeled_images(images, labels, max_outputs=3, name="image"): def _visualize_image(image, label): # Do the actual drawing in python fig = plt.figure(figsize=(3, 3), dpi=80) ax = fig.add_subplot(111) ax.imshow(image[::-1,...]) ax.text(0, 0, str(label), horizontalalignment="left", verticalalignment="top") fig.canvas.draw() # Write the plot as a memory file. buf = io.BytesIO() data = fig.savefig(buf, format="png") buf.seek(0) # Read the image and convert to numpy array img = PIL.Image.open(buf) return np.array(img.getdata()).reshape(img.size[0], img.size[1], -1) def _visualize_images(images, labels): # Only display the given number of examples in the batch outputs = [] for i in range(max_outputs): output = _visualize_image(images[i], labels[i]) outputs.append(output) return np.array(outputs, dtype=np.uint8) # Run the python op. figs = tf.py_func(_visualize_images, [images, labels], tf.uint8) return tf.summary.image(name, figs)
请注意,由于摘要通常仅仅偶尔(不是每步)求值一次,因此可以在实践中使用此实现而不必担心效率。
十、多 GPU 和数据并行
如果你使用 C++ 等语言为单个 CPU 核心编写软件,并使其在多个 GPU 上并行运行,则需要从头开始重写软件。 但TensorFlow并非如此。 由于其象征性,TensorFlow 可以隐藏所有这些复杂性,使得无需在多个 CPU 和 GPU 上扩展程序。
让我们以在 CPU 上相加两个向量的简单示例开始:
import tensorflow as tfwith tf.device(tf.DeviceSpec(device_type="CPU", device_index=0)): a = tf.random_uniform([1000, 100]) b = tf.random_uniform([1000, 100]) c = a + b tf.Session().run(c)
GPU 上可以做相同的事情:
with tf.device(tf.DeviceSpec(device_type="GPU", device_index=0)): a = tf.random_uniform([1000, 100]) b = tf.random_uniform([1000, 100]) c = a + b
但是,如果我们有两个 GPU 并且想要同时使用它们呢? 为此,我们可以拆分数据并使用单独的 GPU 来处理每一半:
split_a = tf.split(a, 2) split_b = tf.split(b, 2) split_c = []for i in range(2): with tf.device(tf.DeviceSpec(device_type="GPU", device_index=i)): split_c.append(split_a[i] + split_b[i]) c = tf.concat(split_c, axis=0)
让我们以更一般的形式重写它,以便我们可以用任何其他操作替换加法:
def make_parallel(fn, num_gpus, **kwargs): in_splits = {} for k, v in kwargs.items(): in_splits[k] = tf.split(v, num_gpus) out_split = [] for i in range(num_gpus): with tf.device(tf.DeviceSpec(device_type="GPU", device_index=i)): with tf.variable_scope(tf.get_variable_scope(), reuse=i > 0): out_split.append(fn(**{k : v[i] for k, v in in_splits.items()})) return tf.concat(out_split, axis=0)def model(a, b): return a + b c = make_parallel(model, 2, a=a, b=b)
你可以使用任何接受一组张量作为输入的函数替换模型,并在输入和输出都是批量的条件下,返回张量作为结果。请注意,我们还添加了一个变量作用域并将复用设置为True
。这确保我们使用相同的变量来处理两个分割。在我们的下一个例子中,这将变得很方便。
让我们看一个稍微更实际的例子。我们想在多个 GPU 上训练神经网络。在训练期间,我们不仅需要计算正向传播,还需要计算反向传播(梯度)。但是我们如何并行计算梯度呢? 事实证明这很简单。
回想一下第一节,我们想要将二次多项式拟合到一组样本。我们重新组织了一些代码,以便在模型函数中进行大量操作:
import numpy as npimport tensorflow as tfdef model(x, y): w = tf.get_variable("w", shape=[3, 1]) f = tf.stack([tf.square(x), x, tf.ones_like(x)], 1) yhat = tf.squeeze(tf.matmul(f, w), 1) loss = tf.square(yhat - y) return loss x = tf.placeholder(tf.float32) y = tf.placeholder(tf.float32) loss = model(x, y) train_op = tf.train.AdamOptimizer(0.1).minimize( tf.reduce_mean(loss))def generate_data(): x_val = np.random.uniform(-10.0, 10.0, size=100) y_val = 5 * np.square(x_val) + 3 return x_val, y_val sess = tf.Session() sess.run(tf.global_variables_initializer())for _ in range(1000): x_val, y_val = generate_data() _, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val}) _, loss_val = sess.run([train_op, loss], {x: x_val, y: y_val}) print(sess.run(tf.contrib.framework.get_variables_by_name("w")))
现在让我们使用我们刚刚编写的make_parallel
来并行化它。我们只需要从上面的代码中更改两行代码:
loss = make_parallel(model, 2, x=x, y=y) train_op = tf.train.AdamOptimizer(0.1).minimize( tf.reduce_mean(loss), colocate_gradients_with_ops=True)
为了更改为梯度的并行化反向传播,我们需要的唯一的东西是,将colocate_gradients_with_ops
标志设置为True
。这可确保梯度操作和原始操作在相同的设备上运行。
十一、调试 TensorFlow 模型
与常规 python 代码相比,TensorFlow 的符号性质使调试 TensorFlow 代码变得相对困难。 在这里,我们介绍 TensorFlow 的一些附带工具,使调试更容易。
使用 TensorFlow 时可能出现的最常见错误,可能是将形状错误的张量传递给操作。 许多 TensorFlow 操作可以操作不同维度和形状的张量。 这在使用 API 时很方便,但在出现问题时可能会导致额外的麻烦。
例如,考虑tf.matmul
操作,它可以相乘两个矩阵:
a = tf.random_uniform([2, 3]) b = tf.random_uniform([3, 4]) c = tf.matmul(a, b) # c is a tensor of shape [2, 4]
但同样的函数也可以进行批量矩阵乘法:
a = tf.random_uniform([10, 2, 3]) b = tf.random_uniform([10, 3, 4]) tf.matmul(a, b) # c is a tensor of shape [10, 2, 4]
我们之前在广播部分谈到的另一个例子,是支持广播的加法操作:
a = tf.constant([[1.], [2.]]) b = tf.constant([1., 2.]) c = a + b # c is a tensor of shape [2, 2]
使用tf.assert*
操作验证你的张量
减少不必要行为的可能性的一种方法,是使用tf.assert*
操作,明确验证中间张量的维度或形状。
a = tf.constant([[1.], [2.]]) b = tf.constant([1., 2.]) check_a = tf.assert_rank(a, 1) # This will raise an InvalidArgumentError exceptioncheck_b = tf.assert_rank(b, 1)with tf.control_dependencies([check_a, check_b]): c = a + b # c is a tensor of shape [2, 2]
请记住,断言节点像其他操作一样,是图形的一部分,如果不进行求值,则会在Session.run()
期间进行修剪。 因此,请确保为断言操作创建显式依赖,来强制 TensorFlow 执行它们。
你还可以使用断言,在运行时验证张量的值:
check_pos = tf.assert_positive(a)
断言操作的完整列表请见官方文档。
使用tf.Print
记录张量的值
用于调试的另一个有用的内置函数是tf.Print
,它将给定的张量记录到标准错误:
input_copy = tf.Print(input, tensors_to_print_list)
请注意,tf.Print
返回第一个参数的副本作为输出。强制tf.Print
运行的一种方法,是将其输出传递给另一个执行的操作。 例如,如果我们想在添加张量a
和b
之前,打印它们的值,我们可以这样做:
a = ... b = ... a = tf.Print(a, [a, b]) c = a + b
或者,我们可以手动定义控制依赖。
使用tf.compute_gradient_error
检查梯度
TensorFlow 中并非所有操作都带有梯度,并且很容易在无意中构建 TensorFlow 无法计算梯度的图形。
我们来看一个例子:
import tensorflow as tfdef non_differentiable_entropy(logits): probs = tf.nn.softmax(logits) return tf.nn.softmax_cross_entropy_with_logits(labels=probs, logits=logits) w = tf.get_variable("w", shape=[5]) y = -non_differentiable_entropy(w) opt = tf.train.AdamOptimizer() train_op = opt.minimize(y) sess = tf.Session() sess.run(tf.global_variables_initializer())for i in range(10000): sess.run(train_op) print(sess.run(tf.nn.softmax(w)))
我们使用tf.nn.softmax_cross_entropy_with_logits
来定义类别分布的熵。然后我们使用 Adam 优化器来找到具有最大熵的权重。如果你通过了信息论课程,你就会知道均匀分布的熵最大。 所以你期望结果是[0.2,0.2,0.2,0.2,0.2]
。 但如果你运行这个,你可能会得到意想不到的结果:
作者:ApacheCN_飞龙
链接:https://www.jianshu.com/p/57ce5a27a5f3
共同学习,写下你的评论
评论加载中...
作者其他优质文章