TensorFlow深度学习从入门到进阶
上QQ阅读APP看书,第一时间看更新

2.3 会话的实现

TensorFlow中使用会话(session)来执行定义好的运算,会话拥有并管理TensorFlow程序运行时的所有资源,当计算完成之后需要关闭会话,以帮助系统回收资源。

可以明确调用会话生成函数和关闭函数:

运行程序,输出如下:

[3.5.]

如果程序在执行中异常退出,可能不能关闭会话,所以可以使用Python上下文管理器的机制将所有的计算放在“with”的内部,在代码块中执行时就可以保持在某种运行状态,而当离开该代码块时就结束当前状态,省去会话关闭代码:

TensorFlow 不会自动生成默认的会话,需要程序员将会话指定为默认会话,则TensorFlow执行时会自动启用此会话:

在使用Python编写时,可以使用函数直接构建默认会话:

会话可以通过ConfigProto Protocol Buffer来进行功能配置,类似于并行的线程数、GPU分配策略、运算超过时间等参数设置。比较常用的是以下两个:

第一个allow_soft_placement参数,当其为True时,在以下任意一个条件成立时,GPU上的运算可以放到CPU上计算:

● 运算不能在GPU上运行。

● 没有空闲GPU可使用。

● 运算输入包含对CPU计算结果的引用。

当设置为True时,代码的可移植性更强。

第二个log_device_placement参数,当其为True时,日志中将会记录每个节点被安排在了哪个设备上,但会增加日志量。

如果上述代码在没有GPU的机器上运行,会获得以下输出:

Device mapping:no known devices.

下面通过一个例子来演示张量、计算图及会话的相关操作。

【例2-1】 张量、计算图及会话的相关操作。

import tensorflow as tf