上QQ阅读APP看书,第一时间看更新
2.3 会话的实现
TensorFlow中使用会话(session)来执行定义好的运算,会话拥有并管理TensorFlow程序运行时的所有资源,当计算完成之后需要关闭会话,以帮助系统回收资源。
可以明确调用会话生成函数和关闭函数:
运行程序,输出如下:
[3.5.]
如果程序在执行中异常退出,可能不能关闭会话,所以可以使用Python上下文管理器的机制将所有的计算放在“with”的内部,在代码块中执行时就可以保持在某种运行状态,而当离开该代码块时就结束当前状态,省去会话关闭代码:
TensorFlow 不会自动生成默认的会话,需要程序员将会话指定为默认会话,则TensorFlow执行时会自动启用此会话:
在使用Python编写时,可以使用函数直接构建默认会话:
会话可以通过ConfigProto Protocol Buffer来进行功能配置,类似于并行的线程数、GPU分配策略、运算超过时间等参数设置。比较常用的是以下两个:
第一个allow_soft_placement参数,当其为True时,在以下任意一个条件成立时,GPU上的运算可以放到CPU上计算:
● 运算不能在GPU上运行。
● 没有空闲GPU可使用。
● 运算输入包含对CPU计算结果的引用。
当设置为True时,代码的可移植性更强。
第二个log_device_placement参数,当其为True时,日志中将会记录每个节点被安排在了哪个设备上,但会增加日志量。
如果上述代码在没有GPU的机器上运行,会获得以下输出:
Device mapping:no known devices.
下面通过一个例子来演示张量、计算图及会话的相关操作。
【例2-1】 张量、计算图及会话的相关操作。
import tensorflow as tf