tensorflow 分布式 全局变量 数据并行 同步训练 in-graph 实例
2016-12-21 15:40
585 查看
create_worker.py
compute-pi.py
运行办法:
import sys task_number = int(sys.argv[1]) import tensorflow as tf cluster = tf.train.ClusterSpec({"local": ["localhost:2222", "localhost:2223"]}) server = tf.train.Server(cluster, job_name="local", task_index=task_number) print("Starting server #{}".format(task_number)) server.start() server.join()
compute-pi.py
import numpy as np import tensorflow as tf import sys cluster = tf.train.ClusterSpec({"local": ["localhost:2222", "localhost:2223"]}) point_num = int(sys.argv[1]) x = tf.placeholder(tf.float32, point_num) y = tf.placeholder(tf.float32, point_num) with tf.device("/job:local/task:1"): batch_x1 = tf.slice(x, [0], [point_num/2]) batch_y1 = tf.slice(y, [0], [point_num/2]) result1 = tf.add(tf.square(batch_x1), tf.square(batch_y1)) with tf.device("/job:local/task:0"): batch_x2 = tf.slice(x, [point_num/2], [-1]) batch_y2 = tf.slice(y, [point_num/2], [-1]) result2 = tf.add(tf.square(batch_x2), tf.square(batch_y2)) distance = tf.concat(0,[result1, result2]) with tf.Session("grpc://localhost:2222") as sess: result = sess.run(distance, feed_dict={x: np.random.random(point_num), y: np.random.random(point_num)}) sum = 0; # count the point in the quadrant for i in range(point_num): if result[i] < 1: sum += 1; print "pi = %f" % (float(sum) / point_num * 4)
运行办法:
python compute-pi.py 1000 python create_worker 0 python create_worker 1
相关文章推荐
- tensorflow 分布式 数据并行 同步训练 between-graph 实例 (1)
- tensorflow 分布式 数据并行 同步训练 between-graph 实例
- tensorflow 分布式 数据并行 同步训练 between-graph 实例
- tensorflow 分布式 数据并行 异步训练 between-graph 自己写的实例 RNN
- tensorflow 分布式 数据并行 异步训练 between-graph 实例
- tensorflow 分布式 数据并行 异步训练 between-graph 自己写的实例 CNN
- tensorflow 分布式 数据并行 in-graph 自己写的实例
- tensorflow 分布式 MNIST 实例 ,between-graph,CPU
- ajax同步设置,解决ajax请求内对全局变量赋值(data的数据)
- ehcache 分布式集群同步数据实例
- ajax同步提交数据,并把请求返回值赋值给全局变量
- Tensorflow学习笔记:模型训练数据的保存和恢复的简单实例
- 人工智能 tensorflow框架-->生成三维数据,然后用一个平面拟合它,伴随训练次数的增加,拟合结果越接近预期值 实例04
- Tensorflow 训练模型数据freeze固话保存在Graph中
- ehcache 分布式集群同步数据实例
- 线程间无需特别的手段进行通信,因为线程间可以共享数据结构,也就是一个全局变量可以被两个线程同时使用,不过要注意的是线程间需要做好同步。
- 数据库名,数据库实例名SID,数据库服务名,全局数据库名
- 数据库名,数据库实例名SID,数据库服务名,全局数据库名
- 全局变量的初值——Ada应用实例之七
- 当调用的DLL中有全局变量时调用它的多个实例是否共享同一个全局变量