如何用浮点数数据制作tfrecords?
求助各位大神:
在制作tfrecords的时候,如果是整数数据或者字符串数据,装进去读出来都没问题,网上很多的例子都是拿图片的路径(字符串数据)做教程的。
但如果是浮点数数据,下方案例中,那从tfrecords读出来的一个tensor的size则放大了一倍,从3000变成了6000(以下方代码为例)。
这是为什么?有没有什么方案解决?
这不是说我要作死一定要先标准化一下才写入tfrecords而不是之后再tf.标准化,而是我的数据本身来自MySQL,就是浮点数数据.....
#导入库
import numpy as np
import tensorflow as tf
#生成数据
data= np.arange(3000).reshape((500,6)) #都是整数数据
data=(data-np.mean(data))/np.std(data) #标准化后变成浮点数数据
data=data.tobytes()
label=1
#将数据写入tfrecords
writer= tf.python_io.TFRecordWriter("test.tfrecords")
example = tf.train.Example(features=tf.train.Features(
feature={'label': tf.train.Feature(int64_list=tf.train.Int64List(value=[label])),
'data': tf.train.Feature(bytes_list=tf.train.BytesList(value=[data]))}))
writer.write(example.SerializeToString())
writer.close()
#从tfrecords中读取数据
filename_queue = tf.train.string_input_producer(["test.tfrecords"])
reader = tf.TFRecordReader()
_, serialized_example = reader.read(filename_queue)
data_features = tf.parse_single_example(
serialized_example,
features={'label': tf.FixedLenFeature([], tf.int64),
'data': tf.FixedLenFeature([], tf.string)})
data = tf.decode_raw(data_features['data'], tf.float32)
data = tf.reshape(data, [500,6])
label = tf.cast(data_features['label'], tf.int32)
#查看、打印数据
with tf.Session() as sess:
i = 0
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(coord=coord)
try:
while not coord.should_stop() and i<1:
# just plot one batch size
data, label = sess.run([data, label])
print(data, label)
i+=1
except tf.errors.OutOfRangeError:
print('done!')
finally:
coord.request_stop()
coord.join(threads)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
是float64转float32时出了问题