我正在尝试从 6 个 .bin 文件中读取 CIFAR-10 数据集,然后创建一个可初始化的迭代器。这是我下载数据的站点,它还包含二进制文件结构的描述。每个文件包含 2500 张图像。然而,生成的迭代器只为每个文件生成一个张量,一个大小为 (2500,3703) 的张量。这是我的代码import tensorflow as tffilename_dataset = tf.data.Dataset.list_files("cifar-10-batches-bin/*.bin") image_dataset = filename_dataset.map(lambda x: tf.decode_raw(tf.read_file(x), tf.float32))iter_ = image_dataset.make_initializable_iterator()next_file_data = iter_.get_next()I next_file_data = tf.reshape(next_file_data, [-1,3073])next_file_img_data, next_file_labels = next_file_data[:,:-1], next_file_data[:,-1]next_file_img_data = tf.reshape(next_file_img_data, [-1,32,32,3])init_op = iter_.initializerwith tf.Session() as sess: sess.run(init_op) print(next_file_img_data.eval().shape) _______________________________________________________________________>> (2500,32,32,3)前两行基于此答案。我希望能够指定由 生成的图像数量get_next(),batch()而不是使用每个 .bin 文件中的图像数量,这里是 2500。这里已经有一个关于展平数据集的问题,但我不清楚答案。特别是,该问题似乎包含来自在别处定义的类函数的代码片段,我不确定如何实现它。我也试过用 来创建数据集tf.data.Dataset.from_tensor_slices(),用 替换上面的第一行import osfilenames = [os.path.join('cifar-10-batches-bin',f) for f in os.listdir("cifar-10-batches-bin") if f.endswith('.bin')]filename_dataset = tf.data.Dataset.from_tensor_slices(filenames)但这并没有解决问题。任何帮助将不胜感激。谢谢。
添加回答
举报
0/150
提交
取消