1 回答
TA贡献1906条经验 获得超3个赞
所以我最终要做的是手动进行所有预处理并为每个包含预处理序列的库存保存一个 .npy 文件,然后使用手动创建的生成器进行批量处理:
class seq_generator():
def __init__(self, list_of_filepaths):
self.usedDict = dict()
for path in list_of_filepaths:
self.usedDict[path] = []
def generate(self):
while True:
path = np.random.choice(list(self.usedDict.keys()))
stock_array = np.load(path)
random_sequence = np.random.randint(stock_array.shape[0])
if random_sequence not in self.usedDict[path]:
self.usedDict[path].append(random_sequence)
yield stock_array[random_sequence, :, :]
train_generator = seq_generator(list_of_filepaths)
train_dataset = tf.data.Dataset.from_generator(seq_generator.generate(),
output_types=(tf.float32, tf.float32),
output_shapes=(n_timesteps, n_features))
train_dataset = train_dataset.batch(batch_size)
Wherelist_of_filepaths只是预处理 .npy 数据的路径列表。
这将:
加载随机股票的预处理 .npy 数据
随机选择一个序列
检查序列的索引是否已经被使用
usedDict
如果不:
附加该序列的索引
usedDict
以跟踪不向模型提供两次相同的数据产生序列
这意味着生成器将在每次“调用”时从随机股票中提供单个唯一序列,使我能够使用来自 Tensorflows数据集类型的.from_generator()
和方法。.batch()
添加回答
举报