gpt4 book ai didi

tensorflow - Google Colab TPU 比 GPU 花费更多时间

转载 作者:行者123 更新时间:2023-12-03 16:24:37 24 4
gpt4 key购买 nike

下面是我使用的代码。我注释掉了将我的模型转换为 TPU 模型的行。使用 GPU 处理相同数量的数据,一个纪元需要 7 秒,而使用 TPU 则需要 90 秒。

    Inp = tf.keras.Input(name='input', shape=(input_dim,), dtype=tf.float32)
x = tf.keras.layers.Dense(900, kernel_initializer='uniform', activation='relu', input_dim=input_dim, name = 'Dense_01')(Inp)
x = tf.keras.layers.Dropout(0.3, name = 'Dropout_02')(x)
output = tf.keras.layers.Dense(stop_criteria, activation='softmax',name = 'Dense_02')(x)

model = tf.keras.Model(inputs=[Inp], outputs=[output])
opt = tf.train.AdamOptimizer(.001)
model.compile(optimizer=opt, loss='categorical_crossentropy', metrics=['acc'])

'''tpu_model = tf.contrib.tpu.keras_to_tpu_model(model,
strategy=tf.contrib.tpu.TPUDistributionStrategy(
tf.contrib.cluster_resolver.TPUClusterResolver(TPU_ADDRESS)))'''
model.fit(X_tra, y_tra, epochs=5, batch_size=batch_size, shuffle=False,
validation_split=0.1, verbose=2)

这是 notebook 的链接

最佳答案

您是否尝试过下面示例中的 tpu_model.fit_generator 方法?另一部分看起来不错。此外,一个问题可能是 Adam Optimizer 的使用。有……关于它,但我忘记了链接在哪里。尝试另一个优化器和下面的代码,如果另一个优化器工作,你知道它一定是 smth。使用 Adam 优化器。

tf.keras.backend.clear_session()

training_model = lstm_model(seq_len=100, batch_size=128, stateful=False)

tpu_model = tf.contrib.tpu.keras_to_tpu_model(
training_model,
strategy=tf.contrib.tpu.TPUDistributionStrategy(
tf.contrib.cluster_resolver.TPUClusterResolver(TPU_WORKER)))

tpu_model.fit_generator(
training_generator(seq_len=100, batch_size=1024),
steps_per_epoch=100,
epochs=10,
)
tpu_model.save_weights('/tmp/bard.h5', overwrite=True)

关于tensorflow - Google Colab TPU 比 GPU 花费更多时间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53506781/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com