gpt4 book ai didi

tensorflow - 用于云 ML 引擎的 Keras ImageDataGenerator

转载 作者:行者123 更新时间:2023-12-03 20:18:21 24 4
gpt4 key购买 nike

我需要训练一个由我存储在 GCloud 存储中的一些原始图像提供的神经网络。为此,我使用 Keras 图像生成器的 flow_from_directory 方法来查找存储中的所有图像及其相关标签。

training_data_directory = args.train_dir
testing_data_directory = args.eval_dir

training_gen = datagenerator.flow_from_directory(
training_data_directory,
target_size = (img_width, img_height),
batch_size = 32)

validation_gen = basic_datagen.flow_from_directory(
testing_data_directory,
target_size = (img_width, img_height),
batch_size = 32)

我的 GCloud 存储架构如下:

brad-bucket/数据/火车
布拉德桶/数据/评估

gsutil 命令让我可以确定我的文件夹是否存在。

brad$ gsutil ls gs://brad-bucket/data/
gs://brad-bucket/data/eval/
gs://brad-bucket/data/train/

下面是我运行的脚本,用于在 ML Engine 上启动训练,其中包含我用于目录路径(train_dir、eval_dir)的字符串。

BUCKET="gs://brad-bucket"
JOB_ID="training_"$(date +%s)
JOB_DIR="gs://brad-bucket/jobs/train_keras_"$(date +%s)
TRAIN_DIR="gs://brad-bucket/data/train/"
EVAL_DIR="gs://brad-bucket/data/eval/"
CONFIG_PATH="config/config.yaml"
PACKAGE="trainer"

gcloud ml-engine jobs submit training $JOB_ID \
--stream-logs \
--verbosity debug \
--module-name trainer.task \
--staging-bucket $BUCKET \
--package-path $PACKAGE \
--config $CONFIG_PATH \
--region europe-west1 \
-- \
--job_dir $JOB_DIR \
--train_dir $TRAIN_DIR \
--eval_dir $EVAL_DIR \
--dropout_one 0.2 \
--dropout_two 0.2

不过,我正在做的事情抛出了一个 OSError。

ERROR   2018-01-10 09:41:47 +0100   service       File "/usr/local/lib/python2.7/dist-packages/tensorflow/python/keras/_impl/keras/preprocessing/image.py", line 1086, in __init__
ERROR 2018-01-10 09:41:47 +0100 service for subdir in sorted(os.listdir(directory)):
ERROR 2018-01-10 09:41:47 +0100 service OSError: [Errno 2] No such file or directory: 'gs://brad-bucket/data/train/'

当我使用另一种数据结构(以另一种方式读取数据)时,一切正常,但是当我使用flow_from_directory 从目录中读取数据时和子目录我总是得到同样的错误。是否可以使用此方法从云存储中检索数据,还是我必须以不同的方式提供数据?

最佳答案

如果您检查 source code ,您会看到当 Keras(或 TF)试图从您的目录构建类时出现错误。因为您给它一个 GCS 目录 (gs://),所以这将不起作用。您可以通过自己提供 classes 参数来绕过此错误,例如通过以下方式:

def get_classes(file_dir):
if not file_dir.startswith("gs://"):
classes = [c.replace('/', '') for c in os.listdir(file_dir)]
else:
bucket_name = file_dir.replace('gs://', '').split('/')[0]
prefix = file_dir.replace("gs://"+bucket_name+'/', '')
if not prefix.endswith("/"):
prefix += "/"

client = storage.Client()
bucket = client.get_bucket(bucket_name)

iterator = bucket.list_blobs(delimiter="/", prefix=prefix)
response = iterator.get_next_page_response()
classes = [c.replace('/','') for c in response['prefixes']]

return classes

将这些类传递给 flow_from_directory 将解决您的错误,但它不会识别文件本身(我现在得到例如 Found 0 images belonging to 2 classes.)。

我发现的唯一“直接”解决方法是将您的文件复制到本地磁盘并从那里读取它们。最好有另一种解决方案(因为例如在图像的情况下,复制可能需要很长时间)。

其他资源也建议在从 Cloud ML Engine 与 GCS 交互时使用 TensorFlow 的 file_io 函数,但在这种情况下,这将需要您自己完全重写 flow_from_directory

关于tensorflow - 用于云 ML 引擎的 Keras ImageDataGenerator,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48174145/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com