- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我使用的是 tensorflow 0.10,我正在对 official HowTo on reading data 中的示例进行基准测试.此 HowTo 使用相同的 MNIST 示例说明了将数据移动到 tensorflow 的不同方法。
我对结果感到惊讶,我想知道是否有人有足够的底层理解来解释正在发生的事情。
在 HowTo 中基本上有 3 种读取数据的方法:
Feeding
:在 python 中构建小批量并使用 sess.run(..., feed_dict={x: mini_batch})
从文件中读取
:使用tf
操作打开文件并创建小批量。 (绕过 python 中的数据处理。)预加载数据
:将所有数据加载到单个 tf
变量或常量中,并使用 tf
函数将其分解为微型批处理。变量或常量被固定到 cpu,而不是 gpu。我用来运行基准测试的脚本可以在 tensorflow 中找到:
喂食
:examples/tutorials/mnist/fully_connected_feed.py 从文件读取
:examples/how_tos/reading_data/convert_to_records.py和 examples/how_tos/reading_data/fully_connected_reader.py 预加载数据(常量)
:examples/how_tos/reading_data/fully_connected_preloaded.py 预加载数据(变量)
:examples/how_tos/reading_data/fully_connected_preloaded_var.py 除了最后两个脚本,我未经修改地运行了这些脚本,因为它们会崩溃——至少对于版本 0.10——除非我添加一个额外的 sess.run(tf.initialize_local_variables())
。
在 GTX1060 上运行 100 个小批量 100 个示例的时间:
Feeding
:~0.001 s
从文件读取
:~0.010 s
预加载数据(常量)
:~0.010 s
预加载数据(变量)
:~0.010 s
这些结果令我非常惊讶。我原以为 Feeding
是最慢的,因为它几乎完成了 python 中的所有操作,而其他方法使用较低级别的 tensorflow/C++ 来执行类似的操作。这与我的预期完全相反。有谁知道发生了什么事吗?
我可以访问另一台具有 Titan X 和较旧的 NVidia 驱动程序的机器。相对结果大致与上述一致,除了 Preloaded data (constant)
是灾难性的慢,单个小批量需要很多秒。
这是性能会因硬件/驱动程序的不同而有很大差异的已知问题吗?
最佳答案
10 月 9 日更新 速度变慢是因为计算运行速度太快,Python 无法抢占计算线程并安排预取线程。主线程中的计算需要 2 毫秒,显然这对于预取线程获取 GIL 来说太短了。预取线程具有较大的延迟,因此总是可以被计算线程抢占。因此,计算线程运行所有示例,然后大部分时间都阻塞在 GIL 上,因为一些预取线程被调度并将单个示例排入队列。解决方案是增加 Python 线程数,增加队列大小以适应整个数据集,启动队列运行器,然后暂停主线程几秒钟,让队列运行器预填充队列。
老东西
这出奇的慢。
这看起来是某种特殊情况,使最后 3 个示例不必要地变慢(大部分精力用于优化 ImageNet 等大型模型,因此 MNIST 没有得到太多关注)。
您可以通过获取时间线来诊断问题,如所述here
在这里are其中 3 个示例启用了时间线收集。
这是 feed_dict
实现的时间表
需要注意的重要一点是 matmul 占用了大量时间,因此读取开销并不显着
您可以看到 QueueDequeueMany 上的操作出现瓶颈,耗时高达 45 毫秒。
如果你放大,你会看到一堆微小的 MEMCPY 和 Cast 操作,这是一些操作只有 CPU 的标志(parse_single_example
),并且出队必须调度多个独立的CPU->GPU 传输
对于下面禁用 GPU 的 var
示例,我没有看到微小的操作,但 QueueDequeueMany 仍然需要超过 10 毫秒。时间似乎与批量大小成线性比例,因此那里存在一些根本性的缓慢。备案#4740
关于python - HowTo 基准测试 : Reading Data,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39840323/
只是想知道这些结构之间有什么区别(text、data、rodata、bss 等)在链接描述文件中: .data : { *(.data) } .data : { *(.data*) }
Data 定义为其核心功能之一 gfoldl : gfoldl :: (Data a) => (forall d b. Data d => c (d -> b) -> d -> c b)
以下之间有什么区别:data-sly-use、data-sly-resource、data-sly-include 和 数据-sly-模板?我正在阅读 Sightly AEM 上的文档,我非常困惑。
我有一个 Spring Boot、Spring Data JPA (hibernate) Web 应用程序,并且想引入文本搜索功能。 我理解以下内容 hibernate search 或 spring
我不知道我的代码有什么问题。我读了其他有同样问题的人的一些问题,但没有找到答案。当我尝试编译时出现以下错误: ||In function 'main':| |35|error: expected ex
我不太确定为什么会收到此错误或其含义。我的数据框称为“数据”。 library(dplyr) data %>% filter(Info==1, Male==1) %>% lm(CFL_
我一直在 GitHub 等更现代的网站上看到这些属性,它们似乎总是与自定义的弹出窗口一致,如 title 属性。 Option 1 Option 2 Option 3 Option 4 我在 HTML
如何用 iCloud Core Data 替换我现有的 Core Data?这是我的持久商店协调员: lazy var persistentStoreCoordinator: NSPersistent
我一直在 GitHub 等更现代的网站上看到这些属性,它们似乎总是与自定义的弹出窗口一致,如 title 属性。 Option 1 Option 2 Option 3 Option 4 我在 HTML
我正在通过 this project 在 Android 上摆弄 node.js ,我需要一种方法将 js 文件部署到私有(private)目录(以隐藏源代码,防止用户篡改),该目录也物理存在于文件系
大家好我有点沮丧,所以我希望得到一些帮助。我的项目在 SwiftUI 中。我想使用图像选择器将图像保存到 Core Data。我实现了让 ImagePicker 工作,但我正在努力转换 Image -
我有以下数据和代码: mydf grp categ condition value 1 A X P 2 2 B X P 5
我一直在努力解决这个问题,但我根本找不到任何解决问题的方法。希望这里有人可以提供帮助。 我正在尝试为具有以下结构的某些数据创建个人选择矩阵: # A tibble: 2,152 x 32 a
我了解 Data.Map.Lazy 和 Data.Map.Strict 是不同的。但是,当您导入 Data.Map 时,您究竟导入了什么:严格的、惰性的还是两者的组合? 最佳答案 懒人。看着docs
我正在开发一个 C 程序,用于从 BerkeleyDB DBTree 数据库中提取数据值与特定模式匹配的记录。我创建数据库,打开它,将键的 DBT 和数据的另一个 DBT 清零,将 DBT 标志设置为
所以我有以下成员(member)历史表 User_ID | Start date | End Date | Type(0-7) | ---------------------------
随着最近推出的包dataframe ,我认为是时候正确地对各种数据结构进行基准测试,并突出每种数据结构的优势。我不是每个人的不同优势的专家,所以我的问题是,我们应该如何对它们进行基准测试。 我尝试过的
我有来自 API 的数据,但无法将数组中的数据设置为 vue.js 中的 this.data这是来自 API 的数据(JSON) 你能告诉我这个语法吗 {"id":1613, "name_org":"
在 Vue.js到目前为止,我已经找到了两种定义数据的方法:data: {} 和 data() { return; }. data: { defaultLayout: 'default' }
我正在研究Spring Data Rest Services,并在自定义拦截器中遇到一些问题。之前我使用spring-data-rest-webmvc 2.2.0并以以下方式添加了拦截器。 publi
我是一名优秀的程序员,十分优秀!