gpt4 book ai didi

azure - Ms Azure 与 Google Colab BERT 训练性能的令人惊讶的结果,不知道如何解释

转载 作者:行者123 更新时间:2023-12-02 22:59:41 25 4
gpt4 key购买 nike

我不确定它是否与 BERT 相关,没有机会测试其他模型,但为 BERT 测试了。

我最近注意到,我以前在 google colab 中免费使用的训练算法和数据在我们付费的 Azure ML 工作区中运行速度似乎明显慢了。

我进行了比较 - 相同的数据文件(分类问题、10K 条评论的情感分析)、完全相同的笔记本代码(复制+粘贴)、安装在两者上的相同最新版本的 ktrain lib,两者都必须使用 Python 3.8,但是GPU 在 Colab 方面的性能更高一些。

至少可以说,结果让我感到惊讶:Google 实验室的工作速度快了 10 倍:17 分钟 vs 170 分钟,而且可重现。 Tesla T4 (colab) 确实比 K80 (azure) 快,但根据已知的基准测试,速度并不快。所以我想知道还有什么重要的。是德吗。在 Azure ML 中创建的环境执行速度这么慢?如果您知道它可能是什么,或者我还可以检查双方以揭示它,请分享

顺便说一句,Google 在 Colab 中免费为您提供 T4 供您进行实验,而您必须为 Azure 上速度较慢的 K80 付费。

Google 协作实验室执行时间 = 17 分钟 enter image description hereGoogle Colab 硬件:CPU 型号:Intel(R) Xeon(R) CPU @ 2.20GHz,内存 13Gb,GPU:
enter image description here

azure 执行时间 = 2 小时 50 分钟 = 170 分钟(10 倍的 Colab) enter image description hereAzure 硬件信息 enter image description here

K80与T4对比:https://technical.city/en/video/Tesla-K80-vs-Tesla-T4

最佳答案

因此,我认为首先,要在硬件方面进行非同类比较,您将很难找到问题的根源。

话虽如此,在 Azure 上,Standard_NC6 计算目标仅提供 K80 卡的一半。我不确定这个“一半”如何划分所有规范,但我确实知道它只提供一半的 GPU 内存。由此,我假设它也只提供一半的 CUDA 核心,但可能不是内存总线带宽的一半。

最后,T4 的升压时钟速度几乎是 K80 的两倍,这可能不会带来您所看到的 10 倍差异,但肯定会对性能产生重大影响。

我建议也许在 Colab 笔记本上配置 K80,或者在这两个笔记本上都可用的任何其他支持 GPU 的计算,以测试您对这两个平台上的性能的任何理论。

关于azure - Ms Azure 与 Google Colab BERT 训练性能的令人惊讶的结果,不知道如何解释,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/73283498/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com