- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章云计算的限制:为什么需要边缘的机器学习由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
机器学习有着很高的处理需求,而其通信成本意味着人们最终需要它在边缘的地方(智能手机)发挥作用.
。
如今,人们正在进入由人工智能(AI)驱动的新一轮技术创新时代,机器学习处于技术最前沿。即使在今天,机器学习也是任何设备体验的重要技术,为各种任务、功能、应用程序提供支持。从设备上的安全性(如面部解锁、面部识别和指纹识别),到智能手机摄像头和音频功能(允许用户通过诸如Socratic、Snapchat、FaceApp、Shazam等应用程序获得更智能和有趣的体验),经常使用各种基于机器学习的功能由消费者提供.
。
。
但是,对于创建大量数据的基于机器学习的任务,这些任务通常会转移到云端进行处理,然后再通过操作发送回设备。例如,Socratic和Shazam都在云中使用机器学习处理,而不是在设备上。这就带来了一个问题:在设备上进行机器学习处理会不会更简单、更快捷?
。
能够在设备或边缘上执行基于机器学习的任务,而不是将其发送到云端进行处理,许多人将其描述为“机器学习演进的下一个阶段”。有许多重要的限制,功耗、成本、延迟、隐私等限制因素使得在云端和设备之间来回传输的机器学习数据不切实际。几年前,机器学习在边缘领域似乎是一个“白日梦”,而设备的技术创新使它们能够处理计算密集型任务.
。
云计算的约束 。
。
云端的机器学习处理的所有约束都是相互关联的.
。
首先,处理云端的机器学习任务所需的大量数据的功率和成本是巨大的,更不用说通过不断增长的带宽需求产生的大量流量。早在2017年,就有人指出,如果每个人每天使用他们的Android语音助手三分钟,那么谷歌公司必须将其拥有的数据中心数量翻一番.
。
而在2019年,谷歌公司可能解决了这一特殊挑战——事实上,在最近的会议中,谷歌公司表示可以让500GB语音辅助模式缩小到0.5GB,因此它可以在移动设备上完全运行。然而,它确实说明了云端的机器学习可以处理巨大基础设施和经济需求。边缘的机器学习可以通过减少对基于云计算的机器学习所需的云计算服务和支持基础设施的依赖来减轻这些负担.
。
用于云端的机器学习处理的巨大经济成本可能最好通过开发人员的经验来说明。每台设备在服务器上进行一秒钟的计算大约需要0.00003美元。这显然是一个非常小的成本,但是当考虑到开发商的目标是尽可能多的受众时,其成本很快就会开始上升。例如,对于一百万台设备,服务器上一秒钟的计算成本是28美元,即每分钟1680美元。对于以1亿用户为目标的极其成功应用程序,开发商将支付每分钟160万美元的费用.
。
最重要的是,将云计算用于基于机器学习的任务根本不可行。即使距离很近,也需要大量的电力才能将数据发送到云端。在设备上,基于机器学习的处理所需的功率量要小得多.
。
在设备和云端之间来回发送数据将会产生明显的滞后或延迟,大多数基于机器学习的应用程序,特别是那些对时间要求严格的应用程序来说都是不能容忍的。改善延迟开启了基于机器学习的应用程序可以完成的新功能。例如,如果由于发送、处理、接收增强视频所花费的时间而在云端完成机器学习处理,那么Snapchat AR体验是不可能的.
。
通过逐步查看流程,可以很好地说明用于云端的机器学习处理的延迟问题。在当前的4G网络上以一种方式(从设备到云端)启动数据流提供50ms的理论延迟,这大约是4个视频帧的延迟。然后,为了处理云端的机器学习数据,一个视频帧可能延迟16ms.
。
最后,从云端回流到设备是50ms的延迟。因此,整个过程大约有10个视频帧的延迟,使得其延迟远远高于提供即时响应设备上的机器学习。5G技术确实有可能将此设备更改为边缘处理,因为其部署只有1ms的延迟,但5G技术的广泛应用仍需要一段时间.
。
最后,云计算与设备之间的持续交互创建了一个更容易受到隐私威胁的场景。用户可以更容易地在他们的设备上处理他们的个人数据,而不是将其发送到云端。如果为机器学习任务生成的数据经过数百英里到达云端,然后返回到设备并做出决定,那么很有可能受到影响。基本上,防止攻击用户隐私的最佳方法是确保敏感数据不会离开设备.
。
开发人员希望机器学习处于边缘 。
。
开发人员的需求最适合边缘的机器学习处理。机器学习正在改变开发人员编写算法的方式。在以往,针对特定用例需要人工编写代码,这非常耗时,并且使用机器学习有时容易出错,开发人员不再需要编写代码。相反,他们创建了一个模型,并用数据集对其进行训练,与人工编写代码相比,这种方法更加强大.
。
。
机器学习多年来一直为开发人员所熟知,但主要用于数据中心的高计算设备。直到最近,它才被用于移动设备,因为它们的计算效率变得更高,并且能够运行更复杂的机器学习模型。将最新的设备创新与开发人员的需求结合起来,使机器学习成为了首选.
。
设备上的机器学习处理通过实时处理和低延迟为开发人员提供即时结果,同时允许他们在没有网络连接的情况下执行机器学习任务.
。
云计算机器学习处理有时可能是适当的 。
。
尽管面临各种挑战,但数据处理的云计算模型意味着可以不断更改和升级机器学习算法。因此,任何与云计算交互的设备也可以改进其处理机器学习任务的方式。此外,还有一些需要大量计算,并对时间不敏感的任务。因此,云计算的延迟并不是一个大问题.
。
其例子包括无人机的数据处理,这些无人机为研究、工业、军队提供详细图像或视频输入,或者对患者进行放射学或X射线检查等医学成像。虽然仍然很重要,但边缘的机器学习并不一定是所有基于机器学习的任务的“一刀切”解决方案.
。
所有参与机器学习处理的团队(从开发人员到原始设备制造商)都需要确定设备上的哪些任务能从边缘的机器学习中获益.
。
边缘的机器学习是未来的需求 。
。
利用各种基于机器学习的任务和应用程序的移动设备已经被全世界数十亿人使用。大多数情况下,需要设备上的实时响应,而边缘的机器学习将提供这种响应。用户和开发人员不希望依赖云计算技术,因为云计算的功率、成本、隐私和速度受到限制.
。
对于智能设备来说,现在还处于起步阶段,但机器学习将是未来发展的最佳选择.
最后此篇关于云计算的限制:为什么需要边缘的机器学习的文章就讲到这里了,如果你想了解更多关于云计算的限制:为什么需要边缘的机器学习的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
简介 在上一篇文章《机器学习:神经网络构建(上)》中讨论了线性层、激活函数以及损失函数层的构建方式,本节中将进一步讨论网络构建方式,并完整的搭建一个简单的分类器网络。 目录 网络Netwo
简介 在本篇文章中,我们采用逻辑回归作为案例,探索神经网络的构建方式。文章详细阐述了神经网络中层结构的实现过程,并提供了线性层、激活函数以及损失函数的定义(实现方法)。 目录 背景介绍
简介 在前两篇文章中,我们详细探讨了如何利用采样数据来估计回归曲线。接下来,在本节中,我们将深入讨论如何处理分类问题。 章节安排 背景介绍 数学方法 程序实现 背景介绍 线
简介 在上一篇文章《机器学习:线性回归(上)》中讨论了二维数据下的线性回归及求解方法,本节中我们将进一步的将其推广至高维情形。 章节安排 背景介绍 最小二乘法 梯度下降法 程序
PyCaret是一个开源、低代码Python机器学习库,能够自动化机器学习工作流程。它是一个端到端的机器学习和模型管理工具,极大地加快了实验周期,提高了工作效率。PyCaret本质上是围绕几个机器学习
在我的研究进展中,我现在已经将寄生虫从图像中分离出来。寄生虫看起来像蠕虫。我希望 MATLAB 读取所有输入图像,查找类似深紫色图像的蠕虫,如果检测到,则给出检测到的答复。我尝试使用直方图比较,但我认
目前我正在尝试了解机器学习算法的工作方式,但我没有真正了解的一件事是预测标签的计算准确度与视觉混淆矩阵之间的明显差异。我会尽量解释清楚。 这是数据集的片段(这里你可以看到 9 个样本(在真实数据集中大
第一章 绪论 机器学习 : 致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。在计算机系统中, “经验” 通常以“数据“形式存在,因此,机器学习所研究的主要内容,是关于在计算
1. 算法原理(K-Nearest Neighbor) 本质是通过距离判断两个样本是否相似,如果距离够近就认为他们足够相似属于同一类别 找到离其最近的 k 个样本,并将这些样本称
前言 K-means是一种经典的无监督学习算法,用于对数据进行聚类。K-means算法将数据集视为具有n个特征的n维空间,并尝试通过最小化簇内平方误差的总和来将数据点划分为簇。本文将介绍K-m
目录 前言 介绍LightGBM LightGBM的背景和起源 L
前言 可以说掌握了机器学习,你就具备了与机器对话,充分利用机器为人类服务的能力。在人工智能时代,这将成为一项必备技能,就好比十年前你是编程大牛,二十年前你英语超好一样。因此,无论你是什么专业的
几个贯穿始终的概念 当我们把人类学习简单事物的过程抽象为几个阶段,再将这些阶段通过不同的方法具体化为代码,依靠通过计算机的基础能力-- 计算 。我们就可以让机器能够“学会”一些简单的事物。
1、选题背景 人脸识别技术是模式识别和计算机视觉领域最富挑战性的研究课题之一,也是近年来的研究热点,人脸性别识别作为人脸识别技术
每当我们在公有云或者私有云发布训练好的大数据模型,为了方便大家辨识、理解和运用,参照huggingface所制定的标准制作一个Model Card展示页,是种非常好的模型展示和组织形式。 下面就是一
2. 支持向量机 对偶优化 拉格朗日乘数法可用于解决带条件优化问题,其基本形式为: \[\begin{gather} \min_w f(w),\\ \mathrm{s.t.} \quad
我正在尝试运行以下代码: https://github.com/opencv/opencv/blob/master/samples/dnn/classification.cpp 我在这里找到所有经过预
我是机器学习新手。当我使用 scikit-learn 模块中的波士顿数据集练习具有默认参数的决策树回归模型时。 在此链接解决方案( How to Build a Decision tree Regre
我有用于训练的数据。当我将其输入神经网络时,该数据出现 3% 的错误。 我知道这些数据有一定的过度代表性 - 例如,第 5 类的示例大约是其他类的十分之一。 我的作业指出,我可以通过偏置训练数据(即删
我在 Python 的多类分类中使用 SVM 时遇到问题。事实上,问题在于性别分类(来自图像),其中训练数据集仅包含“y=1”或“ y=-1”作为类标签(二进制)。但是,在预测中,如果是男性,我必须预
我是一名优秀的程序员,十分优秀!