揭开云和边缘计算关系的神秘面纱

日期: 2025-07-28 作者:Tom Nolle翻译:邹铮 来源:TechTarget中国 英文

科技领域继续充斥着流行语和没有明确定义的术语,因此,企业对云和边缘计算之间的关系存在疑问并不奇怪。

现在,企业每周处理的边缘计算消息比每年处理的传统事务还要多。例如,单个大众零售商每天生成15亿条边缘消息。这些边缘信息可能包括客户互动数据、库存更新、安全摄像头数据和 POS 交易。然而,几乎所有的边缘计算都是在公司内部,由公司拥有的系统和应用程序完成。鉴于此,我们可以说,现在的边缘计算发生在20年前传统事务处理的地方:在本地。

在本文中,我们将探讨云和边缘计算之间的关系。边缘计算是否会开发出类似云计算的组件,就像数据中心计算那样?

云计算与边缘

在我们深入研究之前,我们需要回顾云和边缘计算的基本定义。

什么是云计算?

云计算是一种计算服务,这意味着它是作为共享资源池构建的,按照不同的条款协议提供给买家。这一切都旨在取代传统的内部事务处理和计算,用于不适用于传统方法的任务。从理论上讲,几乎所有可以在数据中心运行的东西都可以在云中运行,尽管并非所有应用程序都适合在云端运行。

什么是边缘计算?

边缘计算是接近消息或事件源的计算,由边缘应用程序处理,以减少延迟。它减少了与消息相关的处理量,这使得其处理更加可靠。

通常,边缘计算用于过程控制应用程序,其中必须对实时物联网系统生成的消息进行分析,并将其转换为向进程发出的命令。这种消息/命令交换被称为控制回路——如果进程快速移动,则该回路必须快速,这意味着应用程序和网络连接必须具有低延迟。

毫秒都很重要

几乎所有的边缘应用程序都有几个控制回路,反映实时进程。例如,汽车制造商可能有以下回路:

  • 回路1。订购并接收汽车零件。
  • 回路2。把零件放在汽车上。
  • 回路3。将零件带到装配线上。

第一个控制回路与传统订单流程(用于分析供应链履行情况)几乎相同,因此当前的云技术可以处理它。但云技术能处理第二个和第三个回路吗,这两个回路需要更快。这取决于制造商能否托管类似云的资源池,足够接近实际工业流程,以满足延迟目标。

这些延迟目标从装配过程的现实世界组件中所涉及的移动开始。如果机器命令螺栓在经过时插入孔中,则需要设定特定时间限制,针对孔的移动速度和螺栓插入的速度设定。机器还需要拿起拿起另一个螺栓,以插入下一个孔。这里需要一组定位事件来发出这些步骤的定时信号,所有这些事件都必须转换为命令,在物理系统的约束范围内。

通常,物理过程越快,处理间隔越短——或者控制回路越短。步骤越多,必须在物理间隔内处理的事件就越多,因此控制回路越短。

延迟经济学

如今,由边缘计算机控制的本地进程很少能容忍超过几百毫秒的控制回路延迟,通常需要小于100毫秒的延迟。由于以下因素,这种程度的延迟对云应用程序具有挑战性:

  • 进程和云主机之间的距离。
  • 在不同点之间移动产生的电子网络延迟。
  • 云共享资源的调度延迟。

云托管经济取决于应用程序敏感的规模经济。一个用户的使用峰值必须是其他用户的使用低谷。如果每个人都想要持续的处理,托管将很少或没有规模经济。对于快速调度边缘资源以满足延迟目标,要求越严格,就越难避免资源专用,而不是共享资源。

最具经济效益的托管池将广泛吸引用户,以实现最佳的规模经济。更好的经济性意味着,资源池与用户的距离更近,延迟性更低。一般来说,企业报告说,延迟以每60英里距离1毫秒的速度增加,其中必须增加接入网络延迟。

降低延迟的一个选项是5G连接,这可以使可行的连接和可能不符合应用程序控制回路延迟要求的连接之间产生差异。例如,交通方面的应用程序,或无法使用有线连接的公用事业,可以从5G中受益。这些应用程序业使推动专用5G发展的主要驱动因素。

基于资源池的类似云的边缘计算不太可能完全取代短控制回路的本地边缘托管。这应该不足为奇,因为云计算在经济上无法取代所有数据中心计算。

然而,重新思考当前边缘应用程序的架构、云计算使用增长以及网络和虚拟化技术的改进相结合,可能会导致未来边缘应用程序的更深层次的控制回路组件迁移到共享主机。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

翻译

邹铮
邹铮

相关推荐