河北慧日信息技术有限公司

通过边缘设备,热数据如何消除云延迟

更新时间:2019年05月20日  12606浏览

对于消费者来说,高延迟是一个烦恼;对于希望通过云服务,采用先进基础设施服务的企业来说这是一个严重的问题;对于推出先进的物联网驱动功能(比如自动驾驶汽车)来说,这是一个障碍。

对高延迟避之不及完全可以理解。但是毕竟,公有云存储意味着数据可能位于数百或数千英里之外的设施中,这就导致了显著的延迟。

边缘是延迟杀手

解决延迟问题的唯一现实方法是利用边缘设备,并将数据移动到离最终用户或应用程序更近的地方。不到12%的企业数据是“热数据”,这是终端用户现在需要经常访问的数据,虽然组织拥有的大部分数据可以存储在云中,但是热数据需要存储在本地。

边缘计算20

对于既不冷也不热的数据,有一个中间地带,用户在大约5%的时间里会访问它们。为了在缓存丢失的情况下依然保持良好的性能,“热”数据需要缓存的距离不超过120英里。延迟时间大约为1到2毫秒,这符合闪存的性能预期。

当然,诀窍在于创建一个智能网络,自动将数据分为热、暖或冷,并将每个数据放在适当的位置,以便将延迟降到最低。所有数据的主副本(热数据、暖数据和冷数据)都留存在公有云中,但是热数据集和暖数据集分别保存在本地和区域边缘。热数据将可用并存储在基于闪存的边缘设备中,以达到最佳性能。暖数据是指在几周到一个月内被访问的数据,应该存储在距离最终用户不超过120英里的区域边缘的存储点(PoP)中。冷数据和存档数据可以访问公有云的多个位置。

本地入口点利用闪存和与存储网络的直接连接,以确保最终用户能够立即访问热层中的所有数据。对于暖层数据来说,区域PoP存储还利用了高速闪存技术和相对较短的数据传输距离,以保持低延迟和高性能。对于最终用户来说,这种体验是无缝的,一切都像本地闪存一样。对IT管理员来说,它降低了现场存储系统的成本,确保了性能和灵活性,同时消除了过去几天大量的本地占用。

边缘计算8

为了进一步降低高延迟,就不要依赖公共互联网进行连接,而是通过专用网络线路将所有这些存储难题连接起来。有人可能会认为,与公共互联网相比,私人线路的成本将高得令人望而却步,但事实上,上世纪90年代末和本世纪初大量电信基建遗留下来的光纤数量仍然非常多,因此价格非常低廉。由于数据沿着这条专用线路移动,因此不存在串扰或数据包干扰的机会,而串扰或数据包干扰的另一个好处是增强了安全性。

即使是大型公有云供应商现在也认识到,企业不能仅仅依靠云来提供高级服务,比如下一代物联网或主存储。例如,AWS Outposts是去年11月推出的一项新服务,它允许客户在自己的站点上运行AWS,并直接连接到AWS。为了实现这一点,AWS为客户提供了运行VMware的、由AWS设计的计算和存储硬件的完全托管机架。

另一项服务,AWS物联网服务SiteWise是物联网服务套件的一部分,它通过一个内部网关从工业站点收集数据。AWS并不的个例。微软还宣布了其物联网服务的新功能,微软物联网边缘服务。AWS和微软Azure意识到,仅靠云无法提供企业IT和越来越多的先进物联网应用程序所需的性能。

克服云的固有延迟问题不是一项简单的任务,但是通过应用智能缓存和边缘设备,企业IT可以克服这些问题,从而充分利用云来简化存储基础设施。



微信扫码关注

Tel  :400-0311-765

Add:石家庄市高新区物联网大厦一层