数据融合:处理分布式计算的规模
2021-10-24 14:23:05
•
来源:
导读 我们生活在一个数据爆炸的时代。创造比以往更多的信息。网络设备比以往任何时候都多。这种趋势可能会持续到未来。虽然这让公司很容易收集数
我们生活在一个数据爆炸的时代。创造比以往更多的信息。网络设备比以往任何时候都多。这种趋势可能会持续到未来。虽然这让公司很容易收集数据,但也带来了全面的挑战。企业如何处理数百万甚至数十亿来源的数据?
为了深入了解分布式数据采集的前沿,硅钢媒体团队联合创始人JeffFrick(@JeffFrick)参观了美国加州旧金山首席数据科学家活动。在那里,他遇到了萨姆赖特-柊司,一位杰出的IBM工程师和数据仓库的首席架构师。
讨论从最近宣布的一项名为“数据融合”的概念技术开始。赖特-柊司解释说,数据融合是他们在IBM酝酿的一个全新想法。它来自于一种感觉,即大量数据将来自于手机、汽车、智能眼镜等分布式服务。
“这真的是很多数据,”Lightstone说。
数据融合背后的理念是将数据留在原地。Wright将其描述为允许数据源相互发现并相互合作来处理计算网格中的数据科学问题。
莱特-柊司提到了这个概念的一个巨大优势,它可以带来数十万甚至数百万个处理器来处理它赖以生存的数据。他称之为一个非常强大和必要的概念。这样的网络必须是自动的,以便扩展到成千上万的设备。
这样的系统对人类来说太复杂了。柊司说,他的目标是将这种自动、灵活和自适应的设备与它连接起来。他表示,随着数据的融合,他们希望使用物联网、企业和云用例的数据科学。
*披露:Corem Global Intelligence等公司赞助了一些首席数据科学家和一些CUBE媒体关于美国硅钢的报道。CoriniumGlobal Intelligence和其他赞助商没有编辑控制权。
免责声明:本文由用户上传,如有侵权请联系删除!