Spark的mapWithState解密方法是什么

云计算

这篇文章主要讲解了“Spark的mapWithState解密方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Spark的mapWithState解密方法是什么”吧!

updateStateByKey和mapWithState方法在DStream中找不到,需要进行隐式转换,转换为PairDStreamFunctions对象。

updateStateByKey是在已有的状态下进行更新操作。Seq[V]中存放历史数据,Option[S]存放新值,可能没有值。使用了默认的Partitioner函数,HashPartitioner。

StateDStream继承DStream,使用MEMORY_ONLY_SER的方式作为存储级别。

StateDStream的compute方法,如果parent存在则调用computeUsingPreviousRDD方法,如果不存在调用preStateRDD的mapPartitions方法。

computeUsingPreviousRDD方法中,parentRDD和之前的RDD进行cogroup操作,根据Key对Value进行聚合,基于Key对所有的Value进行扫描,当数据量比较少时可以考虑使用cogroup方法,但是当数据量大时,就会影响整个运行,降低性能。

mapWithState方法中接收StateSpec类型的参数,StateSpec中封装了更新操作的函数。

StateImpl继承State类,记录了其状态信息,定义了获取,更新,删除等操作接口,很像是数据库中的一张表,进行增删改查。

StateSpecImpl类中定义了如何初始化状态,设置Partition的个数,设置分区函数Partition。

MapWithStateDStreamImpl类的compute方法其实质是调用InternalMapWithStateDStream的getOrCompute方法。

InternalMapWithStateDStream是在历史数据的基础上进行更新操作。

InternalMapWithStateDStream的compute方法中,实例化了MapWithStateRDD对象。

MapWithStateRDD类中,一个Partition对应一个MapWithStateRDDRecord。

MapWithStateRDD的compute方法,先获取之前的State信息,和现在数据的迭代器进行操作,,调用MapWithStateRDDRecord的updateRecordWithData的方法,返回MapWithStateRDDRecord为元素的迭代器。

newStateMap中保存了整个历史数据。

RDD是不可变的,但是RDD中的数据可以变化。

感谢各位的阅读,以上就是“Spark的mapWithState解密方法是什么”的内容了,经过本文的学习后,相信大家对Spark的mapWithState解密方法是什么这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注