• nuus_banier

Diens

Spark Streaming data skoonmaak meganisme
(I) DSream en RDD
Soos ons weet, is Spark Streaming-berekening gebaseer op Spark Core, en die kern van Spark Core is RDD, so Spark Streaming moet ook met RDD verband hou.Spark Streaming laat egter nie toe dat gebruikers RDD direk gebruik nie, maar abstraheer 'n stel DStream-konsepte, DStream en RDD is inklusiewe verhoudings, jy kan dit verstaan ​​as die versieringspatroon in Java, dit wil sê, DStream is 'n verbetering van RDD, maar die gedrag is soortgelyk aan RDD.
DSream en RDD het albei verskeie toestande.
(1) het soortgelyke transformasie-aksies, soos kaart, reduceByKey, ens., maar ook 'n paar unieke, soos Window, mapWithStated, ens.
(2) almal het Aksie-aksies, soos foreachRDD, tel, ens.
Die programmeringsmodel is konsekwent.
(B) Bekendstelling van DSream in Spark Streaming
DSream bevat verskeie klasse.
(1) Databronklasse, soos InputDStream, spesifiek as DirectKafkaInputStream, ens.
(2) Omskakelingsklasse, tipies MappedDStream, ShuffledDStream
(3) uitsetklasse, tipies soos ForEachDStream
Uit bogenoemde word die data van die begin (invoer) tot die einde (afvoer) deur die DStream-stelsel gedoen, wat beteken dat die gebruiker normaalweg nie direk RDD's kan genereer en manipuleer nie, wat beteken dat die DStream die geleentheid en verpligting het om verantwoordelik vir die lewensiklus van RDD's.
Met ander woorde, Spark Streaming het 'noutomatiese skoonmaakfunksie.
(iii) Die proses van RDD-generering in Spark Streaming
Die lewensvloei van RDD's in Spark Streaming is rofweg soos volg.
(1) In InputDStream word die ontvangde data in RDD getransformeer, soos DirectKafkaInputStream, wat KafkaRDD genereer.
(2) dan deur MappedDStream en ander data-omskakeling, word hierdie tyd direk RDD genoem wat ooreenstem met die kaartmetode vir omskakeling
(3) In die uitsetklasbewerking, slegs wanneer die RDD blootgestel word, kan jy die gebruiker die ooreenstemmende berging, ander berekeninge en ander bewerkings laat uitvoer.