Bonjour à tous,
Je dispose de N machines, et d’une chaîne de caractères initialement vides sur mon driver Spark. Je dispose également, sur mon driver, d’une fonction qui concatène une chaîne de caractères avec celle précédemment évoquée.
Soit :
1 2 3 4 5 6 7 8 9 10 11 12 13 | def main(args : Array[String]) : Unit = { val conf = new SparkConf().setAppName("Simple states graph") val spark_context : SparkContext = new SparkContext(conf) var graph : String = "" // La variable vide qu'il faut remplir graph += StatesGraphCompiler.addState(graph, "Etat 1") // Appel 1 à la fonction de concaténation/remplissage graph += StatesGraphCompiler.addState(graph, "Etat 2") // Appel 2 printf(graph) // Affichage final } |
Je souhaiterais :
-
Faire exécuter le premier
addState
sur un worker -
Faire exécuter le second sur un AUTRE worker (i.e. : distribuer le remplissage).
-
Que le driver affiche la chaîne finale.
Comment faire cela avec Spark ? Je pense à des union
des RDD
s issus d’une conversion de chaque String
en RDD
. Mais je ne suis pas sûr et certain que ce soit la façon la plus élégante de faire cela.
J’ai l’impression que Spark est surtout adapté pour faire usage de données, mais pas pour en générer…
+0
-0