por Diego Calvo | Nov 23, 2017 | Python, Spark | 0 Comentarios
Muestra un ejemplo de función map con spark.
def my_func(iterator): yield sum(iterator) list = range(1,10) parallel = sc.parallelize(list, 5) parallel.mapPartitions(my_func).collect()
[1, 5, 9, 13, 17]
Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *
Comentario *
Nombre *
Correo electrónico *
Web
Enviar comentario
Δ
0 comentarios