tutorial structtype spark read python vector apache-spark pyspark apache-spark-sql spark-dataframe apache-spark-ml

python - structtype - Cómo dividir Vector en columnas-usando PySpark



spark sql tutorial (2)

Un posible enfoque es convertir ay desde RDD:

from pyspark.ml.linalg import Vectors df = sc.parallelize([ ("assert", Vectors.dense([1, 2, 3])), ("require", Vectors.sparse(3, {1: 2})) ]).toDF(["word", "vector"]) def extract(row): return (row.word, ) + tuple(row.vector.toArray().tolist()) df.rdd.map(extract).toDF(["word"]) # Vector values will be named _2, _3, ... ## +-------+---+---+---+ ## | word| _2| _3| _4| ## +-------+---+---+---+ ## | assert|1.0|2.0|3.0| ## |require|0.0|2.0|0.0| ## +-------+---+---+---+

Una solución alternativa sería crear un UDF:

from pyspark.sql.functions import udf, col from pyspark.sql.types import ArrayType, DoubleType def to_array(col): def to_array_(v): return v.toArray().tolist() return udf(to_array_, ArrayType(DoubleType()))(col) (df .withColumn("xs", to_array(col("vector"))) .select(["word"] + [col("xs")[i] for i in range(3)])) ## +-------+-----+-----+-----+ ## | word|xs[0]|xs[1]|xs[2]| ## +-------+-----+-----+-----+ ## | assert| 1.0| 2.0| 3.0| ## |require| 0.0| 2.0| 0.0| ## +-------+-----+-----+-----+

Para el equivalente de Scala, consulte Spark Scala: Cómo convertir Dataframe [vector] a DataFrame [f1: Double, ..., fn: Double)] .

Contexto: tengo un DataFrame con 2 columnas: palabra y vector. Donde el tipo de columna de "vector" es VectorUDT .

Un ejemplo:

word | vector assert | [435,323,324,212...]

Y quiero obtener esto:

word | v1 | v2 | v3 | v4 | v5 | v6 ...... assert | 435 | 5435| 698| 356|....

Pregunta:

¿Cómo puedo dividir una columna con vectores en varias columnas para cada dimensión usando PySpark?

Gracias por adelantado


def splitVecotr(df, new_features=[''f1'',''f2'']): schema = df.schema cols = df.columns for col in new_features: # new_features should be the same length as vector column length schema = schema.add(col,DoubleType(),True) return spark.createDataFrame(df.rdd.map(lambda row: [row[i] for i in cols]+row.features.tolist()), schema)

La función convierte la columna del vector de características en columnas separadas