structtype read dataframe size pyspark shape

read - PySpark 2.0 El tamaño o la forma de un DataFrame



rdd to dataframe pyspark (3)

Estoy tratando de averiguar el tamaño / forma de un DataFrame en PySpark. No veo una sola función que pueda hacer esto.

En Python puedo hacer

data.shape()

¿Hay alguna función similar en PySpark? Esta es mi solución actual, pero estoy buscando un elemento uno

row_number = data.count() column_number = len(data.dtypes)

El cálculo del número de columnas no es ideal ...


Creo que no hay una función similar como data.shape en Spark. Pero len(data.columns) lugar de len(data.dtypes)


df.count () para el número de filas


print((df.count(), len(df.columns)))