web-dev-qa-db-fra.com

comment obtenir max (date) à partir d'un ensemble donné de données regroupées par certains champs en utilisant pyspark?

J'ai les données dans le dataframe comme ci-dessous:

  datetime             | userId | memberId | value |    
2016-04-06 16:36:...   | 1234   | 111      | 1
2016-04-06 17:35:...   | 1234   | 222      | 5
2016-04-06 17:50:...   | 1234   | 111      | 8
2016-04-06 18:36:...   | 1234   | 222      | 9
2016-04-05 16:36:...   | 4567   | 111      | 1
2016-04-06 17:35:...   | 4567   | 222      | 5
2016-04-06 18:50:...   | 4567   | 111      | 8
2016-04-06 19:36:...   | 4567   | 222      | 9

J'ai besoin de trouver le max (datetime) groupby userid, memberid. Quand j'ai essayé comme ci-dessous:

df2 = df.groupBy('userId','memberId').max('datetime')

Je reçois une erreur car:

org.Apache.spark.sql.AnalysisException: "datetime" is not a numeric
column. Aggregation function can only be applied on a numeric column.;

La sortie que je désirais est la suivante:

userId | memberId | datetime
1234   |  111     | 2016-04-06 17:50:...
1234   |  222     | 2016-04-06 18:36:...
4567   |  111     | 2016-04-06 18:50:...
4567   |  222     | 2016-04-06 19:36:...

Quelqu'un peut-il m'aider à obtenir la date maximale parmi les données fournies à l'aide des cadres de données PySpark?

16
cool716

Pour les types non numériques mais Orderable, vous pouvez utiliser agg avec max directement:

from pyspark.sql.functions import col, max as max_

df = sc.parallelize([
    ("2016-04-06 16:36", 1234, 111, 1),
    ("2016-04-06 17:35", 1234, 111, 5),
]).toDF(["datetime", "userId", "memberId", "value"])

(df.withColumn("datetime", col("datetime").cast("timestamp"))
    .groupBy("userId", "memberId")
    .agg(max_("datetime")))

## +------+--------+--------------------+
## |userId|memberId|       max(datetime)|
## +------+--------+--------------------+
## |  1234|     111|2016-04-06 17:35:...|
## +------+--------+--------------------+
24
zero323