web-dev-qa-db-fra.com

Python & Pandas - Grouper par jour et compter pour chaque jour)

Je suis nouveau sur pandas et pour l'instant je ne sais pas comment organiser ma série de temps, jetez-y un œil:

date & time of connection
19/06/2017 12:39
19/06/2017 12:40
19/06/2017 13:11
20/06/2017 12:02
20/06/2017 12:04
21/06/2017 09:32
21/06/2017 18:23
21/06/2017 18:51
21/06/2017 19:08
21/06/2017 19:50
22/06/2017 13:22
22/06/2017 13:41
22/06/2017 18:01
23/06/2017 16:18
23/06/2017 17:00
23/06/2017 19:25
23/06/2017 20:58
23/06/2017 21:03
23/06/2017 21:05

Ceci est un échantillon d'un ensemble de données de 130 k raws, j'ai essayé: df.groupby('date & time of connection')['date & time of connection'].apply(list)

Pas assez je suppose

Je pense que je devrais :

  • Créer un dictionnaire avec un index de jj/mm/aaaa à jj/mm/aaaa
  • Convertir le type "date et heure de connexion" dateTime en Date
  • Groupe et compte Date de "date et heure de connexion"
  • Mettez les chiffres que je compte dans le dictionnaire?

Que pensez-vous de ma logique? Connaissez-vous des tutos? Merci beaucoup

10
Erwan Pesle

Vous pouvez utiliser dt.floor pour convertir en dates puis value_counts ou groupby avec size :

df = (pd.to_datetime(df['date & time of connection'])
       .dt.floor('d')
       .value_counts()
       .rename_axis('date')
       .reset_index(name='count'))
print (df)
        date  count
0 2017-06-23      6
1 2017-06-21      5
2 2017-06-19      3
3 2017-06-22      3
4 2017-06-20      2

Ou:

s = pd.to_datetime(df['date & time of connection'])
df = s.groupby(s.dt.floor('d')).size().reset_index(name='count')
print (df)
  date & time of connection  count
0                2017-06-19      3
1                2017-06-20      2
2                2017-06-21      5
3                2017-06-22      3
4                2017-06-23      6

Timings :

np.random.seed(1542)

N = 220000
a = np.unique(np.random.randint(N, size=int(N/2)))
df = pd.DataFrame(pd.date_range('2000-01-01', freq='37T', periods=N)).drop(a)
df.columns = ['date & time of connection']
df['date & time of connection'] = df['date & time of connection'].dt.strftime('%d/%m/%Y %H:%M:%S')
print (df.head()) 

In [193]: %%timeit
     ...: df['date & time of connection']=pd.to_datetime(df['date & time of connection'])
     ...: df1 = df.groupby(by=df['date & time of connection'].dt.date).count()
     ...: 
539 ms ± 45.9 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

In [194]: %%timeit
     ...: df1 = (pd.to_datetime(df['date & time of connection'])
     ...:        .dt.floor('d')
     ...:        .value_counts()
     ...:        .rename_axis('date')
     ...:        .reset_index(name='count'))
     ...: 
12.4 ms ± 350 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

In [195]: %%timeit
     ...: s = pd.to_datetime(df['date & time of connection'])
     ...: df2 = s.groupby(s.dt.floor('d')).size().reset_index(name='count')
     ...: 
17.7 ms ± 140 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
14
jezrael

Pour vous assurer que vos colonnes sont au format date.

df['date & time of connection']=pd.to_datetime(df['date & time of connection'])

Ensuite, vous pouvez regrouper les données par date et faire un décompte:

df.groupby(by=df['date & time of connection'].dt.date).count()
Out[10]: 
                           date & time of connection
date & time of connection                           
2017-06-19                                         3
2017-06-20                                         2
2017-06-21                                         5
2017-06-22                                         3
2017-06-23                                         6
7
Allen

Hé, j'ai trouvé un moyen facile de le faire avec le rééchantillonnage.

# Set the date column as index column.
df = df.set_index('your_date_column')

# Make counts
df_counts = df.your_date_column.resample('D').count() 

Bien que le nom de votre colonne soit long et contienne des espaces, cela me rend un peu grincheux. J'utiliserais des tirets au lieu d'espaces.

2
Jaan Olev