web-dev-qa-db-fra.com

comment utiliser Word_tokenize dans un bloc de données

J'ai récemment commencé à utiliser le module nltk pour l'analyse de texte. Je suis coincé à un moment. Je veux utiliser Word_tokenize sur une trame de données, afin d'obtenir tous les mots utilisés dans une ligne particulière de la trame de données.

data example:
       text
1.   This is a very good site. I will recommend it to others.
2.   Can you please give me a call at 9983938428. have issues with the listings.
3.   good work! keep it up
4.   not a very helpful site in finding home decor. 

expected output:

1.   'This','is','a','very','good','site','.','I','will','recommend','it','to','others','.'
2.   'Can','you','please','give','me','a','call','at','9983938428','.','have','issues','with','the','listings'
3.   'good','work','!','keep','it','up'
4.   'not','a','very','helpful','site','in','finding','home','decor'

Fondamentalement, je veux séparer tous les mots et trouver la longueur de chaque texte dans la trame de données.

Je sais que Word_tokenize peut pour cela une chaîne, mais comment l'appliquer à l'ensemble de la trame de données?

Aidez-moi!

Merci d'avance...

10
eclairs

Vous pouvez utiliser la méthode appliquer de l'API DataFrame:

import pandas as pd
import nltk

df = pd.DataFrame({'sentences': ['This is a very good site. I will recommend it to others.', 'Can you please give me a call at 9983938428. have issues with the listings.', 'good work! keep it up']})
df['tokenized_sents'] = df.apply(lambda row: nltk.Word_tokenize(row['sentences']), axis=1)

Production:

>>> df
                                           sentences  \
0  This is a very good site. I will recommend it ...   
1  Can you please give me a call at 9983938428. h...   
2                              good work! keep it up   

                                     tokenized_sents  
0  [This, is, a, very, good, site, ., I, will, re...  
1  [Can, you, please, give, me, a, call, at, 9983...  
2                      [good, work, !, keep, it, up]

Pour trouver la longueur de chaque texte, essayez à nouveau d'utiliser appliquer et fonction lambda:

df['sents_length'] = df.apply(lambda row: len(row['tokenized_sents']), axis=1)

>>> df
                                           sentences  \
0  This is a very good site. I will recommend it ...   
1  Can you please give me a call at 9983938428. h...   
2                              good work! keep it up   

                                     tokenized_sents  sents_length  
0  [This, is, a, very, good, site, ., I, will, re...            14  
1  [Can, you, please, give, me, a, call, at, 9983...            15  
2                      [good, work, !, keep, it, up]             6  
19
Gregg

pandas.Series.apply est plus rapide que pandas.DataFrame.apply

import pandas as pd
import nltk

df = pd.read_csv("/path/to/file.csv")

start = time.time()
df["unigrams"] = df["verbatim"].apply(nltk.Word_tokenize)
print "series.apply", (time.time() - start)

start = time.time()
df["unigrams2"] = df.apply(lambda row: nltk.Word_tokenize(row["verbatim"]), axis=1)
print "dataframe.apply", (time.time() - start)

Sur un exemple de fichier csv de 125 Mo,

series.apply 144.428858995

dataframe.apply 201.884778976

Edit: Vous pourriez penser que le Dataframe df après series.apply (nltk.Word_tokenize) est de plus grande taille, ce qui pourrait affecter le temps d'exécution pour l'opération suivante dataframe.apply (nltk.Word_tokenize).

Pandas optimise sous le capot pour un tel scénario. J'ai obtenu un runtime similaire de 200s en effectuant uniquement dataframe.apply (nltk.Word_tokenize) séparément.

18
Harsha Manjunath

Il peut être nécessaire d'ajouter str () pour convertir le type d'objet de pandas en chaîne.

Gardez à l'esprit qu'une façon plus rapide de compter les mots consiste souvent à compter les espaces.

Il est intéressant de noter que le tokenizer compte les périodes. Peut vouloir supprimer ces premiers, peut-être aussi supprimer les numéros. Si vous ne commentez pas la ligne ci-dessous, les comptes seront égaux, du moins dans ce cas.

import nltk
import pandas as pd

sentences = pd.Series([ 
    'This is a very good site. I will recommend it to others.',
    'Can you please give me a call at 9983938428. have issues with the listings.',
    'good work! keep it up',
    'not a very helpful site in finding home decor. '
])

# remove anything but characters and spaces
sentences = sentences.str.replace('[^A-z ]','').str.replace(' +',' ').str.strip()

splitwords = [ nltk.Word_tokenize( str(sentence) ) for sentence in sentences ]
print(splitwords)
    # output: [['This', 'is', 'a', 'very', 'good', 'site', 'I', 'will', 'recommend', 'it', 'to', 'others'], ['Can', 'you', 'please', 'give', 'me', 'a', 'call', 'at', 'have', 'issues', 'with', 'the', 'listings'], ['good', 'work', 'keep', 'it', 'up'], ['not', 'a', 'very', 'helpful', 'site', 'in', 'finding', 'home', 'decor']]

wordcounts = [ len(words) for words in splitwords ]
print(wordcounts)
    # output: [12, 13, 5, 9]

wordcounts2 = [ sentence.count(' ') + 1 for sentence in sentences ]
print(wordcounts2)
    # output: [12, 13, 5, 9]

Si vous n'utilisez pas Pandas, vous n'aurez peut-être pas besoin de str ()

0
Bryce Chamberlain