web-dev-qa-db-fra.com

Scikit Learn TfidfVectorizer: Comment obtenir les n premiers termes avec le score tf-idf le plus élevé

Je travaille sur un problème d'extraction de mots clés. Considérons le cas très général

tfidf = TfidfVectorizer(tokenizer=tokenize, stop_words='english')

t = """Two Travellers, walking in the noonday Sun, sought the shade of a widespreading tree to rest. As they lay looking up among the pleasant leaves, they saw that it was a Plane Tree.

"How useless is the Plane!" said one of them. "It bears no fruit whatever, and only serves to litter the ground with leaves."

"Ungrateful creatures!" said a voice from the Plane Tree. "You lie here in my cooling shade, and yet you say I am useless! Thus ungratefully, O Jupiter, do men receive their blessings!"

Our best blessings are often the least appreciated."""

tfs = tfidf.fit_transform(t.split(" "))
str = 'tree cat travellers fruit jupiter'
response = tfidf.transform([str])
feature_names = tfidf.get_feature_names()

for col in response.nonzero()[1]:
    print(feature_names[col], ' - ', response[0, col])

et cela me donne

  (0, 28)   0.443509712811
  (0, 27)   0.517461475101
  (0, 8)    0.517461475101
  (0, 6)    0.517461475101
tree  -  0.443509712811
travellers  -  0.517461475101
jupiter  -  0.517461475101
fruit  -  0.517461475101

ce qui est bon. Pour tout nouveau document qui arrive, existe-t-il un moyen d'obtenir les n premiers termes avec le score tfidf le plus élevé?

24
AbtPst

Vous devez faire un peu de chanson et danser pour obtenir les matrices sous forme de tableaux numpy à la place, mais cela devrait faire ce que vous recherchez:

feature_array = np.array(tfidf.get_feature_names())
tfidf_sorting = np.argsort(response.toarray()).flatten()[::-1]

n = 3
top_n = feature_array[tfidf_sorting][:n]

Cela me donne:

array([u'fruit', u'travellers', u'jupiter'], 
  dtype='<U13')

L'appel argsort est vraiment l'utile, voici les documents pour cela . Nous devons faire [::-1] Parce que argsort ne supporte que le tri petit à grand. Nous appelons flatten pour réduire les dimensions à 1d afin que les indices triés puissent être utilisés pour indexer le tableau d'entités 1d. Notez que l'inclusion de flatten ne fonctionnera que si vous testez un document à la fois.

En outre, sur une autre note, vouliez-vous dire quelque chose comme tfs = tfidf.fit_transform(t.split("\n\n"))? Sinon, chaque terme de la chaîne multiligne est traité comme un "document". L'utilisation de \n\n Signifie que nous examinons actuellement 4 documents (un pour chaque ligne), ce qui est plus logique lorsque vous pensez à tfidf.

26
hume

Solution utilisant la matrice clairsemée elle-même (sans .toarray())!

tfidf = TfidfVectorizer(stop_words='english')
corpus = [
    'I would like to check this document',
    'How about one more document',
    'Aim is to capture the key words from the corpus',
    'frequency of words in a document is called term frequency'
]

X = tfidf.fit_transform(corpus)
feature_names = np.array(tfidf.get_feature_names())


new_doc = ['can key words in this new document be identified?',
           'idf is the inverse document frequency caculcated for each of the words']
responses = tfidf.transform(new_doc)


def get_top_tf_idf_words(response, top_n=2):
    sorted_nzs = np.argsort(response.data)[:-(top_n+1):-1]
    return feature_names[response.indices[sorted_nzs]]

print([get_top_tf_idf_words(response,2) for response in responses])

#[array(['key', 'words'], dtype='<U9'),
 array(['frequency', 'words'], dtype='<U9')]
1
Venkatachalam N