web-dev-qa-db-fra.com

L'API de détection d'objet Tensorflow n'affiche pas les étapes globales

Je suis nouveau ici. J'ai récemment commencé à travailler avec la détection d'objet et j'ai décidé d'utiliser l'API de détection d'objet Tensorflow. Toutefois, lorsque je commence à former le modèle, celui-ci n’affiche pas l’étape globale comme il se doit, même si l’entraînement est en arrière-plan. 

Détails: Je m'entraîne sur un serveur et j'y accède à l'aide d'OpenSSH sous Windows. J'ai formé un jeu de données personnalisé en collectant des images et en les étiquetant. Je l'ai formé en utilisant model_main.py. De plus, jusqu'à il y a quelques mois, l'API était un peu différente, et ce n'est que récemment qu'ils ont changé pour la dernière version. Par exemple, auparavant, il utilisait train.py pour la formation, au lieu de model_main.py. Tous les tutoriels en ligne que je peux trouver utilisent train.py, ce qui pourrait donc poser un problème avec le dernier commit. Mais je ne trouve personne d'autre en train de régler ce problème.

Merci d'avance!

7
Aditya Singh

Ajoutez tf.logging.set_verbosity(tf.logging.INFO) après la section d'importation du script model_main.py. Il affichera un résumé après chaque 100ème étape. 

12
Thommy257

Comme Thommy257 l'a suggéré, l'ajout de tf.logging.set_verbosity(tf.logging.INFO) après la section d'importation de model_main.py imprime le résumé toutes les 100 étapes par défaut.

En outre, pour spécifier la fréquence du résumé, modifiez 

config = tf.estimator.RunConfig (model_dir = FLAGS.model_dir) 

à

config = tf.estimator.RunConfig (model_dir = FLAGS.model_dir, log_step_count_steps = k

où il va imprimer après chaque k étapes.

5
Aditya Singh

En ce qui concerne la modification récente apportée à model_main, la version précédente est disponible dans le dossier "legacy". J'utilise train.py et eval.py à partir de ce dossier hérité avec les mêmes fonctionnalités qu'auparavant.

1
Hafplo