web-dev-qa-db-fra.com

Quel service Google Cloud Platform est le plus facile à utiliser pour exécuter Tensorflow?

Alors que je travaillais sur des missions Udacity Deep Learning, j'ai rencontré un problème de mémoire. Je dois passer à une plateforme cloud. J'ai déjà travaillé avec AWS EC2, mais j'aimerais maintenant essayer de Google Cloud Platform (GCP). J'aurai besoin d'au moins 8 Go de mémoire. Je sais comment utiliser Docker localement mais je ne l’ai jamais essayé sur le cloud.

  1. Existe-t-il une solution prête à l'emploi pour exécuter Tensorflow sur GCP?
  2. Sinon, quel service (Compute Engine ou Container Engine) faciliterait la mise en route?
  3. Toute autre astuce est également appréciée!
22
Thoran

Résumer les réponses:

  • Datalab
  • Cloud ML
  • Installation manuelle sur Compute Engine. Voir les instructions ci-dessous.

Instructions pas à pas pour exécuter TensorFlow sur Compute Engine:

  1. Créer un projet
  2. Ouvrez le Cloud Shell (un bouton en haut)
  3. Répertoriez les types de machines: gcloud compute machine-types list. Vous pouvez changer le type de machine que j'ai utilisé dans la commande suivante.
  4. Créer une instance:
gcloud compute instances create tf \
  --image container-vm \
  --zone europe-west1-c \
  --machine-type n1-standard-2
  1. Exécutez Sudo docker run -d -p 8888:8888 --name tf b.gcr.io/tensorflow-udacity/assignments:0.5.0 (changez le nom de l'image en celui désiré)
  2. Recherchez votre instance dans dashboard et modifiez le réseau default.
  3. Ajoutez une règle de pare-feu pour autoriser votre IP ainsi que le protocole et le port tcp:8888.
  4. Recherchez l'adresse IP externe de l'instance à partir du tableau de bord. Ouvrez IP:8888 sur votre navigateur. Terminé!
  5. Lorsque vous avez terminé, supprimez le cluster créé pour éviter les frais.

Voici comment je l'ai fait et cela a fonctionné. Je suis sûr qu'il existe un moyen plus facile de le faire.

Plus de ressources

Vous pourriez être intéressé à en savoir plus sur:

Bon à savoir

  • "Le contenu de votre répertoire de base Cloud Shell persiste dans tous les projets entre toutes les sessions de Cloud Shell, même après la fin et le redémarrage de la machine virtuelle"
  • Pour répertorier toutes les versions d'image disponibles: gcloud compute images list --project google-containers

Merci à @ user728291, @MattW. et @CJCullen.

20
Thoran

Google Cloud Machine Learning est ouvert au monde sous forme bêta aujourd'hui. Il fournit TensorFlow en tant que service, vous évitant ainsi de gérer des machines et d’autres ressources brutes. Dans le cadre de la version bêta, Datalab a été mis à jour pour fournir des commandes et des utilitaires d’apprentissage automatique. Découvrez-le à l’adresse: http://cloud.google.com/ml .

9
Jing Jing Long

Google dispose d'une plate-forme Cloud ML dans un alpha limité.

Voici un article blog et un tutorial sur l'exécution de TensorFlow sur Kubernetes/Google Container Engine.

Si cela ne vous convient pas, les didacticiels TensorFlow devraient tous pouvoir être exécutés sur AWS EC2 ou Google Compute Engine.

3
CJ Cullen

Vous pouvez maintenant également utiliser DeepLearning images pré-configuré. Ils ont tout ce qu'il faut pour le TensorFlow.

Je ne suis pas sûr qu'il soit nécessaire de rester sur la plateforme Google Cloud. Si vous pouvez utiliser d'autres produits, vous gagnerez peut-être beaucoup de temps et d'argent. 

Si vous utilisez TensorFLow, je recommanderais une plate-forme appelée TensorPort . C’est exclusivement pour TesnorFlow et c’est la plate-forme facile dont je suis au courant. Le code et les données sont chargés avec git et fournissent un module python pour le basculement automatique des chemins entre la machine distante et votre machine locale. Ils fournissent également un code de plaque de chaudière pour la configuration de l’informatique distribuée si vous en avez besoin. J'espère que cela t'aides. 

0
Harrison