web-dev-qa-db-fra.com

Numpy détecte et utilise-t-il automatiquement le GPU?

J'ai quelques questions de base sur l'utilisation de Numpy avec le GPU (nvidia GTX 1080 Ti). Je suis nouveau sur le GPU et je voudrais m'assurer que j'utilise correctement le GPU pour accélérer Numpy/Python. J'ai cherché sur Internet pendant un certain temps, mais je n'ai pas trouvé de didacticiel simple répondant à mes questions. J'apprécierais que quelqu'un me donne quelques conseils:

1) Est-ce que Numpy/Python détecte automatiquement la présence de GPU et l'utilise pour accélérer le calcul matriciel (par exemple numpy.multiply, numpy.linalg.inv, ... etc)? Ou ai-je du code d'une manière spécifique pour exploiter le GPU pour un calcul rapide?

2) Quelqu'un peut-il recommander un bon didacticiel/matériel d'introduction sur l'utilisation de Numpy/Python avec GPU (NVIDIA)?

Merci beaucoup!

12
syeh_106

Est-ce que Numpy/Python détecte automatiquement la présence de GPU et l'utilise pour accélérer le calcul matriciel (par exemple numpy.multiply, numpy.linalg.inv, ... etc)?

Non.

Ou ai-je du code d'une manière spécifique pour exploiter le GPU pour un calcul rapide?

Oui. Recherchez Numba, Theano, PyTorch ou PyCUDA pour différents paradigmes pour accélérer Python avec les GPU).

13
talonmies

Non, vous pouvez également utiliser CuPy qui a une interface similaire avec numpy. https://cupy.chainer.org/

2
Deniz Beker