numpy cuda gpgpu blas

Numpy, BLAS y CUBLAS



cuda gpgpu (2)

En una palabra: no, no puedes hacer eso.

Hay un scikit bastante bueno que proporciona acceso a CUBLAS desde scipy llamado scikits.cuda que está construido encima de PyCUDA . PyCUDA proporciona una clase numpy.ndarray que permite la manipulación de matrices numpy en la memoria GPU con CUDA. Entonces puedes usar CUBLAS y CUDA con numpy, pero no puedes simplemente unir contra CUBLAS y esperar que funcione.

También hay una biblioteca comercial que proporciona funcionalidad de numeración y cubos y que tiene una interfaz o enlaces de Python, pero dejaré que uno de sus cómplices lo llene al respecto.

Numpy se puede "enlazar / compilar" contra diferentes implementaciones de BLAS (MKL, ACML, ATLAS, GotoBlas, etc.). No siempre es fácil de configurar, pero es posible.

¿También es posible "vincular / compilar" numpy contra la implementación CUBLAS de NVIDIA?
No pude encontrar ningún recurso en la web y antes de dedicarle demasiado tiempo a intentarlo, quería asegurarme de que fuera posible.


aquí hay otra posibilidad:

http://www.cs.toronto.edu/~tijmen/gnumpy.html

esto es básicamente un entorno gnumpy + cudamat que se puede utilizar para aprovechar una GPU. también se puede ejecutar el mismo código sin el gpu usando npmat. consulte el enlace de arriba para descargar todos estos archivos.