2009-12-08 10 views

Répondre

6

La boîte à outils Parallel Computing publiée avec MATLAB R2010b prend désormais en charge le GPU, y compris les surcharges pour diverses opérations mathématiques et une interface avec les noyaux CUDA préexistants.

Doc ici: http://www.mathworks.com/discovery/matlab-gpu.html

+0

La veste fait maintenant partie de Parallel Computing Toolbox http://blog.accelereyes.com/blog/2012/12/12/exciting-updates-from-accelereyes/ – mrgloom

3

Pour une comparaison de veste vs Matlab avec CUDA Check this out http://www.accelereyes.com/products/compare

Aussi vous pouvez utiliser le SDK de veste pour développer vos propres mexfiles d'une manière plus simple et plus efficace (mémoire gestion sage)

1

Dans l'ensemble, je recommanderais Accelereyes Jacket; ce qui était l'une de vos conclusions dans votre message original.

Bien que ce ne soit pas un freeware, ils donnent des réductions éducatives très substantielles.

Cela dit, sage-performance, tout compilateur GPU/langue/sdk va accélérer la matrice/vecteur/algébrique/FFT/code etc un ordre de grandeur ou plus par rapport à codage CPU traditionnel. Même hyper-threaded, le code CPU 8 voies sur ma machine personnelle fonctionne 48x plus vite avec l'accélération GPU sur une carte nvidia quadro 4000 relativement peu coûteux. (Vous n'avez pas besoin d'abandonner 2100 $ sur un tesla à moins que l'école ou quelqu'un d'autre ne le fournisse!)

Cela dit, même si je suis compétent en c, C++, SQL de toute nature, etc ... J'ai programmé depuis plus d'une décennie, j'ai trouvé que la veste était beaucoup plus facile à utiliser rapidement et efficacement et j'optimisais mon vrai travail de recherche. J'ai regardé GPU et Matlab PCT GPU, et j'ai trouvé que la veste était une combinaison étrange de puissance et de facilité d'intégration au sein de matlab et du monde étranger des GPU. Le soutien de la veste est également excellent. J'obtiendrais une réponse hautement compétente généralement dans un délai d'un jour ouvrable et la résolution du problème dans les deux jours était typique.

Pour moi, c'est un énorme avantage. Je crains que GPUmat ait un support très limité, et matlab, tout en ayant un support apparemment comparable à la veste, leur support n'est pas gratuit. En résumé, si vous avez besoin d'obtenir votre code existant (en supposant que c'est un candidat viable pour la parallélisation GPU) en cours d'exécution 10-48x plus rapide dans environ 2 semaines avec un excellent support, allez veste! (YMMV)