Cuda ?

Bonjour,

J’entends parler de cuda en ce moment (de chez nvidia). J’aimerai connaitre son intérêt (si il y en a un…). Est-ce un nouveau driver ? Cela vient-il en complément de glx ?
Sur google tout ce que j’ai trouvé me parait bien obscur…

je suis preneur de toutes les infos.

Merci.
a+

Cuda est une technologie qui permet aux processeurs graphiques de chez nVIDIA d’être utilisé pour autre chose que pour calculer un rendu graphique. Actuellement sous GNU/Linux c’est supporté uniquement par le driver propriétaire.

ATI à sa propre technologie du même acabit et OpenCL est une norme qui vise à standardiser ces technologies.

Y a-t-il un intérêt pour l’utilisateur lambda ? gain de perf ou autre …

Si t’as un binôme du 15eme degré à faire calculer par mathematica ou encore pire, oui, il y a un interet, sachant qu’un GPU est vraiment bien plus puissant qu’un CPU et donc peut permettre de faire des calculs bien plus rapides.

donc oui, gain de perf. après faut des logiciels développés dans cette optique.

ok merci

Je fais des soustractions des fois… avec des retenues en plus… :slightly_smiling:

merci à vous deux pour ces éclaircissements !

POUR CERTAINS TYPE DE CALCUL

Essaye de faire tourner un OS sur un GPU … le gain devrait être négatif :stuck_out_tongue:

c’est beaucoup utilisé dans les calculs scientifiques.
l’utilisation d’un GPU en plus d’un processeur est en effet largement bénéfique pour les calculs par éléments finis par exemple.
ceci dit certaines cartes graphiques sont vraiment prévues pour ca (les cartes tesla chez nvidia par exemple) mais parfois c’est plus rentable d’acheter un nouveau processeur qu’une carte graphique de ce type.

POUR CERTAINS TYPE DE CALCUL

Essaye de faire tourner un OS sur un GPU … le gain devrait être négatif :stuck_out_tongue:[/quote]
L’un des gros problème pour ce genre de chose c’est l’accès à la mémoire. Les cartes graphiques ont un accès ultra-rapide à la mémoire qui leur ai dédiée. Peut être légèrement plus rapide qu’entre le CPU et la RAM, mais les données lues sur disque dur ne peuvent être positionnées qu’en RAM, pareil pour les données récupérée par le réseau, il faut ensuite faire transiter le tout de la RAM à la mémoire de la carte graphique et même si c’est rapide ça introduit une latence.

Sinon le supercalculateur n°1 du dernier top 500 utilise massivement Fermi (en même temps c’est nVIDIA qui l’a construit).

POUR CERTAINS TYPE DE CALCUL
Sinon le supercalculateur n°1 du dernier top 500 utilise massivement Fermi (en même temps c’est nVIDIA qui l’a construit).[/quote][/quote]
Pas uniquement … avoir une petite unité qui fait tourné l’OS et le gros de la puissance délivré par ne floppé de GPU est tout a fait viable.
Et de toute façon les supercalculateurs sont spécifique … pas vraiment comparable a ce que l’on trouve dans le salon de monsieur tout le monde

Ce n’est pas vraiment sur les gros calculs que le gain se fait, c’est surtout pour des algos massivement parallèle qu’il y a un gain.

Si tu veux faire un gros calcul sur des flottants, mais qu’il n’est pas parallélisable, mieux vaut le faire sur le CPU (résultat plus précis, et plus rapide).

Le point faible de ces technos, c’est qu’il faut copier les données de la mémoire centrale vers la mémoire du GPU. Et c’est un vrai goulot d’étranglement. Et que, même si avec Cuda C tu as un langage “haut niveau”, c’est assez dur de faire des programmes efficaces (utilisation de la mémoire partagée, accès à la mémoire centrale ordonnée…)

On parle de puissance en nombre d’opérations par secondes les GPU et les CPU se valent (ou alors il y a un avantage au GPU), ensuite ils se différencient sur leur architecture interne (précision, nombre entier/à virgule flotante,…) et sur l’architecture générale de l’ordinateur (positionnement des unités de mémoires et de calcul entre elles).

@Mimoza > Il est tout à fait possible de faire fonctionner un système d’exploitation sur une carte graphique (voir les architecture NUMA).

Je suis d’accord, mais les performances ne seront pas au niveau d’un CPU pour un même nombre de puce/coeur.

Je suis d’accord, mais les performances ne seront pas au niveau d’un CPU pour un même nombre de puce/coeur.[/quote]
NUMA déchire SMP. Non le truc c’est que le SE qui tourne sur le GPU est pas généraliste.

Mais pour y avoir touché, NUMA est vraiment intéréssant dans sa manière d’apréhender le multiprocesseur et a des performances très interessante (tu as un contrôle plus fin de ce que fait chaque unité de calcul et la mémoire et mieux segmentée).