Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

[MàJ] NVIDIA publie la version finale de CUDA 6

Moins de travail, c'est toujours bon à prendre
Logiciel 2 min
[MàJ] NVIDIA publie la version finale de CUDA 6
Mise à jour :

NVIDIA vient d'annoncer que CUDA 6 était désormais disponible en version finale. Les développeurs intéressés pourront se rendre par ici

NVIDIA vient d'annoncer officiellement la sixième version de CUDA, qui arrivera début 2014. Au programme, on note l'arrivée de la gestion unifiée de la mémoire, promise de longue date et qui permettra de simplifier le travail des développeurs. Mais quelques autres nouveautés sont aussi au programme.

NVIDIA CUDA 6 NVIDIA CUDA 6

 

« La plateforme CUDA 6 rend la programmation parallèle bien plus simple qu'auparavant, permettant aux développeurs de réduire de manière importante les efforts et le temps passé afin d'accélérer leurs applications grâce aux GPU ». C'est avec cette promesse que commence l'annonce officielle de la nouvelle version de CUDA qui n'arrivera que début 2014.

 

NVIDIA a profité de la fin de la conférence APU13 d'AMD pour faire cette annonce, et devrait en dire plus lors de la SC13 qui va ouvrir ses portes. La grande avancée de CUDA 6 est l'arrivée de la gestion unifiée de la mémoire, qui permet d'aller plus loin que ce qui était permis depuis CUDA 4.0 à ce niveau. En effet, désormais on évite au développeur de gérer l'échange des données entre la mémoire du CPU et celle du GPU pour avoir accès aux données. Celui-ci a toujours lieu, mais il est pris en charge automatiquement. 

 

Une façon différente de faire d'AMD avec hUMA puisque cet échange n'est dans ce cas pas nécessaire, ce qui devrait constituer un avantage en terme de performances au niveau des APU. Il sera intéressant de voir ce qu'il en sera une fois que la prochaine architecture Maxwell sera sur le marché.

 

NVIDIA GTC 2013

 

De nouvelles bibliothèques BLAS et FFT optimisées pour le multi-GPU capables de s'adapter à la présence d'un maximum de huit GPU. Elles seront automatiquement utilisées à la place des versions optimisées pour les CPU lorsque cela sera possible. Les développeurs qui veulent un accès préliminaires peuvent le demander par ici. De nombreux outils de développement seront mis à jour suite à l'arrivée de CUDA 6 qui devrait être dévoilé de manière plus complète dans les jours à venir.

18 commentaires
Avatar de Adakite INpactien
Avatar de AdakiteAdakite- 15/11/13 à 16:42:29

Les développeurs qui veulent un accès préliminaires peuvent le demander par ici.

mais si je comprends bien, de toute manière il faudra attendre Maxwell pour bénéficier matériellement de ce partage mémoire. Je me trompe ?

Du coup, je vois déjà moins l'intérêt de donner l'accès tant qu'aucun GPU Maxwell n'est sur le marché. Ca sera au passage intéressant de voir quelle politique Nvidia va avoir sur la question du FP64 des GM110 (je suppose que la nomenclature ne changera pas) parce que c'est quand même la déception sur la génération Kepler. Surtout que AMD avec sa 7970 propose quelque chose des très correct et ce même pour le grand public; même si la Titan reste sur ce point "encore" intéressante....mais chère la vache!

Avatar de David_L Équipe
Avatar de David_LDavid_L- 15/11/13 à 16:45:01

Adakite a écrit :

mais si je comprends bien, de toute manière il faudra attendre Maxwell pour bénéficier matériellement de ce partage mémoire. Je me trompe ?

Maxwell ce sera autre chose, d'où la dénomination différente d'ailleurs. Là de toutes façons ce n'est pas vraiment une nouveauté dans la pratique, juste une facilité pour le développeur au niveau du code (d'ou la phrase marketing bingo du début)

Avatar de lain INpactien
Avatar de lainlain- 15/11/13 à 16:54:28

serait-ce un teaser des GTX 800 ? :mad2:

Avatar de ragoutoutou Abonné
Avatar de ragoutoutouragoutoutou- 15/11/13 à 20:48:29

Si c'est bien fait, ça pourrait faire baisser dramatiquement la consommation mémoire de certaines applis qui doivent maintenir de multiples copies de mêmes blocs de données... Amélioration donc des moteurs de rendu et des pipelines de compression vidéo.

Avatar de pyro-700 INpactien
Avatar de pyro-700pyro-700- 15/11/13 à 23:03:29

depuis le temps que nvidia nous rabat les oreilles avec la mémoire unifié il était temps qu'ils le sorte avant de passer à la concurrence. :chinois:

Avatar de Birto INpactien
Avatar de BirtoBirto- 15/11/13 à 23:33:25

je suis pas un pro de la prog... mais une simple classe en CPP qui FAI passer les données de la RAM a la VRAM en vérifiant la synchro ce n'est pas bon ?

  • qui alloue que la ou c'est nécessaire

    • qui copie que quand c'est nécessaire
      etc etc

    je suppute mais c'est pas en gros ça mais directement intégré ?

Avatar de Birto INpactien
Avatar de BirtoBirto- 15/11/13 à 23:34:24

pardon pour les fautes . Version mobile ...

Avatar de dam1605 INpactien
Avatar de dam1605dam1605- 18/11/13 à 06:46:33

La plateforme CUDA 6 rend la programmation parallèle bien plus simple qu'auparavant, permettant aux développeurs de réduire de manière importante les efforts et le temps passé afin d'accélérer leurs applications grâce aux GPU

Pus simple je veux bien croire mais est ce que c'est vraiment utile ?

Quelqu'un qui cherche a utiliser son gpu, c'est pour les perfs et si y'a un truc qui est lent dans cette histoire : c'est la liaison pcie. Donc j'espère juste que ce sera pas du tout automatique et qu'on pourra toujours gérer ça explicitement si on veut.

Birto a écrit :

je suis pas un pro de la prog... mais une simple classe en CPP qui FAI passer les données de la RAM a la VRAM en vérifiant la synchro ce n'est pas bon ?

  • qui alloue que la ou c'est nécessaire

    • qui copie que quand c'est nécessaire
      etc etc

    je suppute mais c'est pas en gros ça mais directement intégré ?

c'est intégré dans le compilo, y'aura peut-être un attribut pour le lui indiquer tout de même.
Enfin là le support, il doit être un peu matériel et passer par les fonctionnalités d'addressage et de mémoire virtuelle du pcie je suppose. SI c'est ça tout ce qui est copie et transfert sont gérer le système mémoire du gpu.

Édité par dam1605 le 18/11/2013 à 06:50
Avatar de Marvellou Abonné
Avatar de MarvellouMarvellou- 06/03/14 à 14:25:48

dam1605 a écrit :

Pus simple je veux bien croire mais est ce que c'est vraiment utile ?

Quelqu'un qui cherche a utiliser son gpu, c'est pour les perfs et si y'a un truc qui est lent dans cette histoire : c'est la liaison pcie. Donc j'espère juste que ce sera pas du tout automatique et qu'on pourra toujours gérer ça explicitement si on veut.

Ça permettra de porter directement des bouts de codes sans rien faire. Après si on recherche une énorme accélération, il faudra toujours passer par une optimisation fine des transferts mémoires. Je comprends que c'est juste une facilité de développement, et non un gain en perf. Le hardware, reste le hardware.

Mais bon allouer sur le GPU et gerer les transferts c'est pas le plus compliqué chez CUDA.

Avatar de luxian INpactien
Avatar de luxianluxian- 15/04/14 à 19:11:33

lain a écrit :

serait-ce un teaser des GTX 800 ? :mad2:

Au fait ... quand est-ce que les Maxwell qualité filtre arrivent autrement qu'en 750 ?

Il n'est plus possible de commenter cette actualité.
Page 1 / 2