le 11 avril 2024 - 10h56

100 000 GPU Nvidia pour entraîner Grok, l’IA d’Elon Musk

Entraîner l’intelligence artificielle de la prochaine version du chatbot Grok de xAI nécessitera la puissance combinée de 100 000 processeurs graphiques Nvidia H100. Oui, 100 000 !

A
100-000-gpu-nvidia-pour-entrainer-grok-l-ia-d-elon-musk
Illustration générée par IA

Les chatbots, ou agents conversationnels reposant sur des algorithmes d’intelligence artificielle (IA) façon ChatGPT, nécessitent d’être entraînés sur un nombre de données toujours plus grand. Un entraînement qui nécessite une énorme puissance de calcul, comme l’a récemment confirmé Elon Musk.

 

Les énormes besoins de Grok 3

Propriétaire de X, PDG et fondateur de multiples compagnies innovantes parmi lesquelles Tesla et Space X, Musk avait annoncé l’année dernière le premier produit de sa société xAI, créée plus tôt en 2023 : un chatbot nommé Grok (ce nom, quand même…). L’entrepreneur a récemment déclaré que Grok 2 avait nécessité 20 000 GPU Nvidia H100 pour son entraînement, et d’ajouter qu’il en faudra 100 000 pour atteindre la puissance nécessaire à l’entraînement de la prochaine version, Grok 3. 

 

 

En janvier, Musk avait déclaré avoir investi 500 millions de dollars pour son super calculateur Dojo, soit l’équivalent de 10 000 processeurs nVidia H100, et d’ajouter : « Tesla dépensera beaucoup plus cette année pour du matériel nVidia. Les enjeux de base pour être compétitif dans le domaine de l'IA sont actuellement d'au moins plusieurs milliards de dollars par an ».

SOURCE : Tweaktown
soutenir
pour continuer
Chaque semaine, recevez l’actualité tech et culture
Inscrivez-vous
Recevez l’actualité tech et culture sur la Newsletter cesar
Inscrivez-vous
OK
Non merci, je suis déjà inscrit !