logo Begeek

Meta s’attaque à la fabrication de ses propres puces IA

Meta s’attaque à la fabrication de ses propres puces IA
Publié le , mis à jour le

Le géant des réseaux sociaux teste un processeur IA dédié à l’entraînement de ses algorithmes, une étape clé pour se libérer de la dépendance à Nvidia.

Tl;dr

  • Meta teste actuellement sa première puce IA développée en interne, visant à réduire sa dépendance à Nvidia et à optimiser ses coûts.
  • TSMC collabore avec Meta pour la fabrication de cette puce, après avoir franchi l’étape cruciale du « tape-out ».
  • Cette initiative fait partie d’une stratégie plus large pour maîtriser ses infrastructures IA et utiliser ses propres technologies d’entraînement d’ici 2026.

Une nouvelle direction pour Meta avec le test de sa puce d’entraînement IA

La maison-mère de Facebook, Instagram et WhatsApp, Meta, teste actuellement sa première puce d’entraînement IA conçue en interne. Cette initiative s’inscrit dans une stratégie visant à réduire sa dépendance aux fournisseurs externes comme Nvidia. Le développement de cette puce, un accélérateur dédié, permettrait à Meta d’optimiser la consommation d’énergie et de réduire les coûts liés à l’utilisation des GPU classiques. Si les essais sont concluants, la production pourrait s’intensifier pour une utilisation à grande échelle. Meta prévoit d’ailleurs des dépenses colossales en infrastructures IA, estimées entre 114 et 119 milliards de dollars en 2025, dont 65 milliards pour les seules infrastructures IA.

TSMC au cœur de la production de la première puce IA de Meta

Pour la fabrication de sa puce, Meta s’est associée au géant taïwanais TSMC. La phase de test a débuté après la réussite de la première « tape-out », une étape majeure dans la fabrication des semi-conducteurs. Cette opération, qui consiste à envoyer le design final en production, représente un investissement de plusieurs dizaines de millions de dollars et nécessite de trois à six mois de travail sans garantie de succès. Si la puce ne fonctionne pas comme prévu, Meta devra diagnostiquer le problème et relancer le processus. Pour l’instant, ni Meta ni TSMC n’ont commenté ces avancées.

Une volonté de maîtriser l’ensemble de la chaîne IA

Le projet MTIA (Meta Training and Inference Accelerator) est en cours depuis plusieurs années, bien que marqué par quelques revers. Après l’abandon d’une première puce d’inférence, Meta a récemment déployé une version fonctionnelle pour ses systèmes de recommandation sur Facebook et Instagram. L’objectif est désormais d’utiliser ces puces pour l’entraînement de ses modèles IA d’ici 2026. À terme, Meta espère également intégrer cette technologie à ses produits d’IA générative, tels que son chatbot Meta AI. Selon Chris Cox, directeur produit de Meta, le développement suit une approche progressive : « marcher, ramper, courir ».

Nvidia reste incontournable malgré les ambitions de Meta

Même si Meta avance vers une autonomie technologique, le groupe continue d’être l’un des plus gros clients de Nvidia. Après avoir abandonné une puce interne en 2022, Meta a commandé des milliards de dollars de GPU pour entraîner ses modèles, dont la série Llama et ses systèmes de recommandations. Toutefois, certains experts doutent de l’efficacité à long terme de la simple montée en puissance des modèles d’IA, une tendance remise en question par l’arrivée de nouveaux acteurs comme DeepSeek. Ces derniers misent sur l’optimisation plutôt que sur l’augmentation de la puissance brute, provoquant des secousses sur les marchés boursiers, où Nvidia a temporairement perdu jusqu’à 20 % de sa valeur.

Publicité

À lire aussi sur Begeek:

Accessibilité : partiellement conforme