How The Massive Power Draw Of Generative AI Is Overtaxing Our Grid

10 Views· 06/10/24
koutbino
koutbino
Subscribers
0

⁣La demande pour ces rangées de serveurs puissants n'a jamais été aussi élevée, alimentant l'appétit insatiable d'Internet pour l'informatique en nuage.
En réalité, le nuage n'est pas quelque part dans les airs. Il est ici, autour de nous. Nous sommes dedans, et vous êtes au milieu du nuage pendant que nous parlons.
Les centres de données comme celui-ci ne peuvent jamais s'arrêter. Le streaming, les réseaux sociaux, le stockage de photos, et plus récemment, l'entraînement et l'exécution de chatbots comme ChatGPT d'OpenAI, Gemini de Google et Copilot de Microsoft nécessitent de plus en plus de données.
Et vous pouvez sentir la chaleur qu'ils dégagent.
Grâce à la course à l'IA générative, les centres de données comme celui-ci poussent aussi rapidement que des entreprises comme Vantage peuvent les construire.
Cela signifie également que la demande d'énergie pour les faire fonctionner et les refroidir explose.
Si nous ne commençons pas à aborder ce problème énergétique différemment dès maintenant, nous risquons de ne jamais réaliser tout le potentiel de cette technologie incroyable, capable de véritablement changer nos vies.
Une requête à ChatGPT consomme près de 10 fois plus d'énergie qu'une recherche Google typique et autant d'énergie que maintenir une ampoule LED de 5 watts allumée pendant une heure.
Générer une image IA peut utiliser autant d'énergie que de charger votre smartphone.
Les géants du cloud construisant des centres de données pour s'adapter à l'IA ont vu leurs émissions de carbone monter en flèche.
Et ce problème n'est pas nouveau. Des estimations dès 2019 ont révélé qu'entraîner un grand modèle de langage produisait autant de CO2 que la durée de vie complète de cinq voitures à essence.
Même si nous pouvons produire suffisamment d'énergie, notre réseau vieillissant est de plus en plus incapable de supporter la charge.
Si vous examinez la demande de pointe pendant l'été, si les centres de données ne réduisent pas leur consommation, il pourrait y avoir une panne de courant.
Avec la question pressante de savoir si nous aurons suffisamment d'énergie pour l'adoption généralisée de l'IA générative, CNBC a visité un centre de données dans la Silicon Valley pour voir ces charges massives de calcul de première main.
Et pour discuter avec ceux qui sont au cœur du problème afin de découvrir ce qui peut être fait.
Il existe plus de 8 000 centres de données à travers le monde, avec la plus grande concentration aux États-Unis, mais cela ne suffit pas.
Nous soupçonnons que la demande issue des applications spécifiques à l'IA sera égale ou supérieure à celle que nous avons connue historiquement avec l'informatique en nuage.
L'engouement pour l'IA a fait grimper la demande pour les centres de données de 15 à 20 % chaque année jusqu'en 2030.
Et tandis que des entreprises comme Vantage en construisent de plus en plus, obtenir suffisamment d'énergie est crucial.
Les centres de données pourraient atteindre un stupéfiant 16 % de la consommation totale d'énergie des États-Unis d'ici 2030 selon un rapport, en hausse par rapport aux 2,5 % avant l'arrivée de ChatGPT en 2022.
Cela équivaut à environ deux tiers du total des foyers américains.....
voir la video d'origine sur youtube: ⁣https://www.youtube.com/watch?v=MJQIQJYxey4

Show more

 0 Comments sort   Sort By