Le paysage tarifaire de la genAI est compliqué. Les surcoûts sont légion. En cause, les interdépendances au sein de la pile technologique. Mais pas seulement. Une situation qui n’est pas sans rappeler l’emballement pour le cloud.
Gare aux surcoûts ! « Dans le paysage tarifaire de la GenAI qui évolue très rapidement, les entreprises doivent évaluer les fournisseurs en fonction de la flexibilité, de la transparence et de l’accessibilité, en tenant compte de diverses structures de tarification », déclare Philip Carter, Group Vice President, General Manager, Tech Buyer Digital Platform Research, IDC.
Après les expérimentations à tout-va, l’heure des comptes a sonné. Sur un marché de la genAI dominé par un seul fabricant de microprocesseurs, les factures dépassent souvent les anticipations budgétaires, incitant les CIO à trouver des parades permettant de limiter les coûts.
Surcoûts… comme aux débuts du cloud
`Selon l’étude Generative AI Pricing Models : A Strategic Buying Guide d’IDC, le paysage de la tarification de la genAI est rendu « complexe par les interdépendances au sein de la stack technologique ». Et il n’existe aucun moyen de contourner les surcoûts parce que l’infrastructure de base nécessaire pour entraîner et paramétrer les modèles est « largement fournie par une seule société ». Lisez : Nvidia.
Dans l’attente d’un approvisionnement plus important en GPU, de nombreux clients se tournent vers des fournisseurs de services spécifiques à l’IA, ainsi que vers des offres de cloud (public et privé) pour héberger leurs applications de GenAI, le cloud de Nvidia bien sûr, mais aussi AWS Trainium ou encore Google Tensor Processor Units. Plus, note IDC, des fournisseurs traditionnels tels que Dell (Project Helix) ou HPE (GreenLake).
GPU-as-a-Service, réponse partielle
Il est aussi possible d’acquérir de la puissance GPU « on demand » via des Digital Realty ou Equinix, ainsi que, dans une certaine mesure, les hyperscalers du cloud AWS, Google ou Microsoft, voire OVHcloud. Cette approche à la demande permet de réduire sensiblement les coûts initiaux liés à l’achat de processeurs et d’augmenter ou de réduire les capacités en fonction de la charge.
On voit aussi que les fournisseurs et plateformes de GPU-as-a-Service commencent à proposer des solutions clés en main pour le marketing, la finance, le juridique et les processus clients afin de permettre aux entreprises de se concentrer sur leurs compétences de base. Quoi qu’il en soit, une approche FinOps s’imposera. Cloud ou GenAI, les mêmes principes de visibilité sur les coûts finiront par être appliqués.
Les coûts énergétiques, l’autre épine
IDC attire également l’attention sur la consommation d’énergie des applications de genAI, qui représente un autre coût important à prendre en compte. Gourmande en calcul, l’IA a forcément un impact sur les data centers.
La consommation d’électricité des centres de données, de l’intelligence artificielle et du secteur des cryptomonnaies pourrait doubler d’ici 2026, a chiffré l’IEA (Internationl Electricity Agency). Les centres de données sont des moteurs importants de la croissance de la demande d’électricité dans de nombreuses régions. Après avoir consommé environ 460 térawattheures (TWh) à l’échelle mondiale en 2022, la consommation totale d’électricité des centres de données pourrait atteindre plus de 1 000 TWh en 2026…