Amazon Web Services, le plus grand fournisseur de cloud computing au monde, envisage d’utiliser de nouvelles puces d’intelligence artificielle d’Advanced Micro Devices, bien qu’il n’ait pas pris de décision finale, a déclaré un dirigeant d’AWS à Reuters.
Les remarques sont intervenues lors d’un événement AMD où la société de puces a exposé sa stratégie pour le marché de l’IA, qui est dominé par son rival Nvidia.
Bien qu’AMD ait divulgué certaines spécifications techniques pour une puce AI à venir plus tard cette année qui pourraient à certains égards battre les meilleures offres actuelles de Nvidia sur certaines mesures, la nouvelle a fait chuter les actions après qu’AMD n’a pas divulgué de client phare pour la puce.
Dans des entretiens avec Reuters, la directrice générale d’AMD, Lisa Su, a décrit une approche pour gagner les principaux clients du cloud computing en proposant un menu de toutes les pièces nécessaires pour créer les types de systèmes pour alimenter des services similaires à ChatGPT, mais en laissant les clients choisir ceux qu’ils souhaitent. voulez, en utilisant des connexions standard de l’industrie.
« Nous parions que beaucoup de gens voudront avoir le choix et qu’ils voudront pouvoir personnaliser ce dont ils ont besoin dans leur centre de données », a déclaré Su.
Bien qu’AWS n’ait pris aucun engagement public d’utiliser les nouvelles puces MI300 d’AMD dans ses services cloud, Dave Brown, vice-président du cloud de calcul élastique chez Amazon, a déclaré qu’AWS les envisageait.
« Nous travaillons toujours ensemble sur où exactement cela atterrira entre AWS et AMD, mais c’est quelque chose sur lequel nos équipes travaillent ensemble », a déclaré Brown. « C’est là que nous avons bénéficié d’une partie du travail qu’ils ont effectué autour de la conception qui se branche sur les systèmes existants. »
Nvidia vend ses puces au coup par coup, mais demande également aux fournisseurs de cloud s’ils sont prêts à proposer un système complet conçu par Nvidia dans un produit appelé DGX Cloud. Oracle est le premier partenaire de Nvidia pour ce système.
Brown a déclaré qu’AWS avait refusé de travailler avec Nvidia sur l’offre DGX Cloud.
« Ils nous ont approchés, nous avons examiné le modèle commercial, et cela n’avait pas beaucoup de sens », a déclaré Brown.
Brown a déclaré qu’AWS préfère concevoir ses propres serveurs à partir de zéro. AWS a commencé à vendre la puce H100 de Nvidia en mars, mais dans le cadre de systèmes de sa propre conception.
© Thomson Reuters 2023
(Cette histoire n’a pas été éditée par le personnel de NDTV et est générée automatiquement à partir d’un flux syndiqué.)