Lors de re:Invent 2025, AWS a annoncé une série de mises à jour majeures de son service de stockage principal, Amazon S3, pour l'ère de l'IA et du Big Data. Parmi ces mises à jour figurent la prise en charge du stockage vectoriel natif et des requêtes.Vecteurs Amazon S3La version officielle augmente encore la taille de stockage maximale d'un seul objet Amazon S3 à 50 To, aidant ainsi les entreprises à créer des applications d'IA générative et des lacs de données de manière plus efficace et économique.
Amazon S3 Vectors est officiellement lancé : il peut indexer 20 milliards d’ensembles de vecteurs, avec des coûts réduits de 90 %.
Pour permettre aux systèmes d'IA d'être stockés directement dans l'environnement natif Amazon S3 et d'effectuer des recherches sémantiques naturelles en interrogeant des données vectorielles, AWS a annoncé la sortie officielle d'Amazon S3 Vectors.
Par rapport à la version préliminaire publiée précédemment, la version officielle représente un bond en avant significatif en termes d'échelle, notamment la possibilité de faire évoluer un seul index jusqu'à 20 milliards de données vectorielles (une augmentation de capacité de 40 fois), et un seul compartiment peut prendre en charge jusqu'à 20 billions de données vectorielles.
AWS souligne qu'Amazon S3 Vectors améliore considérablement les performances (de 2 à 3 fois) pour les requêtes fréquentes, aide les clients à réduire leurs coûts jusqu'à 90 % par rapport à d'autres solutions et élimine la complexité de la gestion d'une infrastructure vectorielle dédiée.
Cette fonctionnalité s'intègre parfaitement aux bases de connaissances Amazon Bedrock et au service Amazon OpenSearch, permettant aux entreprises de créer facilement des agents IA et des systèmes RAG (Retrieval Augmentation). À ce jour, des clients tels que le groupe BMW, le réseau social japonais mixi et le fournisseur de technologies de communication vocale Twilio l'ont déjà adoptée.
La taille maximale d'un élément a été portée à 50 To, répondant ainsi aux besoins de la formation en IA et du contenu audiovisuel haute définition.
Face à la croissance exponentielle des volumes de données, AWS a annoncé qu'il allait augmenter la taille maximale de stockage d'un objet unique dans Amazon S3 de 5 To à 50 To, soit une multiplication par dix, permettant ainsi aux utilisateurs de stocker des objets de données uniques plus volumineux.
Cette mise à jour offre des avantages considérables aux secteurs qui gèrent d'importantes archives, car il n'est plus nécessaire de rogner des fichiers en raison des limitations des formats de stockage. Elle permet le stockage direct de vidéos ultra haute résolution, de données massives d'exploration sismique et même d'impressionnants ensembles de données d'entraînement pour l'IA, dans leurs formats d'origine. De plus, elle simplifie les flux de travail tout en conservant l'ensemble des catégories de stockage et des fonctionnalités d'Amazon S3.
Les opérations par lots S3 améliorent l'efficacité du traitement par 10 et les tables S3 prennent en charge la hiérarchisation intelligente.
Pour le traitement de données à grande échelle, Amazon S3 Batch Operations a également bénéficié d'améliorations de performances, avec des vitesses jusqu'à 10 fois plus rapides pour l'exécution de tâches par lots importantes (telles que la copie interrégionale, la gestion des balises ou la vérification de somme de contrôle), et une taille de tâche unique pouvant traiter jusqu'à 200 milliards d'éléments.
De plus, Amazon S3 Tables, conçu pour les charges de travail Apache Iceberg, a ajouté deux nouvelles fonctionnalités clés :
• Prend en charge la hiérarchisation intelligente :Il peut déplacer automatiquement les données entre trois niveaux d'accès en fonction du mode d'accès, permettant ainsi d'économiser jusqu'à 80 % des coûts de stockage sans incidence sur les performances.
• Réplication automatique :Il prend en charge la copie automatique des formulaires entre les régions et les comptes, permettant aux équipes situées à différents endroits d'accéder aux données locales pour améliorer les performances, tout en simplifiant la conformité et la gestion des sauvegardes.
Les données FSx pour NetApp ONTAP s'intègrent parfaitement à l'écosystème de stockage Amazon S3.
Enfin, AWS a étendu les fonctionnalités des points d'accès Amazon S3 pour inclure la prise en charge d'Amazon FSx pour NetApp ONTAP. Grâce à cette intégration, les clients peuvent accéder aux fichiers stockés sur FSx aussi facilement qu'aux données stockées sur Amazon S3.
Les utilisateurs d'entreprise peuvent désormais utiliser directement les services d'IA et d'analyse initialement conçus pour Amazon S3, tels qu'Amazon SageMaker, Amazon Athena ou Amazon Bedrock, pour traiter les données stockées dans FSx pour NetApp ONTAP, abaissant considérablement le seuil d'application après la migration des données NetApp ONTAP du système physique vers le cloud.
Fonctionnalité bonus : Mise à niveau matérielle EC2 et mise à jour du service de base de données
Outre les services de stockage, AWS a également publié plusieurs mises à jour pour le calcul, les bases de données et les outils modernes lors de re:Invent 2025 :
Exemples de calcul et évolution du calcul sans serveur :
• Instance Amazon EC2 X8aedz :Doté d'un processeur serveur AMD EPYC de 5e génération, il offre des vitesses de traitement allant jusqu'à 5 GHz et une capacité de mémoire de 3 To, conçu pour les charges de travail nécessitant des performances monocœur élevées, telles que l'automatisation de la conception électronique (EDA) et les bases de données gourmandes en mémoire.
• Instances gérées AWS Lambda :En combinant la simplicité du calcul sans serveur avec la flexibilité d'EC2, les fonctions Lambda peuvent s'exécuter sur les ressources de calcul EC2, facilitant l'accès à du matériel spécialisé et optimisant les coûts.
• Fonctions durables AWS Lambda :Elle permet la création d'applications capables de coordonner plusieurs étapes et de fonctionner en continu (de quelques secondes à un an) sans engendrer de coûts de calcul supplémentaires liés à l'inactivité en attendant des événements externes.
Optimisation des bases de données et de la recherche :
• Plans d'économies sur les bases de données :Introduction d'un nouveau modèle de tarification pour les services AWS Repository, offrant des options d'optimisation des coûts plus flexibles.
• Accélération du service Amazon OpenSearch :En intégrant l'accélération GPU et des fonctionnalités d'optimisation automatique, la vitesse de construction de bases de données vectorielles à grande échelle peut être multipliée par 10 et le coût réduit d'un quart.
• RDS pour SQL Server/Oracle :Améliorer l'évolutivité et optimiser les coûts, notamment grâce à la prise en charge des instances Microsoft SQL Server Developer Edition et Oracle M7i/R7i.
Modernisation et gestion des applications :
• AWS Transform :L'entreprise a lancé une fonctionnalité personnalisée qui utilise l'IA pour apprendre les modèles organisationnels afin d'automatiser la transformation du code, et a également annoncé des fonctionnalités modernes pour toutes les plateformes Windows et mainframe afin d'aider les entreprises à éliminer leur dette technologique.
• Fonctionnalités d'Amazon EKS :Simplifiez le processus de développement des applications conteneurisées Kubernetes et fournissez une orchestration des charges de travail et une gestion des ressources cloud entièrement gérées.
• Amazon CloudWatch :Il introduit une gestion et une analyse unifiées des données et prend en charge les formats OCSF et Apache Iceberg.
Réseau et partenaires :
• Amazon Route 53 Global Resolver (Aperçu) :Il assure une gestion DNS hybride unifiée, résolvant les domaines publics et privés à l'échelle mondiale grâce à la technologie Anycast.
• Centre des partenaires AWS :Elle est désormais directement intégrée à la console de gestion AWS, ce qui simplifie le processus de gestion des solutions pour les partenaires.


