En réponse à la demande croissante du marché pour des applications d'intelligence artificielle générées automatiquement, AWS a annoncé le lancement de la nouvelle plateforme de machine learning Amazon SageMaker lors de l'événement re:Invent 2024 et a également intégré davantage de modèles et d'outils d'intelligence artificielle à la plateforme Amazon Bedrock. Grâce à l'intégration d'applications technologiques Amazon Q, davantage d'utilisateurs de la plateforme AWS peuvent créer plus facilement des services d'application d'intelligence artificielle.

Rendre plus efficace la mise en place et la formation des modèles d'intelligence artificielle
Concernant la mise à jour d'Amazon SageMaker, en plus de souligner qu'elle utilisera une interface unifiée pour aider à utiliser les meilleurs outils pour aider à l'analyse des données et sélectionner les modèles d'IA appropriés, elle permettra aux utilisateurs de personnaliser et de déployer plus facilement les services d'application d'IA appropriés, et pourra également étendre et accélérer la construction de modèles d'IA générés automatiquement via Amazon SageMaker HyperPod.

Dans un marché en constante évolution et un paysage de données en constante évolution, l'entraînement des modèles d'IA doit être plus efficace. C'est pourquoi AWS a lancé une solution d'entraînement élastique pour Amazon SageMaker HyperPod, permettant aux utilisateurs d'entraîner en continu et plus efficacement les modèles d'IA sans impacter les opérations de service existantes. Cette solution est censée améliorer l'efficacité de plus de 90 %.
De plus, Amazon SageMaker HyperPod peut également maintenir le fonctionnement des services existants de manière dynamique grâce à la nouvelle fonction de gouvernance des tâches ajoutée, ce qui rend la formation, le réglage fin et l'apprentissage par inférence des modèles d'intelligence artificielle plus efficaces, réduisant ainsi les coûts globaux.
Afin de renforcer les ressources applicatives de la plateforme Amazon SageMaker, AWS intègre désormais des partenaires pour fournir des services d'intelligence artificielle. Parallèlement, AWS met l'accent sur la sécurité des données et de la confidentialité sur la plateforme Amazon SageMaker, permettant ainsi aux utilisateurs de créer des modèles d'intelligence artificielle plus responsables grâce à ces services applicatifs.
Les entreprises de technologie d'intelligence artificielle, notamment Comet, deepchecks, fiddler AI et LAKERA AI, ont actuellement formé et déployé leurs ressources d'application de modèle d'intelligence artificielle via la plate-forme AWS SageMaker, et Autodesk met également l'accent sur la construction de nombreux services d'application d'intelligence artificielle via les ressources de la plate-forme AWS.
Intégrer davantage de ressources de modèles d'intelligence artificielle
Concernant les mises à jour de la plateforme Amazon Bedrock, davantage de modèles d'IA sont en cours d'intégration. Actuellement, les ressources de modèles d'IA d'AI21labs, Anthropic, cohere, Meta, Mistral AI et stability.ai peuvent être déployées et utilisées via la plateforme Amazon Bedrock. Le modèle d'IA d'Amazon, Nova, annoncé récemment, sera également inclus. Par ailleurs, un partenariat avec Poolside, concepteur de modèles d'IA programmables pour les grandes entreprises, a été annoncé pour intégrer ses deux assistants numériques IA, Malibu et Point App, à la plateforme Amazon Bedrock.

Parmi les autres mises à jour, citons l'intégration du nouveau modèle d'intelligence artificielle de génération d'images de stability.ai, Stable Diffusion 3.5, et du modèle RAY2 de Luma AI, capable de générer des vidéos dynamiques réalistes et de haute qualité. Luma AI a également souligné que son modèle est entraîné sur un HyperPod Amazon SageMaker à plus grande échelle, produisant ainsi des contenus vidéo générés par des images plus réalistes et plus naturelles.
Amazon a également annoncé l'introduction du projet Marketplace sur la plateforme Amazon Bedrock, permettant d'héberger et d'utiliser davantage de modèles d'intelligence artificielle via la plateforme Amazon Bedrock, permettant aux utilisateurs de tester et d'importer plus de 100 modèles d'intelligence artificielle populaires, émergents ou spécifiques sur cette plateforme, et d'importer et de déployer des applications via la plateforme Amazon Bedrock.

Afin d'améliorer encore l'efficacité de l'exécution des modèles d'IA, AWS a annoncé l'ajout d'une fonctionnalité de cache de commandes à la plateforme Amazon Bedrock. Cette fonctionnalité accélérera l'exécution des appels d'API au sein de la plateforme et réduira la latence jusqu'à 85 %, réduisant ainsi les coûts jusqu'à 90 %. De plus, une fonctionnalité de chemin d'exécution de commande intelligent a été ajoutée, permettant au système de déterminer automatiquement l'appel d'API optimal en fonction de la commande et d'exécuter la requête via le modèle d'IA le plus approprié.

Dans les coulisses de l'intelligence artificielle : trouver des réponses à partir de vastes quantités de données en peu de temps
Derrière le fonctionnement des services d'application d'intelligence artificielle, la recherche de réponses repose bien souvent sur une grande quantité de données. C'est pourquoi AWS a intégré la fonction d'indexation IA générative à Amazon Kendra, qui exploite l'apprentissage automatique et permet une recherche rapide de réponses. Elle peut relier les données stockées dans Microsoft SharePoint, OneDrive ou Salesforce, et intégrer des méthodes d'interrogation de données telles qu'Amazon Q Business, permettant ainsi aux utilisateurs de trouver plus rapidement les réponses dont ils ont besoin dans ses services d'intelligence artificielle et de générer des réponses interactives plus rapidement.
Parallèlement, lors de l'amélioration de la recherche RAG, il est nécessaire de connecter davantage de données structurées pour accélérer la récupération et la génération des données. La fonction GraphRAG ajoutée dans cette mise à jour permet d'identifier davantage de données connexes sous forme de graphes de connaissances, afin que l'agrégation finale des données soit plus conforme aux besoins.
Pour les données non structurées, telles que les vidéos et les images, qui nécessitent des balises descriptives prédéfinies, l'automatisation des données permettra de générer automatiquement des descriptions pour ce type de données non structurées grâce à l'intelligence artificielle autogénérative. Les utilisateurs pourront également personnaliser la création de descriptions afin de mieux se conformer aux réglementations commerciales. De plus, Amazon Bedrock Guardrails, qui garantit que les opérations d'intelligence artificielle ne dépassent pas les limites, sera intégré aux opérations multimodales.

En collaboration avec Amazon Bedrock Guardrails pour garantir que l'intelligence artificielle ne dépasse pas ses limites, une fonction de correction d'erreur multimode correspondante a été ajoutée pour lui permettre d'identifier si davantage de contenu de données d'image est conforme, évitant ainsi la sortie de résultats inappropriés lorsque l'intelligence artificielle fonctionne.
Actuellement, vous pouvez créer des services d'assistant d'agents sur la plateforme Amazon Bedrock via des opérations simples pour vous aider à effectuer des tâches désignées, et même collaborer avec plusieurs services d'assistant d'agents pour gérer des questions complexes en plusieurs étapes.

Intégrer davantage de ressources techniques Amazon Q
Dans d’autres parties, AWS met également l’accent surTechnologie Amazon QAppliqué aux plateformes Amazon SageMaker et Amazon Bedrock, il permet aux utilisateurs d'établir facilement des formations en machine learning et de créer des modèles d'intelligence artificielle grâce à l'interaction en langage naturel. Il utilise également la technologie Amazon Q pour identifier les données non structurées, permettant ainsi de convertir davantage de contenu en données structurées. Il peut même identifier les données clés dans différents scénarios, accélérant ainsi la génération de « réponses » pertinentes dans les recherches d'applications d'intelligence artificielle.
