Sous la promotion de la Maison Blanche, dont Microsoft, Google, Meta, OpenAI, Amazon, ainsi qu'Anthropic, une startup d'intelligence artificielle fondée par d'anciens membres d'OpenAI, et Inflection, une startup d'intelligence artificielle investie par NVIDIA et d'autres sociétés, se sont tous engagés à garantir la sécurité de la technologie de l'intelligence artificielle.
Suite à des discussions avec le président américain Biden, sept entreprises technologiques investissant dans le développement de la technologie de l'intelligence artificielle se sont engagées à respecter les principes de sécurité de l'IA, qui visent à garantir que l'intelligence artificielle est développée de manière responsable pour éviter les impacts négatifs sur la sécurité publique, les droits et les valeurs démocratiques.
Au cours de cette discussion, les entreprises technologiques veilleront à ce que leur intelligence artificielle puisse être testée par des experts indépendants afin d'en détecter les effets indésirables. Elles doivent également continuer à améliorer leurs technologies de cybersécurité et encourager les entreprises, équipes ou individus tiers à signaler les vulnérabilités de sécurité. De plus, elles doivent s'assurer que l'intelligence artificielle n'est ni biaisée ni utilisée de manière inappropriée, et mener des recherches préliminaires sur les risques sociaux qu'elle peut engendrer.
D’autres éléments incluent la nécessité d’établir des mécanismes de confiance mutuelle et de partager des informations de sécurité avec d’autres industries et agences gouvernementales, de marquer les vidéos et le contenu audio générés par l’intelligence artificielle pour faciliter l’identification par d’autres, et d’accepter d’utiliser une technologie d’intelligence artificielle de pointe pour résoudre les problèmes sociaux.
Dans le même temps, la Maison Blanche a également déclaré que l’intelligence artificielle du futur doit respecter les trois principes de sécurité, de sûreté et de confiance, et doit être construite de manière responsable.








