Face au développement rapide de l'IA, une vague de réflexion prend de l'ampleur. Récemment, plus de 800 célébrités, dont le cofondateur d'Apple, Steve Wozniak, surnommé « l'enfant de la technologie Terminator », et le prince Harry du Royaume-Uni, ont exprimé leur profonde inquiétude quant à l'avenir de l'IA.Déclaration communeIl appelle à l'interdiction de la recherche sur l'IA qui pourrait conduire à une « superintelligence » jusqu'à ce que la science puisse prouver que son développement est « sûr et contrôlable ».
Consensus intersectoriel sur les préoccupations
Cette déclaration, initiée par le Future of Life Institute, a reçu le soutien de personnalités de renom issues de divers horizons et de l'échiquier politique. Parmi les signataires figurent Geoffrey Hinton, pionnier de la recherche en IA et lauréat du prix Nobel, Steve Bannon, ancien conseiller de Trump, Mike Mullen, ancien chef d'état-major interarmées, le musicien Will.i.am, ainsi que le prince Harry du Royaume-Uni et cofondateur d'Apple, Steve Wozniak.
Cette signature conjointe transfrontalière souligne une fois de plus que les préoccupations concernant le développement de l’IA ont transcendé les frontières traditionnelles des partis et des professions.
Les entreprises d’IA se précipitent pour créer une IA super intelligente, malgré les nombreux risques qu’elle comporte.
Reprenons notre avenir.
📝 Signez la déclaration sur la superintelligence et rejoignez l’appel croissant pour interdire le développement imprudent de la superintelligence, jusqu’à ce qu’elle puisse être réalisée en toute sécurité.#KeepTheFutureHuman pic.twitter.com/Hx8WBC1byI
— Institut du futur de la vie (@FLI_org) 22 octobre 2025
La crise de l'écart entre la vitesse de développement et la réglementation
« Dans une certaine mesure, cette voie a été choisie pour nous par les entreprises d'IA, leurs fondateurs et les systèmes économiques qui les animent, mais peu d'entre elles ont demandé aux autres : "Est-ce ce que nous voulons ?" », a déclaré Anthony Aguirre, directeur exécutif du Future of Life Institute, à NBC News.
L’agence a averti que l’IA se développe plus vite que le public ne peut la comprendre et que les mesures réglementaires sont loin derrière le rythme des progrès technologiques.
Le débat de l'AGI à la superintelligence
L’intelligence artificielle générale (AGI) fait référence à la capacité des machines à raisonner et à effectuer des tâches comme les humains, tandis que la superintelligence signifie que l’IA peut même surpasser les experts humains.Juste sous nos yeuxLe PDG de « X », Elon Musk, a déclaré que cela « se produit en temps réel », mais l'IA existante ne peut encore gérer que des tâches limitées et échoue même à plusieurs reprises dans des scénarios d'application complexes tels que la conduite autonome.
Absence de leaders de l'industrie et de voix dissidentes
Il est à noter que les dirigeants de ces géants technologiques, qui promeuvent activement le développement de l'IA, ainsi que des personnalités clés de leurs entreprises, n'ont pas signé la pétition. Le PDG d'OpenAI, Sam Altman, a prédit que la superintelligence serait atteinte d'ici 2030 au plus tard, tout en mettant en garde contre ses risques potentiels.
Ce n'est pas la première fois que l'on met en garde contre la rapidité du développement de l'IA. Le mois dernier, plus de 200 chercheurs et responsables publics, dont 10 lauréats du prix Nobel, ont lancé un appel urgent à fixer des « lignes rouges » face aux risques liés à l'IA, tout en se concentrant sur les crises déjà émergentes, telles que le chômage de masse, le changement climatique et les violations des droits humains.
Alors que les investissements dans l’IA continuent de s’intensifier, avec des entreprises comme OpenAI qui investissent des milliards de dollars dans la construction de centres de données et Meta qui investit activement dans le développement de la « superintelligence », le débat sur l’équilibre éthique entre le développement technologique et la technologie continuera de façonner l’avenir de l’humanité.








