Y compris Elon Musk, le « tech kid » Steve Wozniak, Marc Rotenberg, président du Center for Artificial Intelligence and Digital Policy, et le physicien du MIT Max Tegmark, dans une déclaration commune publiée précédemment par le Future of Life Institutelettre ouverteDans le rapport, l'industrie et les laboratoires d'intelligence artificielle concernés ont été appelés à arrêter leurs travaux de recherche en cours ou à suspendre la formation de systèmes d'intelligence artificielle plus grands que le modèle de langage naturel GPT-4 pendant au moins les six prochains mois.
Le contenu signé conjointement par ces personnes espère principalement que la technologie actuelle de l'intelligence artificielle pourra être développée d'une manière acceptable pour les gens, pourra apporter des avantages clairs et garantir son utilisation en toute sécurité.
Dans la concurrence actuelle entre les entreprises du secteur de l'intelligence artificielle, bien que de nombreuses technologies mettent en avant son efficacité, elles négligent relativement les mesures de sécurité qui devraient l'accompagner. Par conséquent, des problèmes plus difficiles à contrôler peuvent survenir. Par exemple, de nombreuses personnes ont récemment posé des questions sur des comportements illégaux spécifiques via ChatGPT, et de nombreuses technologies d'intelligence artificielle ont transmis des informations erronées, ce qui aura évidemment de lourdes conséquences.
Beaucoup de gens pensent que si la technologie de l’intelligence artificielle poursuit aveuglément sa croissance et ne propose pas rapidement les mesures de sécurité correspondantes, elle provoquera en réalité une crise plus grave.



