Elon Musk, Steve Wozniak et d'autres ont signé conjointement une lettre appelant les laboratoires d'intelligence artificielle concernésArrêtez vos travaux de rechercheÀ l'heure où la formation de systèmes d'intelligence artificielle plus grands que le modèle de langage naturel GPT-4 pourrait être suspendue pendant au moins les six prochains mois, OpenAI, qui a lancé le service ChatGPT, a commencé à faire face à des accusations du Center for Artificial Intelligence and Digital Policy (CAIDP), une organisation à but non lucratif, selon lesquelles sa technologie d'intelligence artificielle est biaisée, et fait l'objet d'une enquête de la Federal Trade Commission (FTC) des États-Unis.
Selon le Centre pour l'intelligence artificielle et la politique numérique, qui a déposé une plainte auprès de la Commission fédérale du commerce des États-Unis, le modèle de langage d'intelligence artificielle à grande échelle GPT-4 récemment proposé par OpenAI est biaisé et frauduleux, et constitue une grave menace pour la vie privée et la sécurité publique. Il n'est pas conforme aux principes de transparence, d'équité et de compréhension aisée proposés par la Commission fédérale du commerce des États-Unis.
Par conséquent, le Centre pour l'intelligence artificielle et la politique numérique espère que la Commission fédérale du commerce des États-Unis interviendra dans l'enquête sur OpenAI et exigera de l'entreprise qu'elle suspende le lancement de la nouvelle version du modèle de langage d'intelligence artificielle à grande échelle. Il appelle également OpenAI à réaliser un examen indépendant avant de proposer des produits et services de type GPT. Il recommande enfin à la Commission fédérale du commerce des États-Unis de mettre en place un système de signalement des incidents et d'élaborer des normes d'audit pour l'intelligence artificielle générée automatiquement.
Marc Rotenberg, fondateur et président du Centre pour l'intelligence artificielle et la politique numérique, a également participé à la lettre d'appel conjointe signée par Elon Musk et d'autres, et a préconisé que les entreprises suspendent la formation de systèmes d'intelligence artificielle plus grands que le modèle de langage naturel GPT-4 pendant au moins les six prochains mois, appelant chacun à prêter attention aux questions éthiques de l'intelligence artificielle.
Avec la multiplication des systèmes d'intelligence artificielle générés automatiquement, nombreux sont ceux qui ne voient qu'en surface la commodité et les résultats exceptionnels qu'ils apportent, ignorant les erreurs et biais potentiels des informations qu'ils génèrent automatiquement. C'est pourquoi de nombreuses personnes ont vivement appelé à ne pas se fier aveuglément aux conseils de l'intelligence artificielle, mais à renforcer leur propre capacité à vérifier la véracité des informations.



