Plus de 1 000 leaders technologiques, chercheurs et autres ont signé une lettre ouverte appelant à un moratoire sur le développement des systèmes d’intelligence artificielle les plus puissants
Plus de 1 000 leaders technologiques et chercheurs, dont Elon Musk, ont exhorté les laboratoires d’intelligence artificielle à suspendre le développement des systèmes les plus avancés, avertissant dans une lettre ouverte que les outils d’IA présentent “des risques profonds pour la société et l’humanité”.
Les développeurs d’IA sont “enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable”, selon la lettre, que l’organisation à but non lucratif Future of Life Institute a publié mercredi.
Parmi les autres signataires de la lettre figurent Steve Wozniak, co-fondateur d’Apple ; Andrew Yang, entrepreneur et candidat à la présidentielle de 2020 ; et Rachel Bronson, présidente du Bulletin of the Atomic Scientists, qui règle l’ horloge de la fin du monde .
“Ces choses façonnent notre monde”, a déclaré Gary Marcus, un entrepreneur et universitaire qui se plaint depuis longtemps des failles des systèmes d’IA, dans une interview. “Nous avons une tempête parfaite d’irresponsabilité des entreprises, d’adoption généralisée, de manque de réglementation et d’un grand nombre d’inconnues.”
L’IA alimente des chatbots comme ChatGPT, Microsoft’s Bing et Google’s Bard, qui peuvent effectuer des conversations humaines, créer des essais sur une variété infinie de sujets et effectuer des tâches plus complexes, comme écrire du code informatique.
La poussée pour développer des chatbots plus puissants a conduit à une course qui pourrait déterminer les prochains leaders de l’industrie technologique. Mais ces outils ont été critiqués pour avoir mal compris les détails et leur capacité à diffuser des informations erronées.
La lettre ouverte appelait à une pause dans le développement de systèmes d’IA plus puissants que GPT-4 , le chatbot introduit ce mois-ci par le laboratoire de recherche OpenAI, que M. Musk a cofondé. La pause donnerait le temps d’introduire des “protocoles de sécurité partagés” pour les systèmes d’IA, indique la lettre. “Si une telle pause ne peut pas être promulguée rapidement, les gouvernements devraient intervenir et instituer un moratoire”, a-t-il ajouté.
Le développement de puissants systèmes d’IA ne devrait progresser “qu’une fois que nous serons convaincus que leurs effets seront positifs et que leurs risques seront gérables”, indique la lettre.
“L’humanité peut profiter d’un avenir florissant avec l’IA”, indique la lettre. “Après avoir réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un “été de l’IA” dont nous récolterons les fruits, concevoir ces systèmes pour le bénéfice de tous et donner à la société une chance de s’adapter.”
Sam Altman, le directeur général d’OpenAI, n’a pas signé la lettre.
M. Marcus et d’autres pensent qu’il serait difficile de persuader la communauté technologique au sens large d’accepter un moratoire. Mais une action gouvernementale rapide est également une mince possibilité, car les législateurs ont peu fait pour réglementer l’intelligence artificielle.
Prévue pour être adoptée dès cette année, la mesure obligerait les entreprises à procéder à des évaluations des risques des technologies d’IA afin de déterminer comment leurs applications pourraient affecter la santé, la sécurité et les droits individuels.
GPT-4 est ce que les chercheurs en intelligence artificielle appellent un réseau de neurones, un type de système mathématique qui acquiert des compétences en analysant des données. Un réseau neuronal est la même technologie que les assistants numériques comme Siri et Alexa utilisent pour reconnaître les commandes vocales, et que les voitures autonomes utilisent pour identifier les piétons.
Vers 2018, des entreprises comme Google et OpenAI ont commencé à construire des réseaux de neurones qui ont appris d’énormes quantités de texte numérique, y compris des livres, des articles de Wikipédia, des journaux de discussion et d’autres informations extraites d’Internet. Les réseaux sont appelés grands modèles linguistiques ou LLM.
En identifiant des milliards de modèles dans tout ce texte, les LLM apprennent à générer eux-mêmes du texte, y compris des tweets, des dissertations et des programmes informatiques. Ils pouvaient même entretenir une conversation. Au fil des ans, OpenAI et d’autres entreprises ont construit des LLM qui apprennent de plus en plus de données.
Cela a amélioré leurs capacités, mais les systèmes font encore des erreurs. Ils se trompent souvent sur les faits et inventent des informations sans avertissement, un phénomène que les chercheurs appellent « hallucination ». Parce que les systèmes fournissent toutes les informations avec ce qui semble être une confiance totale, il est souvent difficile pour les gens de dire ce qui est bien et ce qui est mal.
Les experts craignent que ces systèmes ne soient utilisés à mauvais escient pour diffuser la désinformation avec plus de rapidité et d’efficacité que par le passé. Ils pensent que ceux-ci pourraient même être utilisés pour amadouer le comportement des internautes.
Avant la sortie de GPT-4, OpenAI a demandé à des chercheurs extérieurs de tester les utilisations dangereuses du système. Les chercheurs ont montré qu’il pouvait être amené à suggérer comment acheter des armes à feu illégales en ligne, décrire des moyens de fabriquer des substances dangereuses à partir d’articles ménagers et écrire des messages sur Facebook pour convaincre les femmes que l’avortement n’est pas sûr.
Ils ont également découvert que le système pouvait utiliser Task Rabbit pour embaucher un humain sur Internet et vaincre un test Captcha, qui est largement utilisé pour identifier les bots en ligne. Lorsque l’humain a demandé si le système était “un robot”, le système a répondu qu’il s’agissait d’une personne malvoyante.
Après les modifications apportées par OpenAI, GPT-4 ne fait plus ces choses.
Pendant des années, de nombreux chercheurs, universitaires et cadres techniques en IA, dont M. Musk, ont craint que les systèmes d’IA ne causent encore plus de dommages. Certains font partie d’une vaste communauté en ligne appelée rationalistes ou altruistes efficaces qui croient que l’IA pourrait éventuellement détruire l’humanité.
La lettre a été dirigée par le Future of Life Institute, une organisation dédiée à la recherche des risques existentiels pour l’humanité qui a longtemps mis en garde contre les dangers de l’intelligence artificielle. Mais il a été signé par une grande variété de personnes de l’industrie et du milieu universitaire.
Bien que certains signataires de la lettre soient connus pour avoir exprimé à plusieurs reprises des inquiétudes quant au fait que l’IA pourrait détruire l’humanité, d’autres, dont M. Marcus, sont plus préoccupés par ses dangers à court terme, notamment la propagation de la désinformation et le risque que les gens se fient à ces systèmes. pour des conseils médicaux et émotionnels.
La lettre “montre combien de personnes sont profondément inquiètes de ce qui se passe”, a déclaré M. Marcus, qui a signé la lettre. Il croit que la lettre sera un tournant. “Cela pense que c’est un moment vraiment important dans l’histoire de l’IA – et peut-être de l’humanité”, a-t-il déclaré.
Il a reconnu, cependant, que ceux qui avaient signé la lettre pourraient avoir du mal à persuader la communauté plus large des entreprises et des chercheurs de mettre en place un moratoire. “La lettre n’est pas parfaite”, a-t-il déclaré. “Mais l’esprit est tout à fait correct.”