Des dirigeants et experts appellent à une pause dans la recherche de l’IA, pour le bien de l’humanité ⚠️
Click here to read in English
Dans une lettre ouverte qui recueille déjà plus de 24.715 signataires, des dirigeants et experts du secteur de l’intelligence artificielle appellent à un moratoire de 6 mois dans les recherches sur l’intelligence artificielle. Selon eux, cette pause est nécessaire pour réfléchir aux enjeux et dangers de l’IA.
L’IA présenterait des risques profonds pour la société et l’humanité ⚠️
Publiée le 29 mars dernier par l’organisation à but non lucratif Future of Life Institute, cette lettre ouverte donne le ton dès la première phrase :
Les systèmes d’IA dotés d’une intelligence compétitive avec l’homme peuvent présenter des risques profonds pour la société et l’humanité
Ses signataires ne sont pas de simples anonymes. On compte parmi eux Elon Musk que l’on ne présente plus, mais aussi d’autres grandes figures de la Tech comme Steve Wozniak, le cofondateur d’Apple, Jaan Tallinn cofondateur de Skype, Evan Sharp cofondateur de Pinterest et des milliers d’autres entrepreneurs et scientifiques. Leur demande est assez claire :
Nous demandons à tous les laboratoires d’intelligence artificielle d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’intelligence artificielle plus puissants que GPT-4
Mais pourquoi ? Dans leur lettre ouverte, ils expliquent que cette pause est nécessaire pour s’assurer que la révolution de l’IA qui a été engagée ne mènera pas l’humanité à sa perte. En effet, à ce jour, il n’existe aucun protocole de sécurité, éthique et transparent, permettant de s’assurer que le développement des IAs va dans le bon sens. Et même leurs créateurs sont incapables de prédire ou encore moins de les contrôler à 100%.
Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’engager dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.
C’est la raison pour laquelle les signataires encouragent les groupes de recherche en intelligence artificielle à collaborer étroitement avec les organismes de réglementation.
La prolifération des fakes news et des emplois à risque 🤖
Un impact majeur que nous constaterons bientôt dans nos vies est la prolifération des fakes news. Des outils tels que ChatGPT facilitent la création de textes de toutes sortes, tandis que d’autres, tels que Midjourney, permettent de générer des images de plus en plus difficiles à distinguer de la réalité. La lettre ouverte met en garde contre ce fléau qui se répand de plus en plus rapidement dans notre société :
Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants
Les emplois ne sont pas non plus à négliger. D’après une étude menée par OpenAI sur plus de 1000 professions pratiquées sur le sol américain,
80 % de la main-d’œuvre américaine pourrait voir au moins 10 % de ses tâches de travail affectées par l’introduction des IA, tandis qu’environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées
Parmi la liste des professions les plus menacées, on peut citer: les interprètes, les traducteurs, les poètes, les paroliers, les spécialistes des relations publiques, les écrivains et les auteurs, les mathématiciens, les comptables, les ingénieurs de la blockchain, les journalistes.
Mais OpenAI souhaite mettre en garde contre une interprétation trop littérale des résultats de son étude. En effet, il est difficile de réduire toutes les professions à une liste de tâches spécifiques, ce qui peut fausser l’analyse des chercheurs. Il est possible que certaines compétences ou tâches importantes pour des professions spécifiques aient été omises.
Le moratoire a t-il des chances d’aboutir ? 🤔
Si de grandes voix poussent pour ce moratoire, d’autres personnalités toutes aussi importantes ne sont pas du même avis, Bill Gates le premier. Pour le co-fondateur de Microsoft, le moratoire n’est pas une solution. Selon lui, il serait très difficile de mettre en œuvre la suspension du développement de l’IA.
« Je ne comprends pas vraiment qui, selon eux, pourrait s’arrêter, ni si tous les pays du monde accepteraient de s’arrêter, ni pourquoi il faudrait s’arrêter », déclare Gates, ajoutant qu’il y a « beaucoup d’opinions différentes dans ce domaine ».
Sauf que si les développements de l’IA ne sont pas réglementés, il faudra alors se fier à l’éthique et à la bonne foi des entreprises qui les créent. Cependant, ces entreprises peuvent avoir des motivations financières et commerciales qui ne sont pas en accord avec les intérêts éthiques et sociaux de la société. Par conséquent, il est crucial d’établir des réglementations et des normes éthiques pour guider le développement et l’utilisation de l’IA. De plus, les entreprises peuvent être encouragées à développer des outils éthiques si les consommateurs exigent des produits responsables et éthiques. Nous assistons certainement à un tournant de l’histoire de l’humanité.
Si vous souhaitez lire la lettre en entier, vous n’avez qu’à cliquer ici.
Sources : Lettre ouverte de Future of Life Institute, 01net