Le gouvernement américain prend ses premières mesures pour réglementer le ChatGPT. Il commence à analyser les mesures à prendre pour réglementer un outil aussi puissant que ChatGPT et les outils similaires.
Publicité

Il s'agit d'une question qui est sur la table depuis un certain temps et que les experts du monde entier réclament à cor et à cri. Comme le montre le Wall Street Journal, le ministère du commerce a lancé un appel d'offres public pour “Mesures de responsabilisation“.
La demande sera ouverte pendant deux mois, l'idée étant d'obtenir des commentaires et des conseils sur la manière dont les décideurs politiques doivent gérer toutes ces nouvelles technologies d'intelligence artificielle.
Toutefois, les États-Unis ne disposent pas d'un cadre réglementaire pour ce type d'outils. Mais il est clair que l'administration actuelle n'a pas l'intention de laisser passer l'IA et n'est pas prête à prendre le moindre risque quant aux conséquences et aux possibilités qu'auront ces types d'outils.
De toute évidence, cette décision découle de la crainte (tout à fait justifiée) de voir l'intelligence artificielle utilisée pour commettre des délits et diffuser de fausses informations. Récemment, nous avons vu comment un homme, en quelques heures, a réussi à créer un virus très dangereux grâce à ChatGPT. Ce qui, sans intelligence artificielle, aurait nécessité plusieurs semaines (ou mois) et une équipe d'au moins 10 personnes.
L'idée derrière cette demande est de décider si tous les modèles d'IA doivent être réglementés, passer par un processus de vérification avant d'être publiés.
Publicité

Les États-Unis veulent prendre les premières mesures pour réglementer les outils tels que ChatGPT
Comme nous l'avons mentionné plus haut, de nombreuses personnes sont excessivement préoccupées par le développement de ce type d'outils et par l'absence de réglementation. Cependant, le PDG d'OpenIA lui-même, Sam Altman, assure qu'il est essentiel que les gens aient accès à cette technologie afin que les mesures de sécurité nécessaires puissent être développées pour éviter des situations comme celle mentionnée ci-dessus.
Sam Altman a commenté : “Nous ne pouvons pas développer cela dans notre laboratoire sans que personne ne le sache. Imaginez que nous créions une intelligence artificielle et que nous la diffusions dans le monde entier, nous rencontrerions de nombreux problèmes. Les gens doivent avoir le temps de s'y habituer, ils doivent s'adapter à cette technologie. Il est important qu'ils comprennent les avantages et les inconvénients de cette technologie.“.
Il a également ajouté que l'une des choses qui le préoccupent le plus est le simple fait que d'autres entreprises qui utilisent des outils d'intelligence artificielle ne sont pas disposées à mettre en œuvre les mesures de sécurité que ChatGPT met en œuvre.
Elon Musk veut qu'ils arrêtent le développement de l'IA
D'autre part, nous trouvons des personnes comme Elon Musk et plus de 1100 experts dans le domaine qui appellent à un arrêt du développement de cette technologie, ne serait-ce que pour six mois.
Elon Musk a déclaré qu'il était essentiel de créer un cadre réglementaire pour cette technologie. On ne peut pas mettre en place une réglementation en réaction à un problème. Dans ce cas, si des problèmes surviennent avec l'IA, ce qui ne manquera pas d'arriver en l'absence de réglementation, la réaction d'un cadre réglementaire sera trop lente.
Rappelons que Baidu, le géant chinois, développe également sa propre intelligence artificielle (et il n'est pas le seul dans ce pays) et a même poursuivi Apple en raison du nombre de fausses applications prétendant être l'outil officiel, qui n'a même pas de version bêta publique.