IA : "Nous avons un peu peur", a déclaré le créateur de ChatGPT !

Sam Altman, PDG d'OpenAI, a prévenu que l'humanité devait se préparer aux conséquences négatives de l'IA : la désinformation et les cyber-attaques sont les principales préoccupations.

IA ChatGPT
ChatGPT, le puissant outil d'IA qui révolutionne le monde d'aujourd'hui. Photo : Pixa.

L'intelligence artificielle (IA) revient sur le devant de la scène mondiale avec la sortie récente du modèle de langage GPT-4, la dernière version de ChatGPT. Ce nouvel outil éblouit par ses capacités, mais il pose aussi des dilemmes majeurs, auxquels est confronté son propre créateur, Sam Altman, actuel PDG de la société OpenAI.

Dans une récente interview accordée au média américain ABC News, M. Altman a reconnu qu'il existe un grand potentiel qui doit encore être développé, mais que la technologie pourrait entraîner de réels dangers pour l'humanité.

"Nous devons être prudents et en même temps comprendre qu'il n'est pas bon de tout avoir dans un laboratoire. Il s'agit d'un produit que nous devons diffuser, mettre en contact avec la réalité et commettre des erreurs tant que les risques sont faibles. Cela dit, je pense que les gens devraient se réjouir que nous ayons un peu peur de cela. Si je pouvais dire que cela ne me fait pas peur, vous ne devriez pas me faire confiance (...)", a-t-il déclaré.

Désinformation et cyber-attaques, les principales préoccupations de M. Altman

Le PDG d'OpenAI avait déjà exprimé ses craintes dans un message publié sur son compte Twitter personnel. Cette fois, il a indiqué que sa principale préoccupation était que l'intelligence artificielle telle que ChatGPT puisse être utilisée pour générer du contenu destiné à désinformer les gens.

"Je suis particulièrement préoccupé par le fait que ces modèles pourraient être utilisés pour la désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives", a-t-il déclaré dans l'interview.

Sam Altman PDG de la société OpenAI
Sam Altman, actuel PDG d'OpenAI.

D'autre part, M. Altman a déclaré que la capacité de ces outils à écrire du code dans une variété de langages de programmation pourrait créer des risques en matière de cybersécurité. "Maintenant qu'ils ont amélioré leurs capacités de programmation, ils pourraient être utilisés pour des cyberattaques plus agressives", a-t-il déclaré.

Néanmoins, M. Altman a déclaré : "Il s'agit d'un outil qui est largement sous le contrôle de l'homme". À cet égard, il a fait remarquer que le GPT-4 "attend que quelqu'un lui donne une information", et le problème est, en réalité, de savoir qui a le contrôle de ces informations.

L'humanité a besoin de temps pour s'adapter à l'intelligence artificielle

M. Altman a déclaré que si tous les changements susceptibles d'être apportés par les progrès de la technologie de l'intelligence artificielle peuvent être considérés comme positifs, l'humanité a besoin d'un certain temps pour s'y adapter. Il a insisté sur le fait que l'OpenAI devra également passer par ce processus d'adaptation pour corriger toute utilisation abusive ou toute conséquence néfaste de ces systèmes.

"Nous ne manquerons pas d'apporter des corrections au moment où ces événements négatifs se produiront. Maintenant que les risques sont faibles, nous apprenons autant que possible et nous établissons un retour d'information constant pour améliorer le système afin d'éviter les scénarios les plus dangereux", a déclaré le PDG de l'entreprise.

À la une