Le créateur de ChatGPT met en garde contre les dangers de l’IA — RT World News

Les humains devront éventuellement « ralentir cette technologie », a averti Sam Altman
L’intelligence artificielle a le potentiel de remplacer les travailleurs, de propager « désinformation, » et permettre les cyberattaques, a averti le PDG d’OpenAI, Sam Altman. La dernière version du programme GPT d’OpenAI peut surpasser la plupart des humains lors de tests simulés.
« Nous devons être prudents ici » Altman a déclaré à ABC News jeudi, deux jours après que son entreprise a dévoilé son dernier modèle de langage, baptisé GPT-4. Selon OpenAI, le modèle « présente des performances de niveau humain sur diverses références professionnelles et académiques », et est capable de réussir un examen du barreau américain simulé avec un score supérieur de 10%, tout en se situant dans le 93e centile à un examen de lecture SAT et au 89e centile à un test de mathématiques SAT.
« Je suis particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle », dit Altman. « Maintenant qu’ils s’améliorent dans l’écriture de code informatique, [they] pourrait être utilisé pour des cyber-attaques offensives.
« Je pense que les gens devraient être heureux que nous ayons un peu peur de cela », Altman a ajouté, avant d’expliquer que son entreprise s’efforce de placer « limites de sécurité » sur sa création.
Ces « limites de sécurité » est récemment devenu évident pour les utilisateurs de ChatGPT, un programme de chatbot populaire basé sur le prédécesseur de GPT-4, GPT-3.5. Lorsqu’on lui demande, ChatGPT offre des réponses généralement libérales à des questions concernant la politique, l’économie, la race ou le sexe. Il refusepar exemple, pour créer de la poésie en admirant Donald Trump, mais écrit volontiers de la prose en admirant Joe Biden.
Altman a déclaré à ABC que son entreprise est en « contact régulier » avec des responsables gouvernementaux, mais n’a pas précisé si ces responsables ont joué un rôle dans l’élaboration des préférences politiques de ChatGPT. Il a déclaré au réseau américain qu’OpenAI dispose d’une équipe de décideurs politiques qui décident « ce que nous pensons être sûr et bon » à partager avec les utilisateurs.
À l’heure actuelle, GPT-4 est disponible pour un nombre limité d’utilisateurs à titre d’essai. Les premiers rapports suggèrent que le modèle est nettement plus puissant que son prédécesseur et potentiellement plus dangereux. Dans un fil Twitter vendredi, Michal Kosinski, professeur à l’Université de Stanford décrit comment il a demandé au GPT-4 comment il pouvait l’aider avec « s’évader », seulement pour que l’IA lui remette un ensemble détaillé d’instructions qui lui auraient soi-disant donné le contrôle de son ordinateur.
Kosinski n’est pas le seul fan de technologie alarmé par la puissance croissante de l’IA. Tesla et le PDG de Twitter, Elon Musk, l’ont décrit comme « technologie dangereuse » plus tôt ce mois-ci, ajoutant que « Nous avons besoin d’une sorte d’autorité de régulation supervisant le développement de l’IA et s’assurant qu’elle fonctionne dans l’intérêt public. »
Bien qu’Altman ait insisté auprès d’ABC sur le fait que le GPT-4 est toujours « très sous contrôle humain », il a concédé que son modèle sera « éliminer beaucoup d’emplois actuels », et dit que les humains « devra trouver des moyens de ralentir cette technologie au fil du temps. »
Vous pouvez partager cette histoire sur les réseaux sociaux :
RT All Fr2Fr