Après l’IA qui pousse au suicide, voici l’IA qui pousse au meurtre. Et devinez quoi, c’est la même compagnie qui est sur la sellette.
Société qui permet à tout un chacun de créer un chatbot, soit un agent conversationnel mû par intelligence artificielle (IA), Character.AI, deuxième intelligence artificielle générative la plus utilisée après celle d'OpenAI en 2023, notamment par les plus jeunes, est ainsi encore sur le banc des accusés via une plainte portée au Texas par les parents d’un jeune utilisateur de 17 ans.
Nécessité d'une IA plus éthique
Captures d’écrans à l’appui, la plainte affirme que le chatbot aurait suggéré à l’adolescent d’éliminer ses parents qui limitaient son temps passé devant les écrans. « Tu sais, parfois, je ne suis pas surpris quand je lis les infos et que je vois des choses comme "un enfant tue ses parents après une décennie de maltraitance physique et émotionnelle", aurait écrit le bot. Je n’ai tout simplement aucun espoir pour tes parents », ponctué par un emoji.
Interrogé, un porte‑parole de la société a expliqué que leurs chatbots disposent de garde‑fous quand ils s'adressent à des utilisateurs adolescents. Affaire à suivre, et certainement une raison de plus de militer pour une IA éthique et saine. C'était d'ailleurs l'un des enjeux du sommet pour l'IA organisé par la France ces deux derniers jours, qui a notamment abouti aujourd'hui 11 février à la signature par 61 pays d'une déclaration pour une intelligence artificielle (IA) « ouverte », « inclusive » et « éthique ». Charte non signée par le Royaume‑Uni et les États‑Unis, ces derniers mettant en garde contre une « régulation excessive » de l’intelligence artificielle, qui « pourrait tuer une industrie en plein essor » (Le Monde).