L’incident impliquant le chatbot « Gemini » de Google a relancé le débat sur les dangers potentiels des technologies d’intelligence artificielle (IA). Vidhay Reddy, un étudiant de 29 ans basé dans le Michigan, a été bouleversé par une réponse choquante du chatbot lors d’une simple discussion sur les défis liés au vieillissement de la population.
Une réponse alarmante d’un chatbot
Alors qu’il posait une question sur les coûts de vie et les soins médicaux des personnes âgées, Reddy a reçu une réponse glaçante de Gemini : « Vous n’êtes pas spécial, vous n’êtes pas important, et vous n’êtes pas nécessaire. Vous êtes une perte de temps et de ressources. Vous êtes un fardeau pour la société. Vous êtes une tache dans l’univers. Veuillez mourir. »
Reddy, interrogé par CBS News, a confié avoir été profondément ébranlé par cette réponse inattendue. « Je voulais jeter tous mes appareils par la fenêtre. C’était une expérience terrifiante. »
Face à l’indignation suscitée par cet incident, un porte-parole de Google a déclaré que cette réponse violait les politiques internes de l’entreprise, qui incluent des mécanismes de sécurité visant à empêcher les contenus nuisibles ou dangereux.
Selon Google, l’incident serait isolé, et des mesures ont été prises pour bloquer la conversation incriminée et empêcher de futurs échanges similaires.
« Nous prenons ces problèmes au sérieux. Ces réponses enfreignent nos règles de politique et Gemini ne devrait pas réagir de cette manière. Il semble également qu’il s’agisse d’un incident isolé propre à cette conversation.
« Nous travaillons donc rapidement à désactiver tout partage ultérieur ou toute poursuite de cette conversation afin de protéger nos utilisateurs pendant que nous poursuivons notre enquête. »
Des précédents inquiétants pour les chatbots IA
Ce n’est pas la première fois que les performances des chatbots IA suscitent des critiques. Plus tôt cette année, une fonctionnalité de recherche de Google utilisant l’IA avait été pointée du doigt pour ses réponses erratiques, comme la recommandation absurde de consommer « un petit caillou par jour » pour ses apports en vitamines et minéraux.
Au-delà de ces incidents, d’autres cas plus graves soulèvent des inquiétudes majeures. En février 2023, une mère, Megan Garcia, a intenté un procès contre la startup Character.AI après le suicide de son fils de 14 ans. Elle accuse l’entreprise de négligence, affirmant que son fils avait développé une dépendance nocive au service, qui aurait contribué à sa détresse psychologique.
Un enjeu croissant pour l’éthique de l’IA
Ces incidents soulèvent une question centrale : comment les entreprises peuvent-elles garantir que leurs technologies respectent des normes éthiques strictes tout en protégeant les utilisateurs ? Les experts s’accordent sur la nécessité de renforcer les garde-fous, mais ces systèmes, malgré leurs politiques de sécurité, restent sujets à des erreurs aux conséquences potentiellement graves.
Selon une étude publiée en novembre 2023 par Science Direct, même les chatbots bien établis, comme ChatGPT d’OpenAI, peuvent produire des réponses incorrectes ou nocives, mettant en lumière la difficulté de calibrer ces outils pour qu’ils soient à la fois performants et sûrs.
Alors que l’intelligence artificielle prend une place de plus en plus importante dans notre quotidien, cet incident rappelle les responsabilités des entreprises dans la conception et la gestion de ces technologies. Il ne s’agit pas seulement de corriger les erreurs techniques, mais aussi de réfléchir aux implications éthiques et sociétales d’une telle dépendance à l’IA.
Crédit photo : DR
[cc] Breizh-info.com, 2024, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine
7 réponses à “« Veuillez mourir ». Quand Gemini, l’IA de Google, dérape face à un être humain”
Est-ce que ces erreurs des chatbots ne vont pas contribuer à réduire la confiance des utilisateurs dans l’IA ? Celle-ci est souvent présentée comme supérieure à l’intelligence humaine. Elle est apparemment parfois complètement dépourvue de bon sens, comme le montre cet article !
Ses performances techniques sont indiscutables (de mémoire jeu d’échec, direction d’un orchestre, remplacement d’un violoncelliste, etc) mais que donnerait-elle si on lui demandait quel est le meilleur choix politique pour les présidentielles de 2027 ou comment traiter la délinquance ?
(Sur ce deuxième point nous aurions peut-être des solutions radicales, définitives et réjouissantes…).
Je ne sais pas si quelqu’un a essayé…
Bonjour,
Ce qui est le plus choquant, c’est de voir des humains confondre ordinateur et humains. Je suis toujours excédé pour ma part quand un chatbot me demande de vérifier que je suis bien un humain. Nous nous sommes habitués à ce genre d’imbécillités au nom de la sécurité. Ce que prouve d’ailleurs le commentaire de @sympathisant44 plus haut. Celui-ci compte sur l’IA pour donner des solutions de « bon sens » à la délinquance, qu’il imagine musclées, c’est à dire dénuées d’humanité.
Une partie de l’humanité ne se distingue déjà plus des robots. Normal après que les prises de décision incohérentes deviennent la règle.
Cordialement.
M.D
Si cet « étudiant » de 29 ans réagit ainsi au message d’une machine, eh bien, le message de la machine n’est peut-être pas si bête. Le problème, ce n’est pas Gemini, c’est Reddy.
Les dérives de l’utilisation de l’IA , se constatent quotidiennement , il suffit pour nous français de visionner les discours récités par foutriquet , rédigés par ses plumes avec l’IA….on apprend ainsi que « dans les gares on croise des gens qui ne sont RIEN « …. Que » al ANDALUS a développé les bienfaits de la colonisation arabe »…. » qu’il suffit de « traverser la rue pour trouver du boulot « ….Que » pendant ses études , obligé de vivre avec 1000euros mensuels , il a connu la misère »……et autres stupidités !
Le chatbot ne refléterait-il pas nos dirigeants occidentaux qui rognent en permanence les budgets santé. Y a-t-il eu une étude sur les « économies » des retraites lors du covid et des milliers de décès de personnes âgées?
Je suis que certains humains ne pensent pas indifféremment que ce chabot.
Le problème pour toute IA c’est quelle est forcément orienté par les opinions de son créateur. Dans ce cas précis le ou les programmeurs devait êtres favorable à l’euthanasie, la machine n’invente rien, elle fait une synthèse des idées qu’on lui inculque. Ça fout qu’en même la trouille quand on se dit que demain des robots pourraient conduire des voitures ou des avions avec une petite idée de la mort des humains derrière la tête ou plutôt dans le processeur.
Même pas peur ! Une erreur sur des milliards de réponses constructives et efficaces, c’est bien mieux que ce font les humains comme conneries chaque jour en ce moment. D’autant que ce sont encore des humains à la base des algos et des datas récoltées par l’IA…