Notebookcheck Logo

Incident troublant de l'IA : Gemini traite un utilisateur d'inutile et lui dit de mourir

Gemini, l'assistant IA de Google, a demandé à un utilisateur de mourir. (Source de l'image : Google)
Gemini, l'assistant IA de Google, a demandé à un utilisateur de mourir. (Source de l'image : Google)
Lors d'une conversation sur les soins aux personnes âgées, un utilisateur de Gemini, l'assistant d'intelligence artificielle de Google, a été traité de bon à rien et invité à mourir. Des captures d'écran de la conversation ont été publiées sur Reddit et ont suscité l'inquiétude et l'indignation des utilisateurs. Avertissement : Le contenu de cet article peut être pénible pour certains lecteurs.

Les utilisateurs se sont probablement habitués au fait que les réponses des modèles vocaux d'IA tels que ChatGPT, Siri ou l'assistant Gemini de Google n'ont pas toujours de sens. Tout d'abord, l'IA ne devrait pas être insultante, et elle ne devrait certainement pas demander à quelqu'un de mourir. C'est pourtant ce qui est arrivé à un utilisateur de Gemini.

Selon un post Reddit https://www.reddit.com/r/artificial/comments/1gq4acr/gemini_told_my_brother_to_die_threatening/ de la sœur de la personne concernée, l'incident s'est produit au cours d'une discussion sur les soins aux personnes âgées. Le dialogue était intitulé "Défis et solutions pour les adultes vieillissants". Au cours de la discussion, Gemini a proposé trois réponses possibles, dont deux étaient inoffensives. La troisième réponse contenait le message inquiétant :

(Source de l'image : Reddit)
(Source de l'image : Reddit)

La communauté Reddit a fait part de son indignation, de nombreux utilisateurs exprimant de sérieuses inquiétudes quant au préjudice potentiel que de tels messages pourraient causer à des personnes en crise de santé mentale. Entre-temps, l'application Gemini a récemment été lancée sur les iPhones. Certains utilisateurs de Redditors ont plaisanté en disant que les utilisateurs d'iPhone pouvaient désormais "apprécier" de telles réponses. Google a abordé la question directement sur Redditen déclarant qu'il a déjà mis en œuvre des mesures pour éviter que de telles réponses ne se reproduisent à l'avenir.

Source(s)

Reddit

Source de l'image : Google

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 11 > Incident troublant de l'IA : Gemini traite un utilisateur d'inutile et lui dit de mourir
Marius Müller, 2024-11-17 (Update: 2024-11-17)