Notebookcheck Logo

OpenAI s'inquiète de voir les utilisateurs développer des sentiments à l'égard de son chatbot

Les premiers tests d'OpenAI montrent des résultats inquiétants (Source : OpenAI)
Les premiers tests d'OpenAI montrent des résultats inquiétants (Source : OpenAI)
Le GPT-4o récemment introduit pour ChatGPT a été salué pour ses interactions semblables à celles des humains. Cependant, OpenAI craint que les utilisateurs n'établissent des liens émotionnels avec lui. L'entreprise affirme qu'elle va désormais surveiller et ajuster le chatbot pour éviter que les gens ne développent des sentiments à son égard.

GPT-4o a été introduit comme un modèle largement amélioré de ChatGPT. Depuis ses débuts, les gens ont fait l'éloge de ChatGPT-4o pour ses interactions semblables à celles des humains. Bien que cela semble excellent, OpenAI a remarqué un problème : les gens commencent à traiter le chatbot comme un être humain et à créer des liens émotionnels.

OpenAI a observé les gens utiliser un langage qui "pourrait indiquer qu'ils sont en train de créer des liens" L'entreprise note qu'elle a trouvé des cas où les gens utilisaient un langage qui exprimait des "liens partagés" Il s'agit d'une mauvaise nouvelle pour deux raisons principales.

Tout d'abord, lorsque ChatGPT-4o semble ressembler à un être humain, les utilisateurs peuvent ignorer les hallucinations émanant du chatbot. Pour situer le contexte, L'hallucination de l'IA sont essentiellement des résultats incorrects ou trompeurs générés par le modèle. Cela peut être dû à des données d'apprentissage erronées ou insuffisantes.

Deuxièmement, les interactions de type humain avec le chatbot pourraient réduire les interactions sociales réelles entre les utilisateurs. L'OpenAI affirme que les interactions avec le chatbot pourraient potentiellement être bénéfiques pour les "personnes seules", mais elles pourraient également affecter les relations saines. L'entreprise ajoute que les gens peuvent même commencer à parler avec des humains en ayant l'impression que l'autre personne est un chatbot.

Ce serait une mauvaise chose, car OpenAI a conçu GPT-4o pour qu'il s'arrête de parler lorsque l'utilisateur commence à lui parler. Compte tenu de toutes ces préoccupations, l'entreprise déclare qu'elle va désormais surveiller la manière dont les utilisateurs développent des liens émotionnels avec ChatGPT-4o. OpenAI déclare également qu'elle apportera des ajustements au le modèle si nécessaire.

Procurez-vous l'enregistreur vocal à IA PLAUD Note sur Amazon

Source(s)

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 08 > OpenAI s'inquiète de voir les utilisateurs développer des sentiments à l'égard de son chatbot
Abid Ahsan Shanto, 2024-08-12 (Update: 2024-08-15)