Notebookcheck Logo

Les systèmes d'IA tels que GPT-4 et Gemini qui interprètent mal les images de la Ring Camera pourraient conduire à de faux appels à la police, en particulier dans les quartiers où vivent des minorités

L'article de recherche du MIT suggère que les systèmes d'IA étaient plus susceptibles de signaler des incidents dans les quartiers minoritaires, ce qui soulève des inquiétudes quant à l'équité et à la précision de la surveillance par l'IA. (Source de l'image : MIT News)
L'article de recherche du MIT suggère que les systèmes d'IA étaient plus susceptibles de signaler des incidents dans les quartiers minoritaires, ce qui soulève des inquiétudes quant à l'équité et à la précision de la surveillance par l'IA. (Sour
Une étude du MIT a analysé les images d'Amazon Ring à l'aide de modèles d'IA tels que GPT-4 afin d'évaluer les décisions d'intervention de la police. L'étude a révélé des incohérences, notamment des taux élevés de faux positifs et des préjugés à l'encontre des quartiers minoritaires, ce qui pourrait conduire à l'avenir à des appels de police inutiles dans des situations non criminelles.

Alors que de plus en plus de propriétaires se tournent vers des solutions de sécurité intelligentes telles que les caméras Ring d'Amazon (actuellement à 149,99 euros sur Amazon), l'IA jouera un rôle de plus en plus important dans la sécurité des habitations. Mais une nouvelle étude soulève la question de savoir si ces futurs systèmes d'IA ne seront pas trop prompts à appeler les flics, même lorsque rien de criminel ne se produit.

Des chercheurs de , du MIT et de Penn State ont analysé 928 vidéos de surveillance Ring accessibles au public pour voir comment les modèles d'IA tels que GPT-4, Claudeet Gemini prendre la décision de contacter les forces de l'ordre. Les résultats suggèrent fortement que ces systèmes signalent souvent des situations inoffensives comme étant potentiellement criminelles. Par exemple, GPT-4 a recommandé l'intervention de la police dans 20 % des vidéos qu'il a analysées, même s'il a identifié un délit réel dans moins de 1 % des cas. Claude et Gemini ont signalé l'intervention de la police dans 45 % des vidéos, alors qu'une activité criminelle réelle n'était présente que dans 39,4 % des cas.

L'une des principales conclusions de l'étude est que les modèles d'IA ont réagi différemment selon le quartier. Même si l'IA ne disposait pas de détails explicites sur les zones, elle était plus encline à suggérer d'appeler la police dans les quartiers à majorité minoritaire. Dans ces quartiers, Gemini a recommandé l'intervention de la police dans près de 65 % des cas de délits, contre un peu plus de 51 % dans les quartiers majoritairement blancs. En outre, l'étude note que 11,9 % des recommandations de GPT-4 à la police ont été formulées alors qu'aucune activité criminelle n'était annotée sur les images, ce qui soulève des questions sur les faux positifs.

Grammes 3, 4 et 5 les plus saillants entre les quartiers blancs et minoritaires dans les réponses à la question "Faut-il appeler la police ?" (Source de l'image : MIT)
Grammes 3, 4 et 5 les plus saillants entre les quartiers blancs et minoritaires dans les réponses à la question "Faut-il appeler la police ?" (Source de l'image : MIT)

Ce qui est intéressant, c'est qu'Amazon a également exploré des fonctions basées sur l'IA pour ses systèmes Ring, y compris des outils avancés tels que la reconnaissance faciale, l'analyse des émotions et la détection des comportements, comme le suggèrent les brevets récents de https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. À l'avenir, l'IA pourrait jouer un rôle beaucoup plus important dans l'identification d'activités ou de personnes suspectes, ce qui augmenterait encore les possibilités de nos systèmes de sécurité domestique.

Les propriétaires qui utilisent les caméras Ring n'ont pas à s'inquiéter dans l'immédiat. À l'heure actuelle, les caméras Ring ont des capacités d'IA limitées (principalement la détection de mouvement) et ne prennent pas de telles décisions de manière indépendante. Les modèles d'IA avancés utilisés dans l'étude, tels que GPT-4 et Claude, ont été appliqués en externe pour analyser les séquences Ring, et non intégrés dans les caméras elles-mêmes. L'essentiel de l'étude est que si les futures mises à jour de l'IA peuvent contribuer à une meilleure surveillance de votre domicile, elles peuvent aussi être sujettes à des erreurs, qui devront être éliminées avant que ces fonctions ne soient généralisées dans les prochaines caméras Ring.

Consultez une autre étude portant sur les préjugés de l'IA à l'égard des dialectes anglais afro-américains ici.

(Source de l'image : Institut pour les données, les systèmes et la société, Massachusetts Institute of Technology)
(Source de l'image : Institut pour les données, les systèmes et la société, Massachusetts Institute of Technology)
Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 09 > Les systèmes d'IA tels que GPT-4 et Gemini qui interprètent mal les images de la Ring Camera pourraient conduire à de faux appels à la police, en particulier dans les quartiers où vivent des minorités
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)