Les systèmes d'IA tels que GPT-4 et Gemini qui interprètent mal les images de la Ring Camera pourraient conduire à de faux appels à la police, en particulier dans les quartiers où vivent des minorités
Alors que de plus en plus de propriétaires se tournent vers des solutions de sécurité intelligentes telles que les caméras Ring d'Amazon (actuellement à 149,99 euros sur Amazon), l'IA jouera un rôle de plus en plus important dans la sécurité des habitations. Mais une nouvelle étude soulève la question de savoir si ces futurs systèmes d'IA ne seront pas trop prompts à appeler les flics, même lorsque rien de criminel ne se produit.
Des chercheurs de , du MIT et de Penn State ont analysé 928 vidéos de surveillance Ring accessibles au public pour voir comment les modèles d'IA tels que GPT-4, Claudeet Gemini prendre la décision de contacter les forces de l'ordre. Les résultats suggèrent fortement que ces systèmes signalent souvent des situations inoffensives comme étant potentiellement criminelles. Par exemple, GPT-4 a recommandé l'intervention de la police dans 20 % des vidéos qu'il a analysées, même s'il a identifié un délit réel dans moins de 1 % des cas. Claude et Gemini ont signalé l'intervention de la police dans 45 % des vidéos, alors qu'une activité criminelle réelle n'était présente que dans 39,4 % des cas.
L'une des principales conclusions de l'étude est que les modèles d'IA ont réagi différemment selon le quartier. Même si l'IA ne disposait pas de détails explicites sur les zones, elle était plus encline à suggérer d'appeler la police dans les quartiers à majorité minoritaire. Dans ces quartiers, Gemini a recommandé l'intervention de la police dans près de 65 % des cas de délits, contre un peu plus de 51 % dans les quartiers majoritairement blancs. En outre, l'étude note que 11,9 % des recommandations de GPT-4 à la police ont été formulées alors qu'aucune activité criminelle n'était annotée sur les images, ce qui soulève des questions sur les faux positifs.
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs
Ce qui est intéressant, c'est qu'Amazon a également exploré des fonctions basées sur l'IA pour ses systèmes Ring, y compris des outils avancés tels que la reconnaissance faciale, l'analyse des émotions et la détection des comportements, comme le suggèrent les brevets récents de https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. À l'avenir, l'IA pourrait jouer un rôle beaucoup plus important dans l'identification d'activités ou de personnes suspectes, ce qui augmenterait encore les possibilités de nos systèmes de sécurité domestique.
Les propriétaires qui utilisent les caméras Ring n'ont pas à s'inquiéter dans l'immédiat. À l'heure actuelle, les caméras Ring ont des capacités d'IA limitées (principalement la détection de mouvement) et ne prennent pas de telles décisions de manière indépendante. Les modèles d'IA avancés utilisés dans l'étude, tels que GPT-4 et Claude, ont été appliqués en externe pour analyser les séquences Ring, et non intégrés dans les caméras elles-mêmes. L'essentiel de l'étude est que si les futures mises à jour de l'IA peuvent contribuer à une meilleure surveillance de votre domicile, elles peuvent aussi être sujettes à des erreurs, qui devront être éliminées avant que ces fonctions ne soient généralisées dans les prochaines caméras Ring.
Consultez une autre étude portant sur les préjugés de l'IA à l'égard des dialectes anglais afro-américains ici.