La reconnaissance faciale d'Amazon peut désormais détecter la «peur» alors que des militants dénoncent l'utilisation par des forces de l'ordre

share on:

Amazon sait quand vous avez peur.

Dans un article publié lundi dans un blog, le géant de la technologie dirigé par le PDG Jeff Bezos a annoncé que son logiciel de reconnaissance faciale avait ajouté une nouvelle émotion qu'il pouvait détecter – la peur – dans En plus d’être heureux, triste, en colère, surpris, dégoûté, calme et confus.

La société écrit également qu’elle a amélioré l’exactitude de l’identification par sexe et de l’estimation de la tranche d’âge.

Le logiciel de détection faciale controversé, qui relève de la Les auspices de la division d'informatique en nuage, connue sous le nom d'Amazon Web Services, ont été condamnés par les défenseurs de la vie privée et des droits numériques, et les législateurs, qui s'opposent au fait que Amazon vende la reconnaissance aux services de police et aux agences gouvernementales telles que Immigration and Customs Enforcement.

LE CHOIX D'AMAZON SOUS LE FEU AU CŒUR DE LA FRAUDE CONFORME AUX RECOMMANDATIONS

SANDERS BLASTS, UN POST DE WASHINGTON À WASHINGTON, POST DE WASHINGTON À BIO DANS ECHO DE TRUMP

"Amazon va se faire tuer quelqu'un par rec Evan Greer, directeur adjoint de Fight for the Future, a déclaré à Fox News par courrier électronique. "La reconnaissance faciale automatise déjà et exacerbe les abus, le profilage et la discrimination de la part de la police. Maintenant, Amazon nous met sur une voie dans laquelle des agents gouvernementaux armés pourraient prendre des décisions à la fraction de seconde sur la base du témoignage froid d'un algorithme imparfait."

Le logiciel de reconnaissance faciale d’Amazon, le Civil Liberties Union (ACLU), a révélé qu’il correspondait à tort à 26 législateurs de l’État californien, soit plus de 1 sur 5, aux images d’un ensemble de 25 000 photographies d’arrestations publiques. Selon l'ACLU, plus de la moitié des faux positifs étaient des personnes de couleur.

Lors d'une conférence de presse qui a annoncé l'étude, l'assemblé de la Californie, Phil Ting, un démocrate, a déclaré que le test démontrait que le logiciel ne devrait pas être utilisé à grande échelle. Ting, qui est américain d'origine chinoise, est l'un des législateurs qui a été faussement identifié. Il coparraine un projet de loi visant à interdire l'utilisation de la technologie de reconnaissance faciale sur les caméras de surveillance policières en Californie

Un test similaire de Rekognition en juin 2018 a révélé que le logiciel avait incorrectement identifié 28 membres du Congrès comme suspects, dont 40%

LE CHEF DE LA FTC VEUT BRISER LES GRANDES SOCIÉTÉS

Ting a expliqué: «Même si nous pouvons en rire en tant que législateurs, il n’ya pas de quoi rire si vous êtes un individu qui essaie de trouvez un emploi, si vous êtes un particulier et que vous essayez de trouver un logement, si vous êtes faussement accusé d'arrestation. »

Amazon a déjà déclaré qu'il encourageait les organismes chargés de l'application de la loi à utiliser des cotes de confiance de 99% pour les applications de sécurité publique la technologie.

CLIQUEZ ICI POUR L’APP FOX NEWS

"Lors de l’utilisation de la reconnaissance faciale pour identifier des personnes présentant un intérêt dans une enquête, les forces de l’ordre devraient utiliser le seuil de confiance recommandé à 99% d, et n'utilisez ces prévisions que comme un élément de l'enquête (et non comme le seul déterminant) ", a déclaré la société dans un article publié plus tôt cette année.

Toutefois, des activistes et des experts en technologie ont déclaré que, dans des scénarios réels, cette directive à 99% n'est pas nécessairement suivie.

«Si vous êtes faussement accusé d'être arrêté, que se passera-t-il?» a déclaré Ting. «Cela pourrait avoir une incidence sur votre capacité à obtenir un emploi, mais également sur votre capacité à obtenir un logement. Il y a de vraies personnes qui pourraient avoir de vrais impacts. ”







Facebook Comments

Leave a Response