John Oliver sobre el uso policial del reconocimiento facial: «Estamos a punto de cruzar una línea importante» | Cultura

[ad_1]

El domingo por la noche, John Oliver regresó al vacío blanco de su hogar la semana pasada con un informe sobre reconocimiento facial, una tecnología que ha existido durante años pero cuyo uso por la policía ha sido objeto de Una mirada más cercana mientras las protestas contra el racismo anti-negro y la brutalidad policial continúan en los Estados Unidos.

La aplicación de la ley es uno de los mayores usuarios de reconocimiento facial en los Estados Unidos, dijo Oliver, con un estudio que encontró que aproximadamente la mitad de todos los estadounidenses tienen sus fotos buscadas por el policía: la razón es que la tecnología de reconocimiento facial éticamente fuerte puede prevenir ataques terroristas u otros delitos.

«Es difícil denunciar la prevención de atrocidades; este programa es y siempre ha sido antiatrocidad», dijo Oliver, citando a un funcionario de la policía de Londres. «Pero la pregunta clave es ¿cuál es la compensación? Si la policía pudiera garantizar que podrían evitar todos los robos, pero la única forma de hacerlo es tener un oficial estacionado en cada baño cada vez que tomes mierda, no estoy seguro de que todos estén de acuerdo en que vale la pena, y las personas que lo hacen podrían quererlo por otras razones además de la prevención del delito «.

El verano estadounidense de reconocimiento racial es en realidad «un muy buen momento para considerar este tema», dijo Oliver, debido a los temores de que se utilizó el reconocimiento facial para identificar a los manifestantes de Black Lives Matter. Esta vigilancia tiene un precedente: durante las manifestaciones de 2015 en Baltimore después de la muerte de Freddie Gray, un hombre negro bajo custodia policial, la policía utilizó el reconocimiento facial para identificar perfiles de Facebook y arrestos selectivos por órdenes de arresto pendientes, «que es una forma bastante siniestra de socavar el derecho de reunión», dijo Oliver.

Da un salto adelante de cinco años, y todavía no hay muchas reglas sobre cómo alguien puede usar el reconocimiento facial, especialmente aquellos en el poder. «Esta tecnología plantea inquietantes preguntas filosóficas sobre la libertad personal, y en este momento también hay problemas prácticos muy inmediatos», dijo Oliver. Primero, la tecnología tiene un sesgo racial inherente; Un investigador del MIT descubrió que la tecnología facial de Amazon no identificaba rostros femeninos de piel más oscura, pero no tenía problemas con los hombres blancos. «¿Hombre blanco? No hay problema», dijo Oliver. «Cuál, sí, es el lema no oficial de la historia, pero no es como lo que necesitábamos en este momento es que las computadoras encuentren algo una especie de forma de exacerbar el problema «.

Incluso si estos problemas se resolvieran, «realmente deberíamos preguntarnos qué tan cómodos estamos con el uso de la policía, los gobiernos, las empresas o incluso cualquier persona», dijo Oliver. «Y deberíamos preguntar eso Ahora porque estamos a punto de cruzar una línea importante «, gracias a una compañía llamada Clearview AI, la historia profundamente preocupante del New York Times expuesta a principios de este año.

Durante años, las grandes compañías tecnológicas se han acercado al reconocimiento facial con precaución: «piénselo: también fue Pandora’s Box-y para Silicon Valley, los abridores de Pandora’s Box más entusiastas del mundo», dijo Oliver. Las empresas que lo desarrollaron han limitado el uso de la tecnología a conjuntos de datos estrictos, como fotos de pasaporte o fotos de licencia de conducir, pero Clearview AI ha abierto una brecha. La compañía recopiló una base de datos de tres mil millones de imágenes raspando imágenes de sitios de redes sociales como Instagram, Facebook, LinkedIn y Twitter.

Más de 600 agencias de aplicación de la ley ahora están utilizando el servicio Clearview, y con tantas imágenes, «probablemente esté en esta base de datos, incluso si no lo sabe», dijo Oliver. «Si una foto suya se ha subido a Internet, es probable que Clearview la tenga, incluso si alguien la subió sin su consentimiento». Incluso si no te has etiquetado a ti mismo, o si luego configuraste tu cuenta de forma privada. «

El raspado de imágenes de Clearview de los sitios de redes sociales violó sus términos de uso, lo que resultó en órdenes de cese y desistimiento. Pero continuó la práctica, citando un primer derecho de enmienda para recopilar datos en las redes sociales, «lo cual no es en absoluto el funcionamiento de la primera enmienda», respondió Oliver. «También podría decir que tiene una octava enmienda para vestir conejos como John Lennon: esta enmienda no cubre lo que creo que cree que tiene».

El fundador de Clearview, Hoan Ton-That, dijo que «quería estar en la categoría de reconocimiento facial», pero Oliver señaló varias señales de alerta, comenzando con Ton-That, una historia de desarrollo comercial anterior. , como la aplicación Trump Hair, que simplemente coloca una imagen del cabello de Trump en cualquier foto, y ViddyHo, que engañó a los usuarios y envió spam a sus contactos de Gmail. «Así que no estoy seguro de querer darle a este chico mi vida privada», dijo. «Sin embargo, si estuviera buscando a alguien para crear una aplicación que me permitiera ponerme el bigote de Ron Swanson en la cara mientras mi cuenta corriente se drenaba silenciosamente, por supuesto, estaría en la parte superior de mi lista».

Y aunque Ton-That ha prometido que Clearview AI solo trabajará con la policía, «como si fuera algo intrínsecamente bueno», dijo Oliver, la compañía ya ha hecho tratos con compañías como que Kohl’s, Walmart y Macy’s, y tiene un candidato al Congreso supremacista blanco, Paul Nehlan, sus «bases de datos no convencionales» para «buscar una oposición extrema», «que es una aterradora serie de palabras para compartir una oración» supremacista blanco «, dijo Oliver.

Se han tomado algunas medidas para limitar el uso del reconocimiento facial, por ejemplo, San Francisco ha prohibido su uso por parte de la policía de la ciudad, «pero también necesitamos una política integral en a nivel nacional, y lo necesitamos ahora «, dijo Oliver. «Porque, nuevamente, hay preocupaciones sobre su uso en las protestas que estamos presenciando actualmente». Las protestas ya han generado cambios comerciales significativos: IBM dice que ya no venderá tecnología de reconocimiento facial, Amazon impuso una moratoria de un año en el uso de la policía y Microsoft no venderá su tecnología de reconocimiento facial hasta que entren en vigencia las regulaciones federales. lugar – «pero no hay nada que impida que estas compañías cambien de opinión si la indignación de la gente se apaga», dijo Oliver.

«Entonces, si Clearview continúa capturando nuestras fotos, al menos, puede haber una manera de hacerles saber lo que piensas al respecto», dijo Oliver. La próxima vez que cargues una foto, sugirió, tira una con un cartel que diga «estas fotos fueron tomadas de mala gana y prefiero que no las mires», o más simplemente «maldita sea» Clearview: quién realmente transmite el mensaje. «

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *