Un equipo de la Universidad de Harrisburg, Pensilvania, ha desarrollado un software informático automatizado de reconocimiento facial que, según afirman, puede predecir con un 80 por ciento de precisión y "sin prejuicios raciales" si una persona probablemente será un criminal, simplemente mirando una imagen de ellos. "Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares", dijeron, declarando que estaban buscando "socios estratégicos" con los que trabajar para implementar su producto. En un uso preocupante de las palabras, el equipo, en su propio comunicado de prensa , pasa de referirse a aquellos que el software reconoce como "delincuentes probables" a "delincuentes" en el espacio de una sola oración, lo que sugiere que confían en la pseudociencia racista desacreditada de frenología parecen haber actualizado para el siglo XXI. La reacción pública al proyecto fue menos que entusiasta, a juzgar por los comentarios que se dejaron en Facebook, que incluían "Las sociedades han estado tratando de impulsar la idea de 'delincuentes nacidos' durante siglos", "y esto no es un perfil porque ….. .? " y "el 20 por ciento es seguido constantemente por la policía porque tienen la 'cara del crimen'". De hecho, la respuesta fue tan negativa que la universidad retiró el comunicado de prensa de Internet. Sin embargo, todavía es visible usando Internet Wayback Machine . Si bien el equipo de investigación afirma que está eliminando los prejuicios y el racismo de la toma de decisiones, dejando un algoritmo sin rostro, quienes escriben el código y quienes deciden quién constituye un criminal en primer lugar, ciertamente tienen sus propios prejuicios . ¿Por qué las personas sin hogar o las personas de color que "merodean" en las aceras son criminalizadas, pero los senadores y congresistas que votan por las guerras y las operaciones de cambio de régimen no? ¿Y quién tiene más probabilidades de ser arrestado? ¿Ejecutivos de Wall Street que consumen cocaína en sus oficinas o personas de clase trabajadora que fuman marihuana o crack? Cuanto más alto es el nivel de una persona en la sociedad, más graves y dañinos se vuelven sus crímenes, pero la probabilidad de un arresto y una pena privativa de libertad disminuye. Las personas negras tienen más probabilidades de ser arrestadas por el mismo delito que las personas blancas y también son sentenciadas a permanecer más tiempo en prisión. Además, el software de reconocimiento facial es conocido por no poder distinguir a las personas del color, lo que genera más preocupaciones. Las figuras delictivas están muy influidas por las personas que la policía elige seguir y lo que deciden priorizar. Por ejemplo, un estudio reciente encontró que el 97.5 por ciento de los residentes de Brooklyn arrestados por violar las leyes de distanciamiento social eran personas de color. Mientras tanto, un análisis de 95 millones de paradas de tráfico descubrió que los agentes de policía tenían muchas más probabilidades de detener a las personas negras durante el día, cuando su raza podía determinarse desde lejos. Tan pronto como llegó el anochecer, la disparidad disminuyó enormemente, ya que un "velo de oscuridad" los salvó del acoso indebido, según los investigadores. Por lo tanto, la población de personas condenadas por delitos no corresponde necesariamente a la población que los comete. La exitosa película Minority Report de 2002 está ambientada en un mundo futuro donde la división anterior al crimen del gobierno detiene todos los asesinatos mucho antes de que sucedan, con futuros criminales encerrados preventivamente. Incluso si es exacto, ¿vale la pena una tasa de precisión del 80 por ciento para arriesgar la creación de una sociedad distópica estilo minoritario donde las personas son monitoreadas y arrestadas por pre-delitos? La frenología, el estudio abandonado desde hace mucho tiempo del tamaño y la forma de la cabeza, tiene una larga y sórdida historia de pseudociencia racista y elitista peligrosa. Por ejemplo, el libro de 1876 de Cesare Lombroso, Criminal Man , les dijo a los estudiantes que las mandíbulas grandes y los pómulos altos eran una característica de "criminales, salvajes y simios", y era un signo seguro del "amor por las orgías y el irresistible ansia de maldad por su por sí mismo, el deseo no solo de extinguir la vida de la víctima, sino de mutilar el cadáver, desgarrar su carne y beber su sangre ". Mientras tanto, los violadores casi siempre tienen orejas, rasgos delicados, labios hinchados y jorobados. El propio Lombroso era profesor de psiquiatría y antropología criminal y su libro se enseñó en universidades durante décadas. Para Lombroso, era casi imposible que una persona atractiva cometiera un delito grave. El último desarrollo tecnológico de la Universidad de Harrisburg parece ser una "frenología algorítmica" actualizada que vuelve a empaquetar una idea peligrosa para el siglo XXI, más notable porque están tratando de venderla a la policía como una herramienta imparcial que ayuda a la sociedad. Foto destacada | Un hombre, que se negó a ser identificado, tiene la cara pintada para representar los esfuerzos para vencer el reconocimiento facial durante una protesta en la sede de Amazon por el sistema de reconocimiento facial de la compañía, "Rekognition", el 31 de octubre de 2018, en Seattle. Elaine Thompson | AP Alan MacLeod es redactor del personal de MintPress News. Después de completar su doctorado en 2017, publicó dos libros: Malas noticias de Venezuela: veinte años de noticias falsas y declaraciones falsas y propaganda en la era de la información: Consentimiento de fabricación . También ha contribuido a la imparcialidad y la precisión en los informes , The Guardian , Salon , The Grayzone , Jacobin Magazine , Common Dreams the American Herald Tribune y The Canary .
¡ Republique nuestras historias!
Noticias MintPress está licenciado bajo una licencia Creative Commons Atribución-NoComercial-CompartirIgual 3,0 internacional.