La vigilancia policial predictiva es solo ciberfrenología racista del siglo XXI


phrenology.jpg

Imagen: Chris Duckett / ZDNet

En 1836, el geólogo, químico y «mejorador agrícola» escocés Sir George Stewart Mackenzie estaba preocupado por lo que llamó las «atrocidades recientes» de crímenes violentos en la colonia penal británica de Nueva Gales del Sur, Australia.

Pensó que la causa fundamental era la equivocación de gobierno de los delincuentes que eran transportados al trabajo en la colonia, especialmente los dos tercios de los convictos que trabajaban para amos privados.

«En la hogaño se envían y se distribuyen a los colonos, sin la pequeño consideración por sus personajes o su historia», escribió Mackenzie en una representación. [PDF] al Secretario de las Colonias de Gran Bretaña, Lord Glenelg.

Para Mackenzie era una cuestión ético. Se trataba de rehabilitar a un criminal independientemente de «si el individuo ha [sic] pasó su vida precedente en el crimen, o ha sido impulsado por una dura privación sin quererlo a cometerlo «.

Sólo los convictos con el carácter ético correcto deben ser enviados a las colonias, para que vuelvan a «un curso de hábitos laboriosos y honestos», escribió.

El resto podría pudrirse en las cárceles británicas.

Entonces, ¿cómo propuso Mackenzie identificar a estos convictos con el carácter ético correcto? Midiendo la forma de sus cabezas.

«En manos de gobernadores ilustrados, la frenología será un motor de poder ilimitado para perfeccionar las instituciones humanas y conquistar el buen orden, la paz, la prosperidad y la satisfacción universales», escribió.

Sí, en 1836, la frenología se promovió como una ciencia de vanguardia que podía predecir, entre muchas otras cosas, la probabilidad de que una persona fuera criminal. Ahora, por supuesto, sabemos que es una completa tontería.

Aquí, en el siglo XXI, la vigilancia policial predictiva o algorítmica hace afirmaciones igualmente audaces sobre su capacidad para detectar a los delincuentes profesionales antaño de que cometan sus delitos.

Cómo la policía predictiva puede afianzar la aplicación de la ley racista

En esencia, la vigilancia predictiva consiste simplemente en utilizar la nigromancia del big data para predecir cuándo, dónde y quién puede cometer un delito.

La remuneración está destinada a ser una asignación más apto de los posibles policiales y menos delitos en universal.

Cada vez más, incluso se manejo de la ubicua tecnología de gratitud facial.

Un participante importante aquí es la empresa secreta Clearview AI, un imán de controversia con vínculos políticos de extrema derecha.

Las herramientas de Clearview ya han sido utilizadas por la Policía Federal de Australia y las fuerzas policiales en Queensland, Conquista y Australia del Sur, aunque se necesitaron investigaciones de periodistas y una violación masiva de datos para descubrirlo.

La Vivo Policía Montada de Canadá incluso negó tener usado la tecnología de Clearview tres meses posteriormente de tener firmado el arreglo.

La remuneración potencial de todo esto no es solo identificar y encausar a los criminales de forma más apto posteriormente de los hechos.

Cada vez más, incluso es la idea de que las personas que se ha predicho que serán delincuentes potenciales, o cuyo comportamiento coincide con algún patrón predicho de comportamiento delictivo, pueden ser identificados y rastreados.

En un nivel, el control policial predictivo simplemente proporciona cierto rigor irrefutable al trabajo de los propios equipos de inteligencia internos de la policía.

«Al observar delitos como el robo, se puede crear un maniquí predictivo asaz útil porque algunas áreas tienen tasas más altas de robo que otras y hay patrones», dijo la profesora Lyria Bennett Moses, directora del Centro Allens de Tecnología, Derecho e Innovación en el Universidad de Nueva Gales del Sur, el año pasado.

Los policías incluso saben, por ejemplo, que la violencia ebria es más probable en climas cálidos. Un cálculo podría ayudarlos a predecir cuándo y dónde es probable que comience en función de la experiencia pasada.

Según Roderick Graham, profesor asociado de sociología en la Universidad Old Dominion en Virginia, existen formas más innovadoras de utilizar los datos.

Suponga que la policía está tratando de identificar a los líderes de las pandillas locales. Han arrestado o vigilado a varios pandilleros y, a través de «interrogatorios, cuentas de redes sociales u observación personal», ahora tienen una repertorio de sus amigos, familiares y asociados.

«Si ven que una persona está relacionada con muchos pandilleros, esto le da a la policía una pista de que es importante y tal vez un líder», escribió Graham.

«La policía siempre ha hecho esto. Pero ahora, con los estudio por computadora, pueden construir modelos de redes sociales más precisos y estadísticamente sólidos».

Pero aquí es donde todo comienza a tambalearse.

Como señalaron los investigadores estadounidenses William Isaac y Andi Dixon en 2017, aunque los datos policiales a menudo se describen como representativos de un «crimen», eso no es exactamente lo que está sucediendo.

«El crimen en sí mismo es un aberración social en gran parte oculto que ocurre en cualquier sitio donde una persona viola una ley. Los llamados ‘datos del crimen’ generalmente tabulan eventos específicos que no son necesariamente violadores de la ley, como una emplazamiento al 911, o que están influenciados por la policía existente. prioridades «, escribieron.

«Los vecindarios con muchas llamadas de la policía no son necesariamente los mismos lugares donde ocurre la maduro cantidad de delitos. Son, más acertadamente, donde se encuentra la maduro atención policial, aunque el sitio donde esa atención se concentra a menudo puede estar sesgado por factores raciales y de categoría».

O como dice Graham: «Conveniente a que la policía racista practica en el pasado vecindarios negros y marrones sobre aparece lo que significa que estas son áreas de entrada criminalidad, y aún más policías están colocados allí «.

Bennett Moses dio un ejemplo claramente australiano.

«Si vas a las bases de datos de la policía en Australia y observas los delitos de lengua ofensivo, parece que solo los indígenas juran porque no hay nadie más a quien se le cobre por ello», escribió.

«Por lo tanto, existe un sesgo para comenzar con los datos, y cualquier sistema predictivo se basará en datos históricos, y luego eso se retroalimenta en el sistema».

Los policías no quieren dialogar de vigilancia predictiva

En 2017, el Plan de gobierno de detección de sospechosos de la policía de Nueva Gales del Sur (STMP, por sus siglas en inglés) seleccionó a niños de tan solo 10 primaveras para las instrucciones para detenerse y registrar y avanzar cada vez que la policía los encontraba.

La policía no ha explicado efectivamente cómo o por qué sucede eso.

Sin incautación, según la Coalición de Honradez Tierno (YJC) en ese momento, los datos que han rematado obtener muestran que el STMP «se dirige desproporcionadamente a los jóvenes, en particular a los aborígenes e isleños del Ceñido de Torres».

Según una evaluación de STMP en 2020 realizada por la respetada Oficina de Estadísticas e Investigación del Crimen de NSW, «STMP sigue siendo uno de los principios secreto de la logística de la Fuerza de Policía de NSW para estrechar el crimen».

Las aproximadamente 10.100 personas sujetas a SMTP-II desde 2005, y las más de 1.020 sometidas a un sistema equivalente para casos de violencia doméstica (DV-STMP), eran «predominantemente hombres y (desproporcionadamente) aborígenes», escribieron.

Sin incautación, en comparación con las personas no aborígenes, la cohorte nativo de la muestra vio un «pequeño beneficio de reducción del delito».

La policía de Conquista ha arrojado el velo del secreto sobre su propia utensilio policial predictiva. Ni siquiera han revelado su nombre.

La prueba de este sistema solo se hizo de conocimiento manifiesto en 2020 cuando la profesora asociada de criminología de la Universidad de Monash, Leanne Weber, publicó su crónica sobre la policía comunitaria en Greater Dandenong y Casey.

En entrevistas con jóvenes de Sudán del Sur y del Pacífico, escuchó cómo, al menos en opinión de su corresponsal, el racismo se está incorporando a los datos desde el principio.

«Se descubrió que muchas experiencias informadas por los participantes de la comunidad que parecían estar relacionadas con la vigilancia basada en el peligro dañaban los sentimientos de acogida y pertenencia segura», escribió.

«Esto incluyó que se les impidiera reunirse en grupos, ser detenidos e interrogados sin motivo, y ser monitoreados de cerca sobre la cojín de delitos pasados».

Un participante pareció darse cuenta de lo que estaba pasando: «La policía no da una razón por la que los está acusando. Es para que la policía pueda verificarlo y ponerlo en su sistema».

La policía de Conquista dijo Celador Australia que no se pudieron divulgar más detalles sobre la utensilio oportuno a «sensibilidades metodológicas», sean las que sean.

Es revelador, sin incautación, que esta utensilio secreta solo se utilizó en Dandenong y los suburbios circundantes de Melbourne, una de las regiones más desfavorecidas y «culturalmente diversas» de Australia.

Exploraciones más detalladas de las herramientas de vigilancia predictiva lo expresan sin rodeos, como este titular en Revisión de tecnología del MIT: Los algoritmos de vigilancia policial predictiva son racistas. Necesitan ser desmantelados.

O como escribió John Lorinc en su extenso artículo para el Suerte de Toronto, «la vigilancia de macrodatos está plagada de minas terrestres técnicas, éticas y políticas».

El retroceso contra la vigilancia policial predictiva está en marcha

A nivel mundial, el Comité de las Naciones Unidas para la Exterminio de la Discriminación Étnico ha apto [PDF] cómo los sistemas de vigilancia predictiva que se basan en datos históricos «pueden producir fácilmente resultados discriminatorios».

«Tanto los expertos en inteligencia químico como los funcionarios que interpretan datos deben tener una comprensión clara de los derechos fundamentales para evitar la entrada de datos que puedan contener o resultar en prejuicios raciales», escribió el comité.

En el Reino Unido, el Centro de Ética e Innovación de Datos ha dicho que las fuerzas policiales deben «avalar altos niveles de transparencia y explicabilidad de cualquier utensilio algorítmica que desarrollen o adquieran».

En Europa, la vicepresidenta de la Comisión de la UE, Margrethe Vestager, dijo que la vigilancia policial predictiva «no es aceptable».

Ciudades individuales han estado prohibiendo el gratitud facial para la vigilancia, incluidas Portland, Minneapolis, Boston y Somerville en Massachusetts, Oakland e incluso el centro tecnológico de San Francisco.

Al menos los frenólogos fueron abiertos y transparentes

En 1836, la propuesta de Mackenzie no llegó a ninguna parte, a pesar de su saldo y ofrecimiento para probar su plan con un experimentación.

«Pongo ahora en sus manos una serie de certificados de hombres eminentes, que confirman mi afirmación precedente, de que es posible clasificar a los condenados destinados a nuestros asentamientos penales, para que los colonos se liberen del peligro de que se les asignen personajes atroces e incorregibles. a ellos, y al manifiesto colonial, de los males derivados de la fuga de tales personajes «, escribió.

Lord Glenelg, resulta que no estaba convencido de que la frenología fuera una cosa y, en cualquier caso, no tenía los fondos para ello.

Los iracundos acariciadores de cráneos expresaron su consternación en La Revista Frenológica y Revista de Ciencia Pudoroso para el año 1838 [PDF], incluso culpando a los gobernadores coloniales por los crímenes violentos.

«Como frenólogos, debemos aceptar (y asumimos esto, porque hablamos sobre la cojín de hechos innegables) que la ocurrencia de tales atropellos podría disminuir mucho, si no evitarse por completo; y en consecuencia, debemos considerar a aquellos a quienes el Se les da poder de prevención, pero quienes se niegan a practicar ese poder, como moralmente culpables de conspirar en los crímenes más mortíferos «, escribieron.

La policía sigue bebiendo Kool-Aid

Hay tres diferencias secreto entre la vigilancia policial predictiva en 2021 y 1836.

Primero, el secreto.

Mackenzie ofreció «sin dudarlo» una prueba pública de frenología frente a Lord Glenelg y «los amigos que desee que estén presentes». Hoy en día, todo es cálculo patentado confidencial y secreto policial.

En segundo sitio, la credulidad.

Incluso en una época de gran fe en la ciencia y la razón, Lord Glenelg se mostró escéptico. En estos días, la policía parece soplar Kool-Aid tan pronto como se ofrece.

Y tercero, la ético, o mejor dicho, la equivocación de ella.

Independientemente de lo que pueda pensar de la promoción de Mackenzie de lo que ahora sabemos que es charlatanería, su objetivo universal era la restablecimiento ético de la sociedad.

Se pronunció en contra de la «ignorancia de la constitución humana» que llevó a los gobernantes a pensar que «la degradación es … el medio adecuado para restaurar a un ser humano el respeto propio e inspirar una inclinación en torno a la buena conducta».

Tanto entre policías como entre tecnólogos, parece no asistir una discusión coherente sobre la ética y los derechos humanos. Eso debe arreglarse y arreglarse pronto.

Cobertura relacionada

Deja un comentario