La vigilancia escolar nunca protegerá a los niños de los tiroteos

Si nosotros estamos Para creer a los proveedores de sistemas de vigilancia escolar, las escuelas K-12 pronto operarán de una manera similar a una aglomeración de Informe de minorías, Persona de interésy robocop. Los sistemas de “grado militar” absorberían los datos de los estudiantes, captarían el mero indicio de ideas dañinas y enviarían oficiales antes de que los posibles perpetradores pudieran llevar a cabo sus viles actos. En el improbable caso de que alguien pudiera evadir los sistemas predictivos, inevitablemente sería detenido por los sistemas de detección de armas de próxima generación y sensores biométricos que interpretan el modo de andar o el tono de una persona, advirtiendo a las autoridades del peligro inminente. La capa final podría ser la más avanzada tecnológicamente: alguna forma de dron o tal vez incluso un perro robot, que podría desarmar, distraer o desactivar al individuo peligroso antes de que se produzca un daño real. Si invertimos en estos sistemas, dice la línea de pensamiento, nuestros hijos finalmente estarán a salvo.

No solo no es nuestro presente, sino que nunca será nuestro futuro, sin importar cuán expansivos e intrincados se vuelvan los sistemas de vigilancia.

En los últimos años, ha surgido una gran cantidad de empresas, todas prometiendo una variedad de intervenciones tecnológicas que reducirán o incluso eliminarán el riesgo de tiroteos en las escuelas. Las “soluciones” propuestas van desde herramientas que usan aprendizaje automático y monitoreo humano para predecir comportamientos violentos, inteligencia artificial combinada con cámaras que determinan la intención de las personas a través de su lenguaje corporal, hasta micrófonos que identifican el potencial de violencia en función de un tono de voz. . Muchos de ellos usan el espectro de los niños muertos para pregonar su tecnología. La empresa de vigilancia AnyVision, por ejemplo, utiliza imágenes de los tiroteos de Parkland y Sandy Hook en presentaciones que promocionan su tecnología de reconocimiento facial y de armas de fuego. Inmediatamente después del tiroteo de Uvalde el mes pasado, la compañía Axon anunció planes para un dron equipado con taser como medio para lidiar con los tiradores escolares. (La compañía luego puso el plan en pausa, después de que los miembros de su junta de ética renunciaran). La lista continúa, y cada compañía quiere hacernos creer que solo ella tiene la solución a este problema.

La falla aquí no está solo en los sistemas en sí (Uvalde, por su parte, parecía tener al menos una de estas “medidas de seguridad”), sino en la forma en que las personas los conciben. Al igual que la vigilancia en sí misma, cada falla de un sistema de vigilancia o seguridad suele dar como resultado que las personas soliciten una vigilancia más amplia. Si no se predice y previene un peligro, las empresas a menudo citan la necesidad de más datos para abordar las brechas en sus sistemas, y los gobiernos y las escuelas a menudo lo aceptan. En Nueva York, a pesar de las muchas fallas de los mecanismos de vigilancia para prevenir (o incluso capturar) al reciente tirador en el metro, el alcalde de la ciudad ha decidido duplicar la necesidad de contar con aún más tecnología de vigilancia. Mientras tanto, se informa que las escuelas de la ciudad están ignorando la moratoria sobre la tecnología de reconocimiento facial. Los New York Times informa que las escuelas estadounidenses gastaron $ 3.1 mil millones en productos y servicios de seguridad solo en 2021. Y la reciente legislación sobre armas del Congreso incluye otros $300 millones para aumentar la seguridad escolar.

Lo que muchos de estos sistemas predictivos prometen es una medida de certeza en situaciones sobre las que no puede haber ninguna.

Pero en esencia, lo que prometen muchos de estos sistemas predictivos es una medida de certeza en situaciones sobre las que no puede haber ninguna. Las empresas de tecnología constantemente presentan la noción de datos completos y, por lo tanto, sistemas perfectos, como algo que está justo al otro lado de la cresta: un entorno en el que estamos tan completamente vigilados que se puede predecir cualquier comportamiento antisocial y, por lo tanto, se puede prevenir la violencia. Pero un conjunto completo de datos del comportamiento humano en curso es como el horizonte: puede conceptualizarse pero nunca alcanzarse realmente.

Actualmente, las empresas se involucran en una variedad de técnicas extrañas para entrenar estos sistemas: algunas realizan ataques simulados; otros usan películas de acción como Juan mecha, difícilmente buenos indicadores de la vida real. En algún momento, por macabro que parezca, es concebible que estas empresas entrenen sus sistemas con datos de tiroteos del mundo real. Sin embargo, incluso si las imágenes de incidentes reales estuvieran disponibles (y en las grandes cantidades que requieren estos sistemas), los modelos aún no podrían predecir con precisión la próxima tragedia en función de las anteriores. Uvalde era diferente de Parkland, que era diferente de Sandy Hook, que era diferente de Columbine.

Las tecnologías que ofrecen predicciones sobre la intención o las motivaciones están haciendo una apuesta estadística sobre la probabilidad de un futuro determinado en función de lo que siempre serán datos incompletos y sin contexto, sin importar su origen. La suposición básica cuando se usa un modelo de aprendizaje automático es que hay un patrón que identificar; en este caso, que hay un comportamiento “normal” que exhiben los tiradores en la escena del crimen. Pero encontrar tal patrón es poco probable. Esto es especialmente cierto dados los cambios casi continuos en el léxico y las prácticas de los adolescentes. Podría decirse que más que muchos otros segmentos de la población, los jóvenes están cambiando la forma en que hablan, visten, escriben y se presentan, a menudo explícitamente para evitar y evadir la mirada atenta de los adultos. Desarrollar un modelo consistentemente preciso de ese comportamiento es casi imposible.