https://frosthead.com

¿Puede la inteligencia artificial ayudar a detener los tiroteos escolares?

A pesar de su sorprendente frecuencia, los tiroteos escolares siguen siendo un horror confuso.

No solo hay poco consenso sobre cómo detenerlos, con sugerencias que van desde restringir el acceso a las armas hasta armar a los maestros, sino que hay incluso menos certeza sobre por qué un estudiante abriría fuego contra sus compañeros de clase.

Ahora, algunos científicos están comenzando a explorar si la inteligencia artificial (IA) podría ayudar a encontrar respuestas. La idea es que los algoritmos puedan analizar mejor los datos relacionados con los tiroteos en la escuela, y tal vez incluso identificar patrones en el lenguaje o comportamiento de los estudiantes que puedan presagiar la violencia escolar. La investigación aún se encuentra en sus primeras etapas, y la posibilidad de usar máquinas para predecir quién podría convertirse en un tirador escolar plantea problemas de privacidad y otras cuestiones éticas asociadas con cualquier tipo de perfil, especialmente porque el proceso involucraría a niños. El objetivo, sin embargo, es ver si el poder analítico de las máquinas inteligentes puede proporcionar más claridad a las tragedias que con demasiada frecuencia se consumen en un remolino de emociones y retórica política.

Pasando a la tecnología

El uso de la inteligencia artificial como una forma de llevar el análisis científico a algo tan insondable como los tiroteos escolares atrajo mucho a Shreya Nallapati. Acababa de graduarse de la escuela secundaria en Colorado, pero en febrero, después de la muerte a tiros de 17 estudiantes en Parkland, Florida, la líder estudiantil Emma González la inspiró a tomar medidas.

"Sentí que no deberíamos simplemente publicar nuestros pensamientos y condolencias", dice Nallapati. "Pensé que, como una generación creciente de millennials, deberíamos tratar de usar lo que mejor conocemos: la tecnología".

Entonces, Nallapati, que ha estado estudiando inteligencia artificial en la escuela secundaria, se acercó a otras mujeres jóvenes que conoce a través de un programa llamado Aspirations in Computing, dirigido por el Centro Nacional para Mujeres y Tecnología de la Información. Aspirations in Computing alienta a las mujeres jóvenes a ingresar en los campos informáticos y tecnológicos.

Nallapati les pidió a otros en el grupo que se unieran a ella en un nuevo proyecto, #NeverAgainTech. Espera que el esfuerzo de colaboración resulte en una compilación y análisis impulsado por IA de una amplia gama de datos relacionados con tiroteos escolares, desde información demográfica y socioeconómica sobre tiradores anteriores, hasta cualquier historial de uso de drogas o trastornos neurológicos, hasta disponibilidad de armas en los estados donde se han producido ataques. El objetivo es desarrollar un desglose más completo de los muchos componentes de los tiroteos escolares que cualquier cosa que exista actualmente, y hacer que el software resultante esté disponible para el público, particularmente las escuelas y las agencias de aplicación de la ley, el próximo año.

Evaluar riesgos

Un equipo de investigadores del Centro Médico del Hospital Infantil de Cincinnati está adoptando un enfoque diferente al usar la IA para abordar la violencia escolar. Publicó un estudio reciente que sugiere que el aprendizaje automático podría ayudar a los terapeutas y consejeros a discernir el nivel de riesgo que puede presentar un estudiante.

Específicamente, los científicos descubrieron que la IA era tan precisa como un equipo de psiquiatras de niños y adolescentes a la hora de evaluar el riesgo de comportamiento violento, en base a entrevistas con 119 niños entre las edades de 12 y 18. Mientras que el estudio se centró ampliamente en el físico El investigador principal, Drew Barzman, dice que también fue aplicable para evaluar el riesgo de disparos en la escuela.

"Por lo general, hay señales de advertencia antes de que haya violencia escolar", dice. En particular, el lenguaje que utiliza un estudiante durante una entrevista puede ayudar a distinguir a un adolescente de alto riesgo de uno de bajo riesgo, según una investigación previa dirigida por Barzman. Ese estudio concluyó que el primero tenía más probabilidades de expresar sentimientos negativos sobre sí mismo y sobre los actos de los demás. También era más probable que hablara sobre actos violentos que involucraban a sí mismo y videojuegos o películas violentas.

El equipo dio otro paso al hacer que un algoritmo de IA utilizara los resultados del estudio anterior para analizar las transcripciones de los estudiantes entrevistados para la nueva investigación. Basado en patrones de lenguaje, indicó si una persona tenía un riesgo alto o bajo de cometer violencia. Más del 91 por ciento de las veces, el algoritmo, usando solo los transciripts, se alineó con las evaluaciones más extensas de un equipo de psiquiatras de niños y adolescentes, que también tenían acceso a información de padres y escuelas.

Los estudiantes en el estudio fueron reclutados en gran parte de clínicas de psiquiatría para pacientes ambulatorios, unidades de hospitalización y departamentos de emergencia. Algunos habían exhibido recientemente cambios de comportamiento importantes, pero para otros, los cambios fueron más leves. Barzman dice que asistieron a una amplia gama de escuelas, aunque ninguna fue educada en casa.

Según Barzman, el estudio se centró en predecir la agresión física en la escuela, pero aún no se sabe si el aprendizaje automático podría prevenir la violencia. En este punto, el objetivo es proporcionar a los terapeutas y consejeros una herramienta que pueda agudizar sus evaluaciones de los estudiantes basadas en entrevistas. La intención, señala Barzman, es no hacer que las máquinas tomen decisiones sobre los estudiantes.

"Básicamente debería ayudar al clínico en la toma de decisiones", dice Barzman. "Les estaríamos proporcionando una estructura de lo que consideramos preguntas importantes. Puede ser difícil entrevistar a un estudiante, elegir la información correcta y recordar todo. La idea es darles una herramienta que pueda ayudarlos a través del proceso y aumentar la precisión de sus evaluaciones ".

Matty Squarzoni es otro creyente en el potencial de la inteligencia artificial para abordar la violencia escolar. Es CEO de una startup de California llamada Sitch AI, que planea comercializar tecnología que, según él, podría ayudar a las escuelas a enfrentar tales amenazas. El enfoque inicial será desarrollar un sistema de sensores que permita a los oficiales de policía detectar la ubicación precisa de los disparos, y también rastrear los movimientos de un tirador a través de una escuela. Pero Squarzoni dice que la compañía también está buscando formas de utilizar el análisis predictivo para detectar posibles problemas antes de que se vuelvan violentos.

Él cree que la inteligencia artificial podría analizar los datos de un estudiante y marcar cambios notables en su desempeño o comportamiento. Squarzoni reconoce posibles preocupaciones sobre la privacidad, pero dice que la compañía no conocería las identidades de los estudiantes.

"No estamos hablando de crear perfiles", dice. “Veríamos a cada persona como una entidad única. Pero los humanos son criaturas de hábito. Cuando comienzan a tener irregularidades, es cuando comienzas a mirarlos. Detecta banderas, y tal vez las banderas comienzan a acercarse más y más. Podrían ser problemas de salud mental, o tal vez sus calificaciones están bajando.

“No estamos buscando poder decir, 'Esta persona va a ser un tirador'. Queremos poder decir: 'Esta persona necesita ayuda' ".

¿No tan rapido?

Pero otros tienen serias preocupaciones sobre la prisa por usar algoritmos de software para abordar problemas sociales complejos.

"Ahora estamos viendo una tendencia de IA aplicada a dominios muy sensibles a velocidades alarmantes, y las personas que hacen estos algoritmos no necesariamente entienden todos los aspectos sociales, e incluso políticos, de los datos que están utilizando", dice Rashida Richardson, director de investigación de políticas del AI Now Institute, un programa de la Universidad de Nueva York que estudia las implicaciones sociales de la inteligencia artificial.

Un área donde el uso de la IA ha sido objeto de críticas es lo que se conoce como vigilancia predictiva. Estos son productos de software que analizan las estadísticas de delitos y luego predicen dónde es más probable que se cometan delitos. Pero los críticos señalan que los datos, como los arrestos, pueden ser el resultado del sesgo humano, que finalmente puede integrarse en el algoritmo.

Eso siempre es un riesgo de análisis predictivo y por qué la fuente de los datos es un factor clave para determinar cuán objetivo puede ser realmente. Sin embargo, con la herramienta de IA desarrollada por los investigadores del Cincinnati Children's Hospital, el análisis se basa en lo que dicen los estudiantes durante una entrevista, en lugar de una recopilación amplia de estadísticas.

Aun así, Richardson cree que es importante que los equipos que crean este tipo de software sean "interdisciplinarios", por lo que los educadores, por ejemplo, participan en programas que evalúan el comportamiento de los estudiantes.

“Los investigadores pueden no comprender muchos de los matices de lo que las personas en el mundo de la educación y la política legal llaman clima escolar. Eso incluye problemas de seguridad y comportamiento ”, dice ella. “El tipo de escuela en la que estás a menudo dictará cómo se trata el comportamiento y cómo se maneja la disciplina.

"Por ejemplo, se ha descubierto que las escuelas charter tienen políticas disciplinarias mucho más estrictas", agrega Richardson. “Los niños en ese entorno serán tratados de manera muy diferente que en una escuela privada de alto nivel e incluso en diferentes entornos de escuelas públicas.

"Tratar de comprender problemas muy complicados que tienen una gran cantidad de aportes y aplicar una solución tecnológica que refleje un poco de él es un problema porque puede reiterar los mismos problemas que vemos en la sociedad o crear una solución para un problema que no existe. "

Richardson dice que otra preocupación es que, incluso si un programa de IA se desarrolla con las mejores intenciones, puede terminar siendo utilizado de formas no previstas por sus creadores.

"Una vez que se te ocurran estas herramientas", dice, "no es que sigas teniendo control sobre cómo se implementan o cómo seguirán afectando a la sociedad en general".

¿Puede la inteligencia artificial ayudar a detener los tiroteos escolares?