WatsomApp primer método online que detecta y previene el acoso escolar

La empresa española KIO–AI ha desarrollado una herramienta tecnológica, basada en la inteligencia artificial Watson de IBM, para identificar y prevenir casos de acoso escolar. El programa, bautizado como WatsomApp, combina juegos on line y conversaciones con robots humanoides (QBO y Snow) para detectar conflictos en las aulas e identificar a alumnos que pueden estar siendo hostigados y a los posibles acosadores, así como a los líderes y a aquellos que están más aislados y pueden ser más vulnerables.

Gustavo Beltrán, fundador y director de KIO-AI, asegura que el hecho de usar un robot facilita la interacción y la conversación de los niños, hace que se sientan más confiados y cómodos para sincerarse que si están ante una figura de autoridad como los maestros, los padres o los psicólogos. “Sienten que es algo cercano, y además el robot es neutro, no juzga y no emite energía ni positiva ni negativa, no tiene días buenos o malos para hablarle”, dice.

La herramienta de inteligencia artificial, que también puede funcionar a través de móviles, tabletas u ordenadores, ya se está aplicando en algunos centros educativos de España y Perú. Inicialmente se aprovecha la clase de informática para que los alumnos, a través de un juego, pasen una serie de pruebas diseñadas por psicólogos y pedagogos.

Con los resultados de esas pruebas, la inteligencia artificial identifica qué niños tienen perfil de acosado, de acosador, cuáles son observadores pasivos, cuáles niños invisibles..., y en función de ese contexto, un bot chatea luego con ellos en clase para que, finalmente, pasen a conversar con el robot. La inteligencia artificial del robot tiene en cuenta tanto el lenguaje como el tono con que hablan los niños para analizar sus emociones.

Mónica Cernuda, de IBM, y Gustavo Beltrán, de KIO-AI, con el robot QBO, que tiene instalado el Watsom Assistant para chatear con los niños.

Con toda esa información se elabora un informe para los profesores, orientadores y la dirección del centro con predicciones de qué puede estar pasando en el aula, el perfil de cada alumno, la probabilidad de que determinados niños estén siendo víctimas o agresores, y recomendaciones sobre las acciones más efectivas a aplicar en cada caso.

“Nuestra inteligencia artificial mide la cohesión del grupo, la segregación por género, los niños vulnerables, identifica las alianzas y enemistades, y eso resulta muy útil para que el centro adopte medidas que mejoren la convivencia y prevengan futuros conflictos”, explica Beltrán. Y añade que, como el programa se pasa una vez al trimestre, se puede seguir la evolución y comprobar qué acciones están resultando más efectivas, algo de lo que toma nota la propia máquina para futuras recomendaciones.