Ciberalarma presenta el primer servicio dotado de Inteligencia Artificial que monitoriza las conversaciones de los menores en WhatsApp y redes sociales para detectar situaciones de riesgo.

Sucesos como el ciberacoso o la pederastia ponen los pelos de punta a los padres. Son situaciones que se les escapan de las manos y los menores suelen ser reacios a compartir su vida ‘online’ con los progenitores. Pero la realidad es que el 69 % de los menores entre 10 y 15 años dispone de un teléfono inteligente, un 94 % de los adolescentes de 15 años; un 93 % utiliza su dispositivo conectado a internet de forma continua y un 80 % admite que conoce casos de ciberacoso en su entorno.

Teniendo en cuenta estas cifras, Ciberalarma pone a disposición de padres y tutores el primer servicio de monitorización de redes sociales y mensajería instantánea (WhatsApp) que detecta este tipo de situaciones entre los pequeños de la casa. “Hay que hablar con el menor”, explica Federico Yanonne, socio fundador de Virtual Care, la compañía que ha diseñado el servicio. “Los padres tienen que hacerle entender que el servicio es bueno para todos, incluso para él, porque respeta su privacidad y va a estar protegido”, añade el experto.

Y es que, aunque no lo crea, este servicio no supone una intromisión en su privacidad. “Tras la autorización de los padres o tutores y menor, lo que hacemos es conectarnos a su WhatsApp o redes sociales. A partir de ese momento, la inteligencia artificial (IA), entrenada para interpretar el lenguaje natural o imágenes, lee las conversaciones del menor para detectar las situaciones para las que es entrenada”, dice Yanonne a la cadena ABC. Y es que el sistema es capaz de detectar ciberacoso; ‘sexting’ (el menor comparte fotos comprometidas de contenido sexual con otros); ‘grooming’ (un adulto se hace pasar por un menor para extorsionarle); juegos de autolesión y comportamientos depresivos como la “ballena azul”; situaciones de bulimia, anorexia, adicción a drogas o pornografía; y comportamientos violentos, racistas, xenófobos, violencia de género.

En realidad, el sistema no guarda ni almacena la actividad del menor en la red. Tampoco es monitorizada por los ciberagentes, el personal encargado de gestionar las alarmas que llegan a la central. Tal y como explica el experto, en el momento en el que el sistema detecta una conversación de violencia, el agente tiene que validarla. Para ello, “revisa la conversación o la foto que la ha generado”, sin dar conocer en ningún momento la identidad del menor o de sus progenitores. Si realmente se trata de una situación de violencia, se activa el protocolo de actuación.

Posted in EstiloEtiquetas

Más de gente

Más leídas de gente

Las Más leídas