Trolls Informáticos: Como Combatirlos
Los agresores tienden a establecer su dominio y algún tipo de jerarquía. Las razones psicológicas que explican esto pueden ser múltiples: desde responder a experiencias de inferioridad hasta recrear la intimidación a la que fueron expuestos a ellos mismos
"Somos muy malos lidiando con los trolls (ciberacosadores) y con los abusos en nuestra plataforma y lo hemos hecho mal durante años", escribió Dick Costolo, ex consejero delegado de la red social Twitter en un memorando que se filtró a la prensa el año pasado.
"No es ningún secreto y el resto del mundo habla de eso todos los días".
En internet el acoso es tristemente común y Twitter está lejos de ser el único espacio donde prolifera.
Más de la mitad de los jóvenes han sido intimidados alguna vez en la red y las historias del acoso incesante salen con frecuencia en las noticias.
Pero hay algunos indicios de que los trolls se podrían frenar.
PATRONES DE COMPORTAMIENTO
Una serie de trabajos de investigación recientes han explorado cómo la tecnología podría ayudar a identificar desde temprano a los ciberacosadores, posiblemente ayudando a prevenir el abuso prolongado.
Tomemos como ejemplo un estudio sobre los comentarios abusivos en internet, que examinó 40 millones de comentarios en un período de 18 meses en sitios como CNN.com y Breitbart.com.
Uno de los autores, Cristian Danescu-Niculescu-Mizi, del Departamento de Ciencias de la Información de la Universidad de Cornell, en Inglaterra, explica que con el comportamiento de los usuarios -y no necesariamente las palabras que eligen- es posible predecir muy temprano si van a terminar expulsados de un sitio o foro en el futuro.
"Los usuarios antisociales tienden a concentrarse en unos pocos hilos de comentarios. Escriben mucho, pero sólo en un pequeño número de conversaciones, en lugar de extenderse a otros temas, como harían los demás", apunta Danescu-Niculescu-Mizi.
Mediante la identificación de este comportamiento, su equipo fue capaz de crear un algoritmo que puede predecir, de forma rápida, si los usuarios están siendo antisociales.
En lugar de buscar las malas palabras o frases humillantes, el algoritmo busca específicamente patrones de actividad y parece funcionar en múltiples sitios de internet.
"Resulta que hay suficiente información en las primeras 5 o 10 publicaciones para predecir con una precisión de alrededor del 80% si esos usuarios van a ser censurados en el futuro", explica Danescu-Niculescu-Mizi.
Los investigadores subrayan que su algoritmo no está destinado a ser un reemplazo informatizado de los moderadores humanos.
El equipo espera que llamar la atención sobre ciertos individuos desde el principio ayudaría a formular advertencias a los usuarios antisociales, para que cambien su comportamiento y no asuman que pueden salirse con la suya.
"Somos muy malos lidiando con los trolls (ciberacosadores) y con los abusos en nuestra plataforma y lo hemos hecho mal durante años", escribió Dick Costolo, ex consejero delegado de la red social Twitter en un memorando que se filtró a la prensa el año pasado.
"No es ningún secreto y el resto del mundo habla de eso todos los días".
En internet el acoso es tristemente común y Twitter está lejos de ser el único espacio donde prolifera.
Más de la mitad de los jóvenes han sido intimidados alguna vez en la red y las historias del acoso incesante salen con frecuencia en las noticias.
Pero hay algunos indicios de que los trolls se podrían frenar.
PATRONES DE COMPORTAMIENTO
Una serie de trabajos de investigación recientes han explorado cómo la tecnología podría ayudar a identificar desde temprano a los ciberacosadores, posiblemente ayudando a prevenir el abuso prolongado.
Tomemos como ejemplo un estudio sobre los comentarios abusivos en internet, que examinó 40 millones de comentarios en un período de 18 meses en sitios como CNN.com y Breitbart.com.
Uno de los autores, Cristian Danescu-Niculescu-Mizi, del Departamento de Ciencias de la Información de la Universidad de Cornell, en Inglaterra, explica que con el comportamiento de los usuarios -y no necesariamente las palabras que eligen- es posible predecir muy temprano si van a terminar expulsados de un sitio o foro en el futuro.
"Los usuarios antisociales tienden a concentrarse en unos pocos hilos de comentarios. Escriben mucho, pero sólo en un pequeño número de conversaciones, en lugar de extenderse a otros temas, como harían los demás", apunta Danescu-Niculescu-Mizi.
Mediante la identificación de este comportamiento, su equipo fue capaz de crear un algoritmo que puede predecir, de forma rápida, si los usuarios están siendo antisociales.
En lugar de buscar las malas palabras o frases humillantes, el algoritmo busca específicamente patrones de actividad y parece funcionar en múltiples sitios de internet.
"Resulta que hay suficiente información en las primeras 5 o 10 publicaciones para predecir con una precisión de alrededor del 80% si esos usuarios van a ser censurados en el futuro", explica Danescu-Niculescu-Mizi.
Los investigadores subrayan que su algoritmo no está destinado a ser un reemplazo informatizado de los moderadores humanos.
El equipo espera que llamar la atención sobre ciertos individuos desde el principio ayudaría a formular advertencias a los usuarios antisociales, para que cambien su comportamiento y no asuman que pueden salirse con la suya.
USAR LAS MISMAS TÁCTICAS DE LOS TROLLS
Curiosamente, también ha habido iniciativas para usar las tácticas de los trolls contra ellos mismos.
Una de ellas fue la Zero Trolerance Campaign (campaña "Cero Tolerancia") del grupo de activistas The Peng Collective.
Se utilizó en Twitter un programa para apuntar automáticamente a las personas cuyos mensajes parecían ser abusivos.
Ada Stolz ayudó a crear la campaña que envió mensajes a miles de cuentas de Twitter durante un período de una semana.
"Acosamos a la gente también; creamos un ejército de robots", contó Stolz.
La idea de que las personas que se dedican a la intimidación deben ser confrontadas con las consecuencias de sus actos es utilizada por las organizaciones contra el acoso cibernético que trabajan directamente con jóvenes.
La organización benéfica británica visita las escuelas y organiza actividades para crear conciencia sobre formas de intimidación como sexting, palabra con la que se conoce el envío de mensajes de contenido sexual explícito.
Pero ¿por qué la gente se acosa entre sí?
CULTIVAR LA EMPATÍA
Hay explicaciones sociológicas y psicológicas.
Por un lado, los agresores tienden a estar involucrados en un juego de poder, tratando de establecer su dominio y algún tipo de jerarquía.
Las razones psicológicas que explican esto último, sin embargo, pueden ser múltiples: desde responder a experiencias de inferioridad hasta recrear la intimidación a la que han sido expuestos a ellos mismos.
La clave, dice Enma Short, una psicóloga especialista en ciberacoso, es cultivar la empatía, y señala que la publicación de los contenidos ofensivos suele hacerse cuando el individuo está aislado de los demás.
Ha habido incluso esfuerzos para pedir a los usuarios que reconsideren un mensaje antes de enviarlo, en base a las palabras que escriben.
Este enfoque está siendo utilizado por el sitio web de discusión de adolescentes A Thin Line.
Se trata de una idea que podría resultarle interesante a Monica Lewinsky, la pasante que tuvo una relación con el expresidente de Estados Unidos Bill Clinton, quien dio un discurso muy debatido el año pasado sobre lo que describió como nuestra problemática "cultura de la humillación".
"Cuanto más se hace clic en este tipo de chismes, más insensibles somos a las vidas humanas detrás de él", dijo.
EFECTO ESPECTADOR
Una de las dificultades para reforzar digitalmente ese sentido de responsabilidad es la prevalencia del "efecto espectador".
A menudo, las personas observan el abuso, pero no hacen nada al respecto.
En un estudio reciente, Jeremy Blackburn, investigador de la compañía de tecnología española Telefónica I + D, y sus colegas, descubrieron que en un juego en Internet, cuando los jugadores fueron motivados por sus compañeros de equipo a informar sobre la conducta abusiva de otros, la probabilidad de que lo hicieran era 16 veces superior.
"Si había una petición explícita de por medio, como 'reporta a este tipo, es un idiota' -comenta Blackburn-, más personas resultaban reportadas. En cierto modo se rompía el efecto espectador ".
Blackburn también cree que la naturaleza del medio en ocasiones puede afectar la gravedad de los insultos. "Me he dado cuenta de la gente parece ser un poco más reservada cuando hay voces implicadas", indicó. "Reduce el anonimato un poco".
Parece pues que realmente nada sustituye comunicarse directamente con otras personas, incluso con los acosadores.
FUENTE: BBC
Comentarios
Publicar un comentario
Por favor, déjame tus comentarios...
Debido al alto número de mensajes de SPAM, es necesario que te identifiques para poder comentar. Los comentarios serán revisados para su aprobación.
No están permitidos los comentarios ofensivos, denigrantes, obscenos, con contenido político, racista o similar. Los que incumplan estas simples normas serán eliminados.
Gracias...