La semana pasada, la influyente presentadora de podcasts Liz Wheeler acudió a Twitter para elogiar a su nuevo director ejecutivo, Elon Musk, por purgar el sitio de “hashtags de pornografía infantil y tráfico de niños”. “Piense en cuántos niños pequeños está salvando del abuso sexual, la explotación y la tortura”, agregó. En respuesta a los comentarios de Wheeler el martes, Musk tuiteó: "Esta será para siempre nuestra máxima prioridad".
Sin embargo, ese material ilegal sigue siendo alarmantemente fácil de encontrar en Twitter, en varios idiomas. Los hashtags y los términos de búsqueda relacionados durante mucho tiempo con material de abuso sexual infantil (CSAM, por sus siglas en inglés) aún arrojan mucho contenido asociado.
Y los empleados de Twitter que se fueron recientemente, desde la base hasta el nivel ejecutivo, le dijeron a Forbes que el problema será mucho más difícil de combatir ahora que Musk ha eliminado a los equipos encargados de vigilarlo, así como su conocimiento institucional.
Como explicó uno de esos miembros del equipo: “No queda nadie que sea un experto en estos temas y pueda hacer el trabajo. Es un pueblo fantasma”.
“No queda nadie que sea experto en estos temas y pueda hacer el trabajo. . . . Es un pueblo fantasma”.
Ejecutivo de Twitter recientemente fallecido
Si bien es cierto que algunos hashtags utilizados anteriormente por quienes comerciaban material de abuso sexual infantil (CSAM, por sus siglas en inglés) parecen haberse vuelto inútiles, algo por lo que Musk fue celebrado recientemente, muchos no lo han hecho.
En menos de una hora de búsqueda el martes, Forbes encontró docenas de usuarios que ofrecían comprar y vender imágenes y videos de abuso sexual infantil. Uno ofreció imágenes de niños desnudos de 5 a 17 años. Otro mencionó un intercambio de imágenes de niños abusados en Telegram. Ambos tuits, así como casi otros 30 que promocionan o buscan abuso sexual infantil, se publicaron la semana pasada.
Más contenido polémico en Twitter
La simple búsqueda de las mismas palabras en hashtags prohibidos reveló anuncios de gran parte del mismo contenido. Una búsqueda en Twitter de enlaces a una conocida plataforma de almacenamiento en línea arrojó una serie de tuits que ofrecían videos de niños y niñas que tenían sexo con sus padres y “con un adulto”, así como imágenes de “sexo forzado”.
Otros hashtags cuestionables todavía se podían buscar. Uno que contenía una abreviatura asociada durante mucho tiempo con CSAM devolvió anuncios, incluido uno que contenía la imagen de lo que parecía ser una niña menor de edad, que ofrecía una etiqueta RFID que podía escanearse y prometía llevar al usuario a un sitio web con el tema de CSAM. Forbes también encontró varios usuarios de habla hispana que ofrecían lo que parecían ser imágenes de niñas menores de edad en Telegram, con hashtags en español adjuntos.
Tales publicaciones a menudo tenían otros hashtags adjuntos. Se puede hacer clic en estos para revelar contenido aún más polémicos, como un tweet con una representación de dibujos animados de un menor y genitales masculinos, con un texto superpuesto que pide "cualquier cosa ilegal o legal". Esta persona está cachonda”.
Abuso infantil en la plataforma
Incluso algunos hashtags que aparentemente fueron prohibidos antes de que Musk se hiciera cargo de Twitter arrojaron un puñado de resultados problemáticos. Si bien no se vieron nuevas publicaciones, al buscar uno de esos hashtags, apareció uno en junio en el que un usuario dijo que estaba buscando imágenes de recién nacidos. Ese usuario todavía estaba en Twitter a partir del martes. Con solo tres publicaciones, todas con el mismo texto e imagen, es posible que fueran un bot, otra pesadilla que Musk prometió abordar. No está claro por qué la cuenta permanece en línea. Twitter no respondió a una solicitud de comentarios.
“No veo ninguna acción significativa tomada por Musk hasta ahora”.
Carolina Christofoletti, analista de amenazas de CSAM para TRM Labs
Los expertos que han estudiado durante mucho tiempo la omnipresencia de este material en las redes sociales advirtieron que reducir el problema de abuso sexual infantil de Twitter a un puñado de hashtags es una gran simplificación. Dicen que Musk esencialmente está siendo aplaudido por algo que no ha hecho, o que ni siquiera intentó hacer.
¿Elon Musk hace todo por combatir el problema?
“No veo ninguna acción significativa tomada por Musk hasta ahora”, dijo Carolina Christofoletti, analista de amenazas de CSAM para TRM Labs e investigadora de la Universidad de São Paulo en Brasil. Advirtió que el inconveniente "es mucho más grande que un montón de hashtags" y "mucho más grande que los peces 'fáciles de atrapar'". Señaló que la eliminación de algunos hashtags preocupantes de CSAM y otras acciones asociadas "fueron todas cosas hechas bajo el liderazgo anterior".
“Ha vaciado al equipo de seguridad infantil en Twitter sin ningún impacto de riesgo”, agregó, señalando un tuit de Musk que pedía a los usuarios, en lugar de a su equipo interno, ideas sobre cómo abordar mejor el MASI. “Twitter es exactamente como era, nada nuevo bajo el sol aquí”, escribió en una publicación de LinkedIn. “Las redes de MASI siguen ahí, tan activas como antes”.
Mientras tanto, el Centro Nacional sobre Explotación Sexual advierte que los planes informados de Musk para avanzar con una función de video de pago, similar a OnlyFans, solo exacerbaría los problemas de seguridad de los niños que ya son urgentes en el sitio. “Musk no puede confrontar el material de abuso sexual infantil en Twitter mientras crea otro medio que solo alimentaría el abuso y la explotación sexual en la plataforma”, dijo Lina Nealon, directora de iniciativas corporativas y estratégicas, en un comunicado público el martes.
Al menos una persona que permanece en la empresa dijo que la reorganización del liderazgo no ha cambiado la política de Twitter ni el compromiso de los empleados con el tema. Un actual especialista en seguridad infantil dijo que Musk es "plenamente consciente" del enfoque de "tolerancia cero" de Twitter con respecto al material de explotación infantil y que "nuestro equipo está trabajando las 24 horas del día, los 7 días de la semana" en tres regiones: San Francisco, Singapur y Dublín, para mantener a los niños seguros.
“Estoy orgullosa del trabajo que hacemos para nuestro equipo”, escribió a Forbes a través de LinkedIn. “Y a pesar de todo el ruido exterior/interno, nuestro equipo está concentrado en nuestro trabajo”.
*Con información de Forbes US sobre Elon Musk.