Facebook desarrollará red social paralela para detectar el mal comportamiento de usuarios
Probar nuevas características y propuestas de actualización de código muchas veces resulta difícil para las redes sociales, ya que los humanos interactúan entre sí de maneras difíciles de replicar para los algoritmos tradicionales.
“El comportamiento de las personas evoluciona y se adapta con el tiempo y es diferente de una geografía a otra, lo que dificulta la anticipación de todas las formas en que un individuo o una comunidad entera podría responder incluso a un pequeño cambio en su entorno”, explicó Facebook en una publicación en su blog de Inteligencia Artificial.
Por ello, Facebook desarrollará una red social paralela para mejorar las pruebas de software para estos entornos complejos, especialmente en las áreas de seguridad, protección y privacidad.
Según la empresa “Web-Enabled Simulation” (WES), o simulación en la web, es un nuevo método para “construir las primeras simulaciones altamente realistas y a gran escala de redes sociales complejas”.
WES utiliza el aprendizaje automático para entrenar a los ‘bots’ para simular de forma realista el comportamiento de los humanos en una plataforma de redes sociales.
“Los bots están entrenados para interactuar entre sí utilizando la misma infraestructura que los usuarios reales, de manera que pueden enviar mensajes a otros bots, comentar las publicaciones de los bots o publicar las suyas propias, o hacer solicitudes de amistad a otros bots”, indicó Facebook en su blog.
Aunque WES es capaz de automatizar las interacciones entre miles o incluso millones de bots, la compañía aclaró que los bots no podrán relacionarse con usuarios reales y que su comportamiento no impactará a los humanos ni a sus experiencias en la plataforma.
Además, utilizando WES, Facebook creó WW, un entorno simulado usando el código base de producción real de la plataforma. Con estó, pueden crear robots de inteligencia artificial realistas que buscan comprar artículos que no están permitidos en Facebook, como armas o drogas. Así detectarán el mal comportamiento de los usuarios.
“Entonces podemos hacer simulaciones para ver si el robot es capaz de frustrar nuestras salvaguardias y violar nuestras normas comunitarias. Haciendo esto a escala en la WW, podemos identificar patrones estadísticos en los resultados y probar formas de abordar los problemas”, escribió Facebook.
Por ahora el proyecto aún se encuentra en fase de investigación. Sin embargo, Facebook lanzó una solicitud de propuestas invitando a investigadores, académicos y científicos a contribuir con nuevas ideas a WES y WW para acelerar el progreso.
Recibieron 85 solicitudes de 17 países distintos. Le otrogarán donaciones no restringidas a los académicos para apoyar su exploración de la ciencia que sustenta a WES.
Con esta iniciativa Facebook busca abordar soluciones para las interacciones complejas que se llevan a cabo en la plataforma, reconociendo que no todos los comportamientos serán benignos.
“Con el método WES y nuestro simulador WW, hemos construido una mejor manera de abordar este importante pero difícil desafío. Esto nos ayudará a hacer que nuestras plataformas sean más seguras, más estables, más robustas y más eficientes. Y al compartir nuestro trabajo y proporcionar subvenciones a los investigadores académicos, también esperamos que WES ayude a otros a desarrollar nuevas formas de modelar este tipo de situaciones complejas”, dijo Facebook.