Facebook quiere que dejes de pelear en sus grupos. Una nueva herramienta de inteligencia artificial podría intentar calmar las cosas.
Las conversaciones pueden salirse rápidamente de control en línea, por lo que Facebook espera que la inteligencia artificial pueda ayudar a mantener las cosas en orden.
La red social está probando el uso de inteligencia artificial para detectar peleas en muchos de sus grupos para que los administradores de grupo puedan ayudar a calmar las cosas.
El anuncio se produjo en una
publicación de blog el miércoles, en la que Facebook lanzó una serie de nuevas
herramientas de software para ayudar a los más de 70 millones de personas que
administran y moderan grupos en su plataforma.
Facebook, que tiene 2.850 millones de usuarios mensuales, dijo a fines del año pasado que más de 1.800 millones de personas participan en grupos cada mes y que hay decenas de millones de grupos activos en la red social.
Junto con las nuevas herramientas de Facebook, AI decidirá cuándo enviar lo que la compañía llama "alertas de conflicto" a quienes mantienen grupos. Las alertas se enviarán a los administradores si AI determina que una conversación en su grupo es "polémica" o "insalubre", dijo la compañía.
Durante años, las plataformas tecnológicas como Facebook y Twitter se han basado cada vez más en la inteligencia artificial para determinar gran parte de lo que ve en línea, desde las herramientas que detectan y eliminan el discurso de odio en Facebook hasta los tweets que Twitter aparece en su línea de tiempo. Esto puede ser útil para frustrar el contenido que los usuarios no quieren ver, y la IA puede ayudar a los moderadores humanos a limpiar las redes sociales que se han vuelto demasiado masivas para que las personas las monitoreen por sí mismas.
Pero la IA puede fallar cuando se trata de comprender la sutileza y el contexto en las publicaciones en línea. Las formas en que funcionan los sistemas de moderación basados en IA también pueden parecer misteriosas e hirientes para los usuarios.
Un portavoz de Facebook dijo que la inteligencia artificial de la compañía utilizará varias señales de las conversaciones para determinar cuándo enviar una alerta de conflicto, incluidos los tiempos de respuesta a los comentarios y el volumen de comentarios en una publicación, además dijo que algunos administradores ya tienen configuradas alertas de palabras clave que pueden detectar temas que también pueden dar lugar a discusiones.
Si un administrador recibe una alerta de conflicto, podría tomar acciones que, según Facebook, tienen como objetivo ralentizar las conversaciones, presumiblemente con la esperanza de calmar a los usuarios. Estos movimientos pueden incluir limitar temporalmente la frecuencia con la que algunos miembros del grupo pueden publicar comentarios y determinar la rapidez con la que se pueden hacer comentarios en publicaciones individuales.
Por Rachel Metz - CNN Business


Comments
Post a Comment