LinkedIn lanzó un nuevo marco de moderación de contenido que es un gran avance en la optimización de las colas de moderación, reduciendo el tiempo para detectar violaciones de políticas en un 60%. Esta tecnología puede ser el futuro de la moderación de contenido una vez que esté más disponible.
Cómo LinkedIn modera las infracciones de contenido
LinkedIn cuenta con equipos de moderación de contenido que trabajan revisando manualmente el posible contenido que infringe las políticas.
Utilizan una combinación de modelos de inteligencia artificial, informes de miembros de LinkedIn y reseñas humanas para detectar contenido dañino y eliminarlo.
Pero la magnitud del problema es inmensa porque hay cientos de miles de elementos que necesitan revisión cada semana.
Lo que solía suceder en el pasado, al utilizar el proceso primero en entrar, primero en salir (FIFO), es que cada elemento que necesitaba una revisión esperaba en una cola, lo que provocaba que el contenido ofensivo real tardara mucho en ser revisado y eliminado.
Por tanto, la consecuencia del uso de FIFO es que los usuarios quedaron expuestos a contenido dañino.
LinkedIn describió las desventajas del sistema FIFO utilizado anteriormente:
“…este enfoque tiene dos inconvenientes notables.
En primer lugar, no todo el contenido revisado por humanos infringe nuestras políticas: una parte considerable se evalúa como no violatoria (es decir, aprobada).
Esto le quita valioso ancho de banda a los revisores al revisar contenido que en realidad es infractor.
En segundo lugar, cuando los elementos se revisan según el método FIFO, el contenido infractor puede tardar más en detectarse si se ingiere después del contenido no infractor”.
LinkedIn ideó un marco automatizado utilizando un modelo de aprendizaje automático para priorizar el contenido que probablemente infrinja las políticas de contenido, moviendo esos elementos al frente de la cola.
Este nuevo proceso ayudó a acelerar el proceso de revisión.
El nuevo marco utiliza XGBoost
El nuevo marco utiliza un modelo de aprendizaje automático XGBoost para predecir qué elemento de contenido es probable que infrinja la política.
XGBoost es la abreviatura de Extreme Gradient Boosting, una biblioteca de aprendizaje automático de código abierto que ayuda a clasificar y clasificar elementos en un conjunto de datos.
Este tipo de modelo de aprendizaje automático, XGBoost, utiliza algoritmos para entrenar el modelo para que encuentre patrones específicos en un conjunto de datos etiquetado (un conjunto de datos que está etiquetado según qué elemento de contenido infringe).
LinkedIn utilizó ese proceso exacto para entrenar su nuevo marco:
“Estos modelos se entrenan en una muestra representativa de datos anteriores etiquetados por humanos de la cola de revisión de contenido y se prueban en otra muestra fuera de tiempo”.
Una vez entrenado, el modelo puede identificar contenido que, en esta aplicación de la tecnología, probablemente esté en infracción y necesite una revisión humana.
XGBoost es una tecnología de vanguardia que en pruebas de evaluación comparativa ha demostrado ser muy exitosa para este tipo de uso, tanto en precisión como en la cantidad de tiempo de procesamiento que lleva, superando a otros tipos de algoritmos.
LinkedIn describió este nuevo enfoque:
“Con este marco, el contenido que ingresa a las colas de revisión se califica mediante un conjunto de modelos de inteligencia artificial para calcular la probabilidad de que probablemente viole nuestras políticas.
El contenido con una alta probabilidad de no violar las políticas no tiene prioridad, lo que ahorra ancho de banda al revisor humano y el contenido con una mayor probabilidad de violar las políticas se prioriza sobre otros para que pueda detectarse y eliminarse más rápido”.
Impacto en la moderación
LinkedIn informó que el nuevo marco es capaz de tomar decisiones automáticas sobre aproximadamente el 10% del contenido en cola para revisión, con lo que LinkedIn llama un nivel de precisión “extremadamente alto”. Es tan preciso que el modelo de IA supera el rendimiento de un revisor humano.
Sorprendentemente, el nuevo marco reduce el tiempo promedio para detectar contenido que viola las políticas en aproximadamente un 60%.
Dónde se utiliza la nueva IA
El nuevo sistema de priorización de revisión de contenido se utiliza actualmente para publicaciones y comentarios de noticias en tiempo real. LinkedIn anunció que están trabajando para agregar este nuevo proceso en otras partes de LinkedIn.
Moderar contenido dañino es muy importante porque puede ayudar a mejorar la experiencia del usuario al reducir la cantidad de usuarios que están expuestos a contenido dañino.
También es útil para el equipo de moderación porque les ayuda a ampliar y manejar un gran volumen.
Se ha demostrado que esta tecnología tiene éxito y, con el tiempo, puede volverse más ubicua a medida que esté más disponible.
Lea el anuncio de LinkedIn:
Aumentar nuestros esfuerzos de moderación de contenido a través del aprendizaje automático y la priorización dinámica de contenido.
Imagen destacada de Shutterstock/cerrada para robar