TikTok comenzó a despedir a cientos de moderadores de contenido para reemplazarlos con sistemas de inteligencia artificial.
Esta decisión, que forma parte de una iniciativa más amplia de su empresa matriz, ByteDance, busca mejorar la eficiencia operativa, pero plantea preocupaciones sobre la capacidad de la tecnología para manejar situaciones complejas y entender matices culturales.
Los primeros afectados son 500 empleados de la oficina que la plataforma tiene en Malasia. La mayoría formaban parte de los equipos de moderación.
Los moderadores humanos jugaban un papel crucial en la revisión y eliminación de contenido que infringe las normas comunitarias. Esta reducción de personal plantea interrogantes sobre el futuro del trabajo en la plataforma y sobre cómo se gestionará la calidad de lo que vemos en la app, en un entorno cada vez más complejo.
La implementación de inteligencia artificial en la moderación de contenido
Con la transición hacia la moderación impulsada por inteligencia artificial, TikTok espera que aproximadamente el 80% de las tareas de revisión de contenido sean manejadas por sistemas automatizados. La plataforma anunció que planea invertir 2 mil millones de dólares en medidas globales de confianza y seguridad durante este año fiscal como parte de este cambio. Esta inversión se dirige no solo a mejorar la tecnología detrás de la IA, sino también a establecer protocolos más robustos para garantizar que el contenido sea revisado adecuadamente.
Sin embargo, el uso exclusivo de IA para realizar esta delicada tarea plantea preocupaciones y abre el debate sobre las capacidades de esta tecnología ante situaciones ambiguas que solo una persona puede entender. Aunque los algoritmos pueden ser efectivos para identificar ciertos tipos de contenido dañino, como el discurso de odio o la violencia explícita, pueden carecer del contexto necesario para evaluar adecuadamente otros tipos de publicaciones. Y esto podría resultar en decisiones equivocadas sobre qué contenido debe ser eliminado o permitido.
El giro hacia la moderación por inteligencia artificial refleja una tendencia más amplia en la industria tecnológica, donde muchas empresas ya trabajan con soluciones automatizadas para mejorar la eficiencia y reducir costos.
Sin embargo, la dependencia excesiva en estos sistemas puede llevar a una disminución en la calidad del servicio al cliente y una falta de empatía hacia los usuarios. Los algoritmos pueden ser incapaces de comprender completamente las complejidades culturales y emocionales detrás del contenido, lo que podría resultar en decisiones inapropiadas o injustas.