TikTok hará cambios en las recomendaciones de su algoritmo para evitar al contenido dañino

La compañía trabaja para que no existan patrones repetitivos con la presentación de contenido que podría afectar a los usuarios de la red social.

TikTok tiene dos pestañas principales de navegación. Una esta dedicada a las cuentas que sigues y otra llamada “Para ti” que te presenta de forma aleatoria al contenido popular que podría interesarte a partir de tus hábitos de reproducción. Básicamente, es el espacio en donde brilla el bendito algoritmo que ha transformado a la red social en todo un éxito.

Pero ahora la propia compañía anunció cambios para su algoritmo para esa sección, con el objetivo de que el contenido dañino no tenga mayor alcance.

“En TikTok, reconocemos que mucho de cualquier cosa, ya sean animales, consejos de fitness o viajes de bienestar personal, no encaja con la diversa experiencia de descubrimiento que pretendemos crear. Es por eso que nuestro sistema de recomendaciones funciona para intercalar recomendaciones que podrían quedar fuera de las preferencias expresadas por las personas, ofreciendo una oportunidad para descubrir nuevas categorías de contenido”,. explican. “Por ejemplo, nuestros sistemas no recomendarán dos videos seguidos hechos por el mismo creador o con el mismo sonido. Hacerlo enriquece la experiencia de visualización y puede ayudar a promover la exposición a una variedad de ideas y perspectivas en nuestra plataforma”, agregan.

“A medida que continuamos desarrollando nuevas estrategias para interrumpir patrones repetitivos, estamos viendo cómo nuestro sistema puede variar mejor los tipos de contenido que pueden recomendarse en una secuencia. Es por eso que estamos probando formas de evitar recomendar una serie de contenido similar, como dietas extremas o estado físico, tristeza o rupturas, para protegernos de ver demasiada categoría de contenido que puede estar bien como un solo video pero problemático si vistos en grupos”, plantean desde TikTok.

En ese sentido, desde la compañía aseguran que trabajan para detectar si sus sistemas recomiendan tipos muy limitados de contenido “que, aunque no infrinjan nuestras políticas, podrían tener un efecto negativo si eso es la mayor parte de lo que alguien mira, como contenido sobre la soledad o la pérdida de peso”.

Finalmente, desde la red social aseguran que estas decisiones se llevan a cabo tras discusiones con expertos de medicina, psicología clínica y de ética en la inteligencia artificial. También con su consejo asesor de contenido y la propia comunidad de Tiktok.

Temas Relacionados

COMPARTIR NOTA