Un estudio reciente realizado por investigadores de la Universidad de Arkansas y el Centro de Innovación de Tecnología de la Información ha revelado que el algoritmo de YouTube puede estar alejando sutilmente a los usuarios del contenido político en su plataforma Shorts. El estudio, que analizó más de 685,000 videos de Shorts de YouTube, investigó cómo el sistema de recomendación de la plataforma se adapta en función del tiempo de visualización y la sensibilidad del contenido. Los resultados sugieren que YouTube comienza activamente a recomendar videos de entretenimiento a los usuarios que pasan una cantidad significativa de tiempo viendo contenido político dentro de los cortos. Mert Jan Chakmak, uno de los autores del estudio, explicó: “Cuando comienzas [watching] Temas políticos específicos, YouTube intenta empujarlo hacia videos entretenidos, videos más divertidos, especialmente en los cortos de YouTube “. Para realizar su investigación, Chakmak y su equipo inicialmente recopilaron aproximadamente 2,800 videos en tres categorías: la elección de Taiwán 2024, el conflicto del Mar del Sur y una categoría más amplia de” general “. Luego, dieron a conocer cómo el sistema de recomendaciones de recomendación, a las tres versiones de las tres. Segundos, y ver el video en su totalidad. El modelo OpenAI GPT-4O. No te das cuenta de lo que hace el algoritmo. Simplemente van a ver. “Ni YouTube ni su empresa matriz, Google, han emitido una declaración sobre los hallazgos del estudio. Sin embargo, Chakmak cree que este cambio en las recomendaciones no es necesariamente la censura intencional. Tema más interesante para que pueda aumentar el compromiso y generar más dinero “, dijo Chakmak. Los cortos de YouTube, que se lanzó en 2020 para competir con Tiktok, presenta videos verticales que tienen hasta 60 segundos de duración. A partir de enero de 2022, los cortos han acumulado más de 5 billones de vistas. Vistas cada día.
Source: El algoritmo de Shorts de YouTube dirige a los usuarios del contenido político





