Tamaulipas.- Me encontré con una reveladora punta del iceberg que sacudirá próximamente al popular canal de videos.
Se trata de Guillaume Chaslot, un ex-colaborador de YouTube que trabajó en el algoritmo que lanza recomendaciones en base a los intereses de los usuarios.
Se trata de Guillaume Chaslot, un ex-colaborador de YouTube que trabajó en el algoritmo que lanza recomendaciones en base a los intereses de los usuarios.
Lamentablemente sobre estas novedosas "recomendaciones" resultantes del algoritmo , tenemos que decir que no han sido del agrado de las mayorÃas, a tal grado que han causado problemas serios al sugerir misteriosamente a los usuarios, videos de teorÃas conspirativas, noticias falsas e incluso darle material a pedófilos.
Chaslot ha cuestionado estas recomendaciones de cambio de Youtube al considerarlas tóxicas (más puedes consultarlo aquà TheNextWeb).
![]() |
Guillaume Chaslot, un ex-colaborador de YouTube |
Sobre esto, en una conferencia dictada por el programador , comentó que las recomendaciones de YouTube estaban diseñadas para volverse adicto a la plataforma.
“ No es intrÃnsecamente horrible que YouTube use inteligencia artificial para recomendarte un video, porque si la IA está bien sintonizada, puede ayudarte a obtener lo que deseas. Eso serÃa increÃble. Pero el problema es que la IA no está diseñada para ayudarte a obtener lo que deseas, sino que está diseñada para hacerte adicto a YouTube. Las recomendaciones fueron diseñadas para hacerte perder tu tiempo.
El informático explicó que el tiempo de observación de un video es la métrica que utiliza el algoritmo para determinar cuáles son las recomendaciones que debe realizar.
En ese sentido, aunque eso podrÃa ser genial para una empresa que intenta vender anuncios publicitarios, Chaslot asegura que youtube no refleja necesariamente lo que el usuario quiere.
De hecho, sostiene que por eso el contenido sensacionalista o el que está hecho para dividir opiniones es recomendado ampliamente, incluyendo a las teorÃas de conspiración como el terraplanismo o noticias falsas.
El contenido atractivo es recomendado, lo cual es malo.
Chaslot observó tambien que el contenido divisivo y sensacional a menudo se recomienda ampliamente: teorÃas de conspiración, noticias falsas, videos sin formato, por ejemplo.
Básicamente, cuanto más cerca se mantiene el borde de lo que está permitido bajo la polÃtica de YouTube, más compromiso se consigue ( Vea la gráfica de arriba).
Evidentemente Google no está de acuerdo.
Evidentemente Google no está de acuerdo.
![]() |
Mark Zuckerberg |
Sobre esta serie de agudos señalamientos, podemos citar lo que Mark Zuckerberg admitió el año pasado que el contenido lÃmite era más atractivo .
Google no quiso responder a las preguntas sobre si lo mismo sucedÃa con YouTube, pero el portavoz de la compañÃa que los estudios mostraron que las personas realmente se involucraban más con contenido de calidad.
De acuerdo al creador de Facebook existe un campo académico emergente sobre la equidad algorÃtmica en la intersección de la ética y la inteligencia artificial.
Asegura que el objetivo es desarrollar un marco analÃtico riguroso y herramientas computacionales para garantizar que los cambios que hacemos se ajusten a una definición clara de imparcialidad
Google no quiso responder a las preguntas sobre si lo mismo sucedÃa con YouTube, pero el portavoz de la compañÃa que los estudios mostraron que las personas realmente se involucraban más con contenido de calidad.
De acuerdo al creador de Facebook existe un campo académico emergente sobre la equidad algorÃtmica en la intersección de la ética y la inteligencia artificial.
Asegura que el objetivo es desarrollar un marco analÃtico riguroso y herramientas computacionales para garantizar que los cambios que hacemos se ajusten a una definición clara de imparcialidad
Por su parte Chaslot dice que esto es algo que las grandes empresas de tecnologÃa tendrán que debatir entre sÃ, pero en base a su propia experiencia, está más inclinado a creer a Zuckerberg en este momento.
"Tenemos que darnos cuenta de que las recomendaciones de YouTube son tóxicas y pervierten las discusiones cÃvicas", dice Chaslot.
"En este momento, el incentivo es crear este tipo de contenido lÃmite que sea muy atractivo, pero no prohibido".
Básicamente, cuanto más extravagante sea el contenido, mayor será la probabilidad de que la gente siga mirando, lo que a su vez hará que sea más probable ser recomendado por el algoritmo.