Recomendamos también: Directivos de YouTube hicieron la vista gorda a los contenido problemáticos durante años

YouTube, la principal plataforma de vídeo en el mundo, se ve sumida en la desinformación ante la creciente viralización de teorías conspirativas, contenido sexual y discursos de odio. La popularidad de esta clase de contenidos ha generado una gran preocupación acerca del daño que pueden estar causando a sus usuarios. Sin embargo, un reportaje de Bloomberg señala que los directivos de la empresa llevan años siendo conscientes de este ascenso sin hacer nada al respecto.

Desde antes de ser adquirido por Google, en 2006, YouTube ya tenia problemas para lidiar con el contenido dañino. En aquel entonces, comenzaron a proliferar una serie de vídeos que incitaban a la anorexia y los desordenes alimenticios. Ante esta problemática, la empresa declaró que dichos vídeos representaban una amenaza para la salud de sus usuarios y procedió a eliminarlos, quitarlos de las recomendaciones o ponerles una restricción de edad.

Sin embargo, esta dinámica no se ha repetido con el avance de los movimientos anti vacunas dentro de la plataforma. De hecho, Micah Schaffer, encargado de las políticas de la red social en 2006, declaró que esta clase de contenidos no hubiese pasado desapercibido por la directiva de la época. De acuerdo a las declaraciones de Schaffer, este cambio en las políticas se debe a la prioridad que se le ha dado al beneficio comercial por sobre la seguridad de los usuarios.

En este sentido, la adquisición por Google ha jugado un papel fundamental. Tras su fusión, la gigante tecnológica impulsó un plan para reestructurar el plan de negocios de YouTube y así lograr obtener el mayor beneficio posible. Sin embargo, no fue hasta 2012 que la empresa identificó el poder comercial de la viralidad de sus vídeos y decidió establecer como objetivo alcanzar mil millones de visualizaciones diarias. Es así como la empresa comenzó a trabajar en potenciar su algoritmo para cumplir la meta.

En 2016, tras diez años de la fusión con Google, YouTube alcanzó su objetivo. Sin embargo, la hazaña no hubiese podido ocurrir sin su algoritmo de inteligencia artificial que permite predecir las futuras decisiones de los usuarios. En palabras de Brittan Heller, representante del centro de investigaciones de Harvad para los derechos humanos, “Ellos no saben como funciona el algoritmo, pero saben que cuanto más escandaloso sea el contenido, más visualizaciones tendrá”.

La visión de Heller parece ser respaldada por las declaraciones de Paul Covington, el coautor del algoritmo utilizado en YouTube en 2016. Cuando Covington fue cuestionado acerca del resultado del algoritmo, el ingeniero respondió: “Es una decisión del producto. Nos dicen que debemos incrementar cierta métrica y nosotros lo hacemos, así que en realidad no es algo que esté en nuestras manos”

Sin embargo, una vez alcanzada su meta, YouTube no descansó. La empresa decidió lanzar el proyecto “Boil the ocean” (Hierve el océano), que tenía la intención de volver a reescribir el modelo de trabajo de la red social. Dicho proyecto pretendía pagar a sus creadores de contenido por la cantidad de interacción que generaran con los usuarios, separándose del modelo publicitario habitual. La idea era recompensar a aquellos creadores cuyo contenido no era respaldado por las empresas publicitarias, pero el proyecto no contempló la inmensa interacción que recibían los creadores y canales que difundían desinformación.

Más información: http://bit.ly/2KkcK4O

 

Login

Welcome! Login in to your account

Remember me Lost your password?

Lost Password