Facebook no elimina vídeos con violencia infantil de la plataforma porque "si censuras mucho la gente pierde interés"
En Reino Unido, un reportero encubierto se infiltró en uno de los centros de moderación más grandes de Facebook, ahí entrenó como moderador de contenido para la plataforma, y ahora que cuenta su historia las revelaciones que hacen son bastante escalofriantes.
El documental ‘Dispatches‘ de Channel 4 emitido este 17 de julio, desvela cómo Facebook modera realmente el contenido, y cómo la empresa no solo no elimina vídeos o imágenes con violencia gráfica que muestra niños, sino que van tan lejos como a proteger grupos de extrema derecha, porque el contenido incendiario mantiene a la gente interesada en la plataforma.
Lo que creíamos ya estaba mal, está aún peor
Para darles unos cuantos ejemplos del nivel de las cosas que Facebook permite que se mantenga en su plataforma, Dispatches muestra desde un vídeo de un niño de 2 o 3 años siendo golpeado, pateado y pisado por un hombre adulto; hasta una pelea entre un par de niñas adolescentes que termina con una pateando a la otra hasta dejarla inconsciente.
Incluso caricaturas que parecen sacadas del lado oscuro de YouTube Kids en las que una niña es ahogada por su madre por estar enamorada de un niño negro. Cuando el reportero encubierto encontró este tipo de contenido violento ya reportado por usuarios como inapropiado, sus supervisores le dijeron que no hiciera nada.
No solo eso, cuando este se cuestiona la decisión de mantener en la plataforma esos vídeos que muestran claramente abuso a niños su jefe le dice «si empiezas a censurar mucho la gente pierde interés en la plataforma, al final del día todo se trata de hacer dinero».
No importa que el contenido muestre niños menores de 13 años, la edad limite para poder tener una cuenta en Facebook, no importa si el contenido incluye autolesión. El entrenador le dijo que aunque nadie menor de 13 años puede tener una cuenta, si los niños mienten, ellos ignoran que mienten: «Simplemente pretendemos que somos ciegos y que no sabemos cómo luce un menor de edad».
Protegiendo el odio, el extremismo y la violencia
En el caso del vídeo de las niñas peleando, niñas que además son perfectamente identificables en él mismo, al reportero le dicen que no lo elimine porque las reglas de Facebook dicen que, como el vídeo se publicó con un mensaje que condena la violencia y advierte a la gente de visitar el lugar donde se filmó, debería permanecer en la plataforma y ser marcado como «contenido sensible».
Dispatches habló con la madre de la niña involucrada, y explicó lo horrible que es despertar y ver esas imágenes siendo compartidas para que todo el mundo las vea. En el caso del vídeo del bebé siendo golpeado, cuando este se reportó por una activista contra el abuso infantil online, Facebook simplemente respondió que no violaba sus términos y condiciones.
Pero Facebook no solo deja que este contenido se mantenga en su plataforma, también toma pasos adicionales para dar trato especial a grupos de extrema derecha, permitiendo que sus páginas permanezcan en linea a pesar de sobrepasar el número de violaciones de la política de privacidad.
Es lo que pasó con el grupo terrorista fascista Britain’s First. Para que la página pudiese ser eliminada, los moderadores explican, que la decisión debió someterse a los niveles más altos de la organización a pesar de las ocho o nueve violaciones de las políticas de Facebook que tenían, cuando la mayoría son eliminadas luego de cinco.
En las palabras de los mismos moderadores, estos grupos extremistas tienen muchos seguidores y generan muchos ingresos a Facebook, así que los protegen. Mientras además permiten el discurso de odio en contra de inmigrantes étnicos y religiosos.
Con este tipo de revelaciones, si ya muchos creíamos que Facebook era malo para la sociedad, podemos entender aún más por qué los mismos ex-ejecutivos de la empresa «no permiten a sus hijos usar esa mierda«.
Poco después de la publicación de Dispatches, el vicepresidente de políticas globales de Facebook, Lord Richard Allan, se disculpó por la conducta de la compañía. Parece ser la opción por defecto en Facebook, Mark Zuckerberg se la pasa pidiendo disculpas por todos los desastres de la empresa, en privacidad, manipulación de elecciones, noticias falsas, discurso de odio y demás. Pero poco o nada es lo que cambia en su forma de hacer negocios.
En Genbeta | El débil e irrisorio argumento de Facebook para intentar convencerte de que no eres el producto
También te recomendamos
Tus pagos diarios sin un solo euro en el bolsillo: solo necesitas tu móvil (y Twyp)
Los artistas con conductas reprobables y la incitación al odio dejan de ser bienvenidos en Spotify
Facebook ha eliminado 583 millones de cuentas falsas en el primer trimestre del 2018
–
La noticia
Facebook no elimina vídeos con violencia infantil de la plataforma porque «si censuras mucho la gente pierde interés»
fue publicada originalmente en
Genbeta
por
Gabriela González
.