Este episodio del podcast se dedica a la censura en Facebook y la política que sigue la empresa para administrar el contenido inapropiado. La semana pasada Facebook fue noticia al censurar la publicación de un escritor noruego, que incluyó la llamada «niña del napalm», quizás una de las fotografías más célebres del Siglo XX y que representa los horrores de la guerra en la población civil. Facebook decidió que esa fotografía no cumplía la política de uso de Facebook por mostrar una niña desnuda y eliminó la publicacion, desactivando la cuenta al escritor.
Un caso del que extraer interesantes conclusiones
De este caso se pueden extraer aspectos muy interesantes de, por una parte,
el inmenso de poder de Facebook en lo relativo al consumo de información y por otro lado el errático mecanismo por el que se decide cuando una publicación cumple con las normas. También muestra un lado absolutamente siniestro: el excesivo poder de las máquinas sobre lo que debemos consumir.
Hay que reconocer es que el trabajo de mantener una red social como Facebook es tremendamente complejo. Cada día se publican millones de historias y por tanto es impensable contar con un método que dependa exclusivamente del control humano. Por tanto, de entrada Facebook utiliza herramientas informáticas que detectan contenido inapropiado. Estas herramientas se han vuelto muy precisas y permiten detectar gran parte del contenido que Facebook considera inapropiado. El problema reside en la intervención humana, cuando el software no es capaz de discernir entre lo que es apropiado y lo que no lo es.
Existe contenido que cualquier persona con una cabeza sana, entendería como imposible de no censurar. Tal es el caso de la pornografía infantil. Pero existen muchos casos donde hay controversia Un ejemplo lo encontramos con la tauromaquia. Las redes sociales han ocupado un espacio antes reservado a los medios de comunicación. La hegemonía económica y tecnológica está lejos de compararse a la cultural, y estos medios deberían ser conscientes de ello.