Al parecer cada semana los medios sociales enfrentan algún nuevo dilema sobre el discurso que permiten (o no permiten). Es confuso cuando las diferentes plataformas toman decisiones diferentes sobre el mismo contenido. Cuando se trató del video alterado de Nancy Pelosi, Facebook decidió permitir que permaneciera, pero añadió advertencias de verificadores de información, mientras que YouTube lo quitó. Pinterest remueve contenido en contra de vacunaciones, mientras que Facebook argumenta que “recortar distribución” es suficiente. Facebook permite publicaciones que dicen que el Holocausto es un fraude, pero desde el 5 de junio, YouTube no lo hace. Esto ahora lleva a una situación en la que un grupo que se hace llamar Holocaust Hoax tiene un vínculo que lleva a un video de YouTube. Pero YouTube eliminó el video.
Estas diferencias se reducen a los estándares comunitarios de cada plataforma, que explican las reglas sobre qué contenido está permitido y qué no. Los estándares también describen estrategias de cumplimiento, lo que puede significar eliminar el contenido directamente, pero también puede significar reducir su distribución u ocultarlo de la mayoría de los usuarios.
Hay muchos tipos de contenido que las plataformas están de acuerdo en que deben ser removidos. Estos incluyen autolesiones, suicidio, amenazas a la seguridad de los niños, desnudos (Tumblr solo recientemente lo hizo ilegal), violencia gráfica, armas de fuego, spam, estafas, intimidación y acoso, y explotación. Estos casi siempre implican daños individuales derivados de actividades que se aproximan a ser delictivas o son actividades criminales reales. En algunas de estas áreas, las plataformas también tienen una política de cooperación con las autoridades.
En contraste, el discurso de odio, la desinformación, o mala información son áreas a las que la investigadora Robyn Caplan de Data & Society ha llamado “éticamente ambiguas”. (La distinción central entre la mala información y la desinformación es la intención. La mala información es un término general que se refiere a información falsa o parcialmente falsa. La desinformación es su prima malvada, que tiene la intención de engañar, desorientar o sembrar división). Gran parte de las medidas recientemente aplicadas (nacionalismo blanco y supremacía) y controversias (el video de Nancy Pelosi) se esconden en esas áreas. Dado lo confuso de todo esto, pensé que sería útil comparar los estándares de la comunidad de Facebook (que también se aplican a Instagram), Twitter, YouTube y Pinterest en estas situaciones.
El discurso de odio tiene que ver con caracterizaciones y ataques a nivel de grupo, y decisiones para remover o permitir que permanezca el contenido requieren de contexto local, cultural o histórico.
Todas las plataformas identifican varias características protegidas: raza, etnicidad, origen nacional, afiliación religiosa, orientación sexual, casta, sexo, género, identidad de género, y enfermedad o incapacidad serias. Aunque Facebook, YouTube, y Pinterest también mencionan estatus de inmigración y veteranos como categorías protegidas, Twitter no lo hace.
Los estándares de Facebook intentan definir el discurso de odio como un “ataque directo sobre las personas” con base en características protegidas, y ataque quiere decir “discurso violento o deshumanizante, declaraciones de inferioridad, o llamados para exclusión o segregación”. YouTube y Twitter no entran en definiciones pero sí entran en detalle en los tipos de actividades atacantes que violan sus políticas, con ejemplos. Pinterest tiene una política de sólo un párrafo que nombra a los grupos protegidos y simplemente prohíbe los ataques. Desde el 5 de junio, en una gran revisión, YouTube prohíbe contenido que promueve la discriminación. A pesar de que Facebook define tres niveles de severidad para sus violaciones de discurso de odio, la palabra discriminación no aparece en sus estándares. Twitter y Pinterest tampoco mencionan la discriminación.
Analicemos todo esto: las plataformas también están lidiando con la forma de manejar grupos que rechazan la realidad, como aquellos que expresan teorías de conspiración y niegan eventos importantes como el Holocausto. Con frecuencia la meta es reclutar a nacionalistas blancos para fortalecer el movimiento separatista. Aunque negaciones de los hechos tienen que ver con desinformación y mala información, en el caso de eventos de odio y genocidio como el Holocausto, con frecuencia son fundamentalmente discurso de odio. Facebook y Twitter permiten contenido que niega que eventos mayores sucedieron. Su postura general es que las personas tienen permitido decir cosas que son falsas a no ser que violen alguna otra política. En el caso de Facebook, mencionar negaciones del Holocausto como parte de una incitación a la violencia contra un grupo de personas probablemente será removido, pero las negaciones por sí solas permanecerán.