Facebook actualiza la política de desnudez de Instagram después de la recomendación de la Junta de Supervisión



Un mes posteriormente de que la fresca Trabazón de Supervisión de Facebook publicara 17 recomendaciones sobre cómo la plataforma podría mejorar la moderación de su contenido, Facebook respondió con un definitivo «Está admisiblemente, pero depende».

Uno de los cambios más importantes que adoptará Facebook se refiere a aclarar que se permite la «desnudez relacionada con la lozanía». La Trabazón de Supervisión, que es una entidad independiente que dictamina sobre casos de contenido complicado en todas las plataformas de Facebook, recomendó que Facebook actualizara las pautas de la comunidad de Instagram sobre la desnudez de adultos para aclarar que poco de desnudez, si está relacionado con la lozanía, fotos de lactación materna, parto , concientización sobre el cáncer de mama, cirugía de confirmación de artículos o en un acto de protesta – está permitido en la plataforma. Facebook estuvo de acuerdo. Tomará un tiempo para que eso entre en vigor de modo integral, pero Facebook dice que proporcionará actualizaciones de progreso. No es necesariamente una conquista para el movimiento #FreeTheNipple, pero es al menos un paso cerca de los matices.

Se permite cierta desnudez, si está relacionada con la lozanía, fotos de lactación, parto, concienciación sobre el cáncer de mama, cirugía de confirmación de artículos o en un acto de protesta.

Incluyendo el cambio de política de desnudez de Instagram, Facebook está actuando de acuerdo con 11 de las recomendaciones de la corporación, «evaluando la viabilidad» de cinco de ellas y descartando una de ellas. Esto viene posteriormente de la corporación en sus primeros casos, que se implementaron de inmediato.

Algunas de las otras áreas en las que Facebook dice que está «comprometido con la entusiasmo» parecen ser en gran medida compromisos con la transparencia. Facebook dijo que aclararía sus estándares comunitarios para incluir cómo prostitución la información errónea de COVID-19 que podría causar daño físico inmediato y cómo maneja el humor, la sátira y las experiencias personales. Facebook igualmente está lanzando un centro de transparencia para ayudar a los usuarios a comprender mejor los estándares de la comunidad de la plataforma.

Una recomendación que Facebook no implementará es aquella en la que la corporación pidió de modo intrigante menos supervisión con respecto a la información errónea de COVID-19. La corporación recomendó que Facebook debería «adoptar una serie de medidas menos intrusivas» cuando los usuarios publican información sobre los tratamientos de COVID-19 que contradice los consejos de las autoridades sanitarias.

«En consulta con las autoridades sanitarias mundiales, seguimos creyendo que nuestro enfoque para eliminar la información errónea de COVID-19 que podría conducir a un daño inminente es el correcto durante una pandemia mundial», dijo Facebook en un comunicado.

Algunas de las recomendaciones de la corporación tenían que ver con herramientas de automatización que toman decisiones de moderación de contenido. Facebook dijo que trabajaría para avalar que sus algoritmos no eliminen automáticamente las publicaciones de desnudez que sí permiten al refinar sus sistemas y muestrear más datos de entrenamiento. La corporación igualmente recomendó que los usuarios puedan apelar las decisiones tomadas por sistemas automatizados y pedir que un empleado las vuelva a revisar. Eso todavía se está considerando mientras Facebook evalúa su viabilidad. Finalmente, la corporación recomendó que los usuarios estén informados cuando se usa la automatización para tomar decisiones sobre su contenido, y Facebook dijo que probaría «el impacto de decirle a la masa más sobre cómo se tomó una audacia de entusiasmo de cumplimiento». Facebook todavía está considerando cuán factible es revelar cuántas fotos se eliminaron automáticamente y cuántas de esas decisiones se revirtieron posteriormente de que los humanos verificaron el trabajo de los algoritmos.

Facebook igualmente está abordando algunos detalles de su Habitual Comunitario para Personas y Organizaciones Peligrosas, la política que captura todo, desde la prostitución de personas hasta la retórica terrorista. En respuesta a un legatario estadounidense que publicó una cita de Joseph Goebbels, el ministro de propaganda del Reich en la Alemania carca, Facebook eliminó la publicación por violar esta política.

La Trabazón de Supervisión recomendó que Facebook explique al legatario qué normalizado de la comunidad estaba aplicando cuando se elimina una publicación y dé ejemplos de por qué va en contra de ese normalizado. Facebook estuvo de acuerdo y agregó que aumentará la transparencia en torno a los estándares al sumar definiciones de «elogio», «apoyo» y «representación» en los próximos meses, ya que el Habitual comunitario de organizaciones y personas peligrosas elimina el contenido que expresa «apoyo o elogio por grupos, líderes o individuos involucrados en estas actividades «. Facebook igualmente está «evaluando la viabilidad» de proporcionar una nómina pública de organizaciones e individuos «peligrosos» que están clasificados bajo el Habitual Comunitario de Personas y Organizaciones Peligrosas.

Estas respuestas nos dan una idea interesante de cómo Facebook interactuará con la Trabazón de Supervisión, que aún se está recuperando posteriormente de su primer documentación. Solo las decisiones de contenido individual de la corporación son vinculantes, por lo que Facebook tuvo cierto beneficio de maniobra en sus respuestas a estas recomendaciones más amplias.

La corporación de 20 miembros, que incluye a un vencedor del Premio Nobel, académicos, defensores de los derechos digitales y un ex primer ministro, igualmente está investigando si la prohibición de Donald Trump es permanente.



Deja un comentario