El Foro Económico Mundial (FEM) este mes ha publicado un artículo en el que advierte de la existencia de un “oscuro mundo de daños en línea” al que hay que hacer frente, y en el que pide una “solución” para el “abuso en línea”, que estaría impulsada por la inteligencia artificial (IA) y la inteligencia humana.

La propuesta aboga por un sistema, basado en la IA, que automatizaría la censura de la “desinformación” y la “incitación al odio” y trabajaría para superar la propagación del “abuso de menores, el extremismo, la desinformación, la incitación al odio y el fraude” en línea.

Según el autor del artículo, Inbal Goldberger, los “equipos de confianza y seguridad” humanos por sí solos no son totalmente capaces de vigilar estos contenidos en línea.

Goldberger es vicepresidente de “ActiveFence Trust & Safety”, una empresa tecnológica con sede en Nueva York y Tel Aviv que afirma que “recoge automáticamente datos de millones de fuentes y aplica la IA contextual para impulsar operaciones de confianza y seguridad de cualquier tamaño.”

En lugar de depender únicamente de los equipos de moderación humanos, Goldberger propone un sistema basado en “la inteligencia humana, multilingüe y fuera de la plataforma”, es decir, las aportaciones de fuentes humanas “expertas” que luego crearían “conjuntos de aprendizaje” que entrenarían a la IA para reconocer contenidos supuestamente dañinos o peligrosos.

Esta “inteligencia fuera de la plataforma” -más aprendizaje automático que IA propiamente dicha, según Didi Rankovic, de ReclaimTheNet.org- se recopilaría de “millones de fuentes” y luego se cotejaría y fusionaría antes de utilizarse para “las decisiones de eliminación de contenidos” por parte de las “plataformas de Internet”.

Según Goldberger, el sistema complementaría “la detección automática más inteligente con la experiencia humana” y permitirá crear “IA con inteligencia humana incorporada”.

Esto, a su vez, proporcionaría protección contra “actores cada vez más avanzados que hacen un uso indebido de las plataformas de formas únicas”.

“Un moderador humano experto en la supremacía blanca europea no será necesariamente capaz de reconocer los contenidos nocivos de la India o las narrativas de desinformación de Kenia”, explicó Goldberger.

Sin embargo, “al combinar de manera única el poder de la tecnología innovadora, la recopilación de inteligencia fuera de la plataforma y la destreza de los expertos en la materia que entienden cómo operan los actores de la amenaza, la detección a escala del abuso en línea puede alcanzar una precisión casi perfecta”, ya que estos conjuntos de aprendizaje se “incorporan” a la IA con el tiempo, dijo Goldberger.

Esto, a su vez, permitiría a los “equipos de confianza y seguridad detener las amenazas que surgen en línea antes de que lleguen a los usuarios”, añadió.

En su análisis de cómo podría ser la propuesta de Goldberger en la práctica, el bloguero Igor Chudov explicó cómo la vigilancia de los contenidos en las redes sociales se produce hoy en día plataforma por plataforma.

Por ejemplo, los moderadores de contenido de Twitter sólo miran el contenido publicado en esa plataforma en particular, pero no el contenido de un usuario publicado fuera de Twitter.

Chudov argumentó que por eso el FEM parece apoyar una propuesta para “ir más allá de las principales plataformas de Internet, con el fin de recopilar información sobre personas e ideas en cualquier otro lugar”.

“Este enfoque”, escribió Chudov, “les permitiría saber mejor qué persona o idea censurar, en todas las plataformas principales a la vez”.

La “inteligencia” recopilada por el sistema a partir de sus “millones de fuentes” permitiría, según Chudov, “detectar pensamientos que no les gustan”, lo que daría lugar a “decisiones de eliminación de contenidos transmitidas a Twitter, Facebook, etc… un cambio importante respecto al statu quo de que cada plataforma decida qué hacer en función de los mensajes publicados únicamente en esa plataforma específica.”

De este modo, “la búsqueda del pensamiento erróneo se globaliza”, concluye Chudov.

En respuesta a la propuesta del FEM, “ReclaimTheNet.org”señaló que “uno puede empezar a discernir el argumento aquí … como una simple presión a las redes sociales para que empiecen a moverse hacia la ‘censura preventiva'”.

Chudov afirmó que la FEM promueve la propuesta porque “se está preocupando un poco”, ya que “las opiniones no aprobadas son cada vez más populares, y los censores en línea no pueden seguir el ritmo de millones de personas cada vez más conscientes y más expresivas”.

Según el “Daily Caller”, “el documento del FEM no especificaba cómo se decidirían los miembros del equipo de formación de la IA, cómo se les exigiría responsabilidades o si los países podrían ejercer controles sobre la IA”.

En un descargo de responsabilidad que acompañaba al artículo de Goldberger, el FEM aseguraba al público que el contenido expresado en el artículo “es la opinión del autor, no del Foro Económico Mundial”, y añadía que “este artículo ha sido compartido en sitios web que habitualmente tergiversan el contenido y difunden información errónea”.

Sin embargo, el FEM parece estar abierto a propuestas como la de Goldberger. Por ejemplo, un artículo de mayo de 2022 en el sitio web del FEM propone el “Consejo de Supervisión” de Facebook como ejemplo de un “modelo de gobernanza del mundo real” que puede aplicarse a la gobernanza en el metaverso.

Y, como señaló Chudov, “la moderación de contenidos con IA se integra directamente en el sistema de puntuación social de la IA”.

La ONU, respaldada por la Fundación Gates, también pretende “romper la cadena de desinformación”

El FEM no es la única entidad que pide una vigilancia más estricta de los contenidos en línea y la “desinformación”.

Por ejemplo, la UNESCO ha anunciado recientemente una asociación con Twitter, la Comisión Europea y el Congreso Judío Mundial que ha dado lugar al lanzamiento de la campaña #ThinkBeforeSharing (Piense antes de compartir), para “detener la difusión de las teorías conspirativas”.

Según la UNESCO:

“La pandemia de COVID-19 ha provocado un preocupante aumento de la desinformación y de las teorías conspirativas.

“Las teorías de la conspiración pueden ser peligrosas: a menudo se dirigen a grupos vulnerables y los discriminan, ignoran las pruebas científicas y polarizan a la sociedad con graves consecuencias. Hay que poner fin a esto”.

La directora general de la UNESCO, Audrey Azoulay, dijo:

“Las teorías de la conspiración causan un daño real a las personas, a su salud y también a su seguridad física. Amplifican y legitiman ideas erróneas sobre la pandemia, y refuerzan estereotipos que pueden alimentar la violencia y las ideologías extremistas violentas.”

La UNESCO dijo que la asociación con Twitter informa a la gente de que los acontecimientos que ocurren en todo el mundo no son “manipulados secretamente entre bastidores por fuerzas poderosas con intenciones negativas”.

La UNESCO publicó una guía sobre qué hacer en caso de que uno se encuentre con un “teórico de la conspiración” en línea: Hay que “reaccionar” inmediatamente publicando en los comentarios un enlace a un “sitio web de verificación de datos”.

La UNESCO también ofrece asesoramiento al público en caso de que alguien se encuentre con un “teórico de la conspiración” de carne y hueso. En ese caso, el individuo debe evitar discutir, ya que “cualquier argumento puede ser tomado como prueba de que usted es parte de la conspiración y reforzar esa creencia”.

La campaña #ThinkBeforeSharing (Piense antes de compartir) ofrece una serie de infografías y materiales de acompañamiento destinados a explicar qué son las “teorías de la conspiración”, cómo identificarlas, cómo informar sobre ellas y cómo reaccionar ante ellas en general.

Según estos materiales, las teorías de la conspiración tienen seis cosas en común, entre ellas:

  • Un “supuesto complot secreto”.
  • Un “grupo de conspiradores”.
  • “‘Evidencia’ que parece apoyar la teoría de la conspiración”.
  • Sugerencias que afirman “falsamente” que “nada ocurre por accidente y que no hay coincidencias”, y que “nada es lo que parece y todo está conectado”.
  • Dividen el mundo en “buenos o malos”.
  • Convierten en chivos expiatorios a personas y grupos.

La UNESCO no descarta del todo la existencia de “teorías de la conspiración”, sino que admite que “existen verdaderas conspiraciones grandes y pequeñas”.

Sin embargo, según la organización, esas “conspiraciones” se centran “más a menudo en acontecimientos aislados y autónomos, o en un individuo, como un asesinato o un golpe de Estado”, y sólo son “reales” si son “desenterradas por los medios de comunicación”.

Además del FEM y la UNESCO, el Consejo de Derechos Humanos de las Naciones Unidas (ONU) adoptó a principios de este año “un plan de acción para hacer frente a la desinformación”.

El “plan de acción”, auspiciado por Estados Unidos, Reino Unido, Ucrania, Japón, Letonia, Lituania y Polonia, destaca “el papel primordial que tienen los gobiernos para contrarrestar las falsas narrativas”, al tiempo que expresa su preocupación por:

“El impacto negativo, cada vez mayor y de mayor alcance, en el disfrute y la realización de los derechos humanos, de la creación y difusión deliberada de información falsa o manipulada con la intención de engañar y confundir al público, ya sea para causar daño o para obtener beneficios personales, políticos o financieros”.

Incluso los países que no apoyaron oficialmente el plan del Consejo de Derechos Humanos expresaron su preocupación por la “desinformación” en línea.

Por ejemplo, China identificó esa “desinformación” como “un enemigo común de la comunidad internacional”.

Una iniciativa anterior de la ONU, en colaboración con el FEM, “reclutó a 110.000 voluntarios de la información” que, en palabras de la directora mundial de comunicaciones de la ONU, Melissa Fleming, actuarían como “personas que responderían en primera línea digitales” ante la “desinformación en línea”.

La iniciativa #PledgeToPause (Compromiso de pausa) de la ONU, aunque ha circulado recientemente como novedad en las redes sociales, fue anunciada en noviembre de 2020, y fue descrita por la ONU como “la primera campaña mundial de cambio de comportamiento sobre la desinformación.”

La campaña forma parte de una iniciativa más amplia de la ONU, “Verified” (Verificado), cuyo objetivo es reclutar participantes para difundir “contenidos verificados y optimizados para ser compartidos en las redes sociales”, que provienen directamente del departamento de comunicación de la ONU.

Fleming dijo entonces que la ONU también estaba “trabajando con las plataformas de medios sociales para recomendar cambios” para “ayudar a romper la cadena de desinformación”.

Tanto “Verified” como la campaña #PledgeToPause parecen seguir activos en el momento de escribir este artículo.

La iniciativa “Verified” se lleva a cabo en colaboración con Purpose, un grupo activista que ha colaborado con la Fundación Bill y Melinda Gates, la Fundación Rockefeller, Bloomberg Philanthropies, la Organización Mundial de la Salud, la Iniciativa Chan Zuckerberg, Google y Starbucks.

Desde 2019, la ONU mantiene una asociación estratégica con el FEM basada en seis “áreas de interés”, una de las cuales es la “cooperación digital.”