The Defender Children’s Health Defense News and Views
Close menu
Close menu

You must be a CHD Insider to save this article Sign Up

Already an Insider? Log in

18-01-2024 News

Big Tech

A los dirigentes del FEM les preocupa más la “información errónea” que la guerra o la pobreza

El Informe sobre Riesgos Mundiales del Foro Económico Mundial, publicado en Davos esta semana, clasificó la “desinformación” y la “información errónea” como las principales amenazas a las que se enfrenta el mundo, pero los críticos acusaron a la organización de apoyar la censura para acabar con las opiniones discrepantes y los hechos que amenazan su visión tecnocrática.

world economic forum misinformation feature

La “desinformación” y la “información errónea” derivadas de la inteligencia artificial (IA) -y no los conflictos o la pobreza- son los principales riesgos a los que se enfrentará el mundo en los próximos dos años, según el último Informe sobre Riesgos Mundiales del Foro Económico Mundial (FEM).

El FEM publicó el informe el 10 de enero, justo antes de su reunión anual en Davos (Suiza).

Los líderes políticos y empresariales se hicieron eco de estas preocupaciones a lo largo del acto. Entre los 2.800 participantes de este año, procedentes de 120 países, se encuentran más de 60 Jefes de Estado y 1.600 líderes empresariales, a los que el fundador y presidente del FEM, Klaus Schwab, se refiere como los “administradores del futuro“.

Según el Informe sobre Riesgos Mundiales, “tanto los representantes extranjeros como los nacionales aprovecharán la desinformación y la información errónea para aumentar las divisiones sociales y políticas” en los próximos dos años, lo que supone un riesgo para las elecciones en países como Estados Unidos, Reino Unido e India.

La “información errónea” figura en el informe como la quinta mayor amenaza en los próximos 10 años.

“La IA puede crear modelos para influir en grandes poblaciones de votantes de una forma que no habíamos visto antes”, dijo Carolina Klint en una entrevista con CNBC. Klint es directora comercial para Europa de la consultora Marsh McLennan, que ha coproducido el informe.

En concreto, “LaInteligencia Artificial como fuerza motriz de la economía y la sociedad” es uno de los “4 temas clave” de la reunión del FEM de este año. El tema central es “Reconstruir la confianza“.

“El informe sugiere que la difusión de información errónea y desinformación en todo el mundo podría dar lugar a disturbios civiles, pero también podría impulsar la censura impulsada por los gobiernos, la propaganda nacional y los controles sobre el libre flujo de información”, afirma el FEM.

Los otros 10 principales riesgos para los próximos dos años incluyen “fenómenos meteorológicos extremos”, “polarización social”, “inseguridad cibernética”, “conflicto armado interestatal”, “falta de oportunidades económicas”, “inflación”, “migración involuntaria”, “recesión económica” y “contaminación”.

FEM: La “desinformación” y la “información errónea” pueden conducir a una “toma de decisiones errática”.

Un artículo de la Agenda del FEM publicado en la revista Time y cuya autora es Saadia Zahidi, Directora Gerente del FEM, resume el Informe sobre Riesgos Mundiales de este año, señalando que está “basado en las opiniones de casi 1.500 expertos en riesgos mundiales, responsables políticos y líderes del sector”.

El mundo se enfrenta a “algunas de las condiciones económicas y geopolíticas más difíciles de las últimas décadas. Y las cosas no pueden sino empeorar a partir de ahora”, escribió Zahidi.

Explicó por qué la “información falsa” representa la mayor amenaza en los próximos dos años, escribiendo:

“La amenaza que suponen la desinformación y la información errónea ocupa el primer puesto, en parte por lo mucho que puede proliferar el acceso abierto a tecnologías cada vez más sofisticadas, perturbando la confianza en la información y las instituciones.

“El auge de los contenidos sintéticos que hemos visto en 2023 continuará, y es probable que un amplio conjunto de agentes capitalice esta tendencia, con el potencial de amplificar las divisiones sociales, incitar a la violencia ideológica y permitir la represión política.”

Según Zahidi, dado que algunos de los países más grandes del mundo celebran elecciones este año, la desinformación y la información errónea “podrían desestabilizar la legitimidad real y percibida de los gobiernos recién elegidos”, mientras que las “campañas manipuladoras” podrían “socavar los procesos democráticos en general”.

“Es más, la información falsa y la polarización social están intrínsecamente entrelazadas, con potencial para amplificarse mutuamente”, escribió.

“Las sociedades polarizadas pueden polarizarse no sólo en sus afiliaciones políticas, sino también en sus percepciones de la realidad”, añadió Zahidi, afirmando que podría conducir a “continuos enfrentamientos, incertidumbre y toma de decisiones erráticas”.

Para Zahidi, la solución a “los riesgos tanto a corto como a largo plazo” requiere “innovación y una toma de decisiones fiable”, algo que, según ella, “sólo es posible en un mundo alineado con los hechos”.

Zahidi hizo afirmaciones similares el 11 de enero durante una entrevista con la CNBC-TV18 de la India.

Zahidi dijo que la “desinformación” y la “información errónea” son “muy difíciles de rastrear, especialmente sin sistemas de seguimiento, sistemas de marcas de agua, y especialmente sin que el público esté bien educado sobre los riesgos de los contenidos sintéticos y especialmente cuando se trata de noticias falsas”.

“Necesitamos que se construyan algunas soluciones entre coaliciones de voluntarios, y para eso trabajaremos en Davos”, afirmó Zahidi.

Musk: “desinformación” es “cualquier cosa que entre en conflicto” con la agenda del FEM

Las afirmaciones del FEM suscitaron algunas respuestas acaloradas, entre ellas la de Elon Musk, presidente y director tecnológico de X (antes conocida como Twitter), quien, en un post del 11 de enero en respuesta al Informe sobre Riesgos Mundiales del FEM, escribió:

En un post en Substack, Steve Kirsch, fundador de la “Vaccine Safety Research Foundation”, escribió que “los gobiernos del mundo pueden acabar con la información errónea” si “dejan de mentir a la gente”, “acaban con la censura”, admiten errores y permiten que “todos los profesionales, en todos los campos… hablen libremente al público sin miedo a represalias”.

Pero no parece que la gran mayoría de los participantes en la reunión del FEM comparta estas opiniones.

En declaraciones a Euronews el martes, Věra Jourová, Vicepresidenta de la Comisión Europea para Valores y Transparencia, amenazó a Musk con sanciones si no cumple la recién introducida “Ley de Servicios Digitales” de la Unión Europea, que regula la llamada “información errónea” y “desinformación” en las plataformas de medios sociales.

“Después de que el Sr. Musk se apoderara de Twitter con su absolutismo de la libertad de expresión, nosotros también somos los protectores de la libertad de expresión”, dijo Jourová. “Pero al mismo tiempo, no podemos aceptar, por ejemplo, los contenidos ilegales en línea, etc.”.

Ursula von der Leyen, Presidenta de la Comisión Europea, dijo el martes a los asistentes al FEM que “la desinformación y la información errónea” son riesgos graves “porque limitan nuestra capacidad para abordar los grandes retos mundiales a los que nos enfrentamos”. Y esto hace que el tema de la reunión de Davos de este año sea aún más relevante: Reconstruir la confianza”.

Según von der Leyen,quien no ha sido elegida popularmente: “Por supuesto, como en todas las democracias, nuestra libertad conlleva riesgos. Siempre habrá quien intente aprovecharse de nuestra apertura, tanto desde dentro como desde fuera. Siempre habrá intentos de desviarnos del camino. Por ejemplo, con la desinformación y la información errónea”.

Para von der Leyen, se necesitan “respuestas inmediatas y estructurales” que “estén a la altura de la magnitud de los retos mundiales”, lo que implica colaboraciones entre gobiernos y empresas -en referencia a las asociaciones público-privadas, un concepto promovido por el FEM-.

“Las empresas tienen la innovación, la tecnología y el talento necesarios para aportar las soluciones que necesitamos para luchar contra amenazas como el cambio climático o la desinformación a escala industrial”, afirmó.

También se refirió a la Ley de Servicios Digitales, afirmando que ha “definido la responsabilidad de las grandes plataformas de internet sobre los contenidos que promueven y propagan. Una responsabilidad para con los niños y los grupos vulnerables que son blanco de la incitación al odio, pero también una responsabilidad para con nuestras sociedades en su conjunto.”

Según von der Leyen, dado que la frontera entre lo online y lo offline es “cada vez más delgada… los valores que apreciamos offline también deben protegerse online”.

Los gobiernos deberían “obligar” a las empresas de redes sociales a “hacerlo mejor”

Julie Inman Grant, antigua empleada de Twitter que ahora es comisaria australiana de “eSafety”, también atacó a Musk y pidió más regulación de las redes sociales.

En su intervención del miércoles en la sesión “Proteger a los vulnerables en Internet“, Grant dijo que organismos como el suyo “sirven de red de seguridad” donde los vulnerables pueden “informarnos”.

Estas denuncias desencadenarán una investigación, dijo Grant, y la “colaboración con las plataformas” “garantizará acciones rápidas”.

Explicó:

“También estamos muy centrados en la transparencia, y hemos utilizado nuestros poderes de transparencia para averiguar realmente lo que ocurre bajo el capó.

“Acabamos de imponer [sanciones] contra X Corp. en torno al odio en línea, donde pudimos realmente hacernos una idea de hasta qué punto recortaron sus ingenieros de seguridad en un 80%, sus moderadores de contenidos en un 30%, su gente de política pública en un 70% y luego habilitaron a usuarios previamente cancelados.”

Tras elogiar los intentos de varios países de regular las plataformas de medios sociales, Grant sugirió que los gobiernos deberían “obligar” a las empresas de medios sociales a vigilar la expresión en sus plataformas.

“Los gobiernos tenemos que trabajar juntos para contrarrestar la riqueza, el sigilo y, francamente, el poder de todas estas empresas tecnológicas, y tenemos que trabajar juntos para obligarlas a hacerlo mejor”, afirmó.

En la reunión del FEM de 2022 en Davos, Grant afirmó que es necesaria una “recalibración” de la libertad de expresión.

En la reunión del FEM de este año, criticó una orden judicial dictada en Estados Unidos en el marco de la demanda Misuri y otros contra Biden y otros, que impide a funcionarios de la Casa Blanca y del Gobierno hablar con empresas de medios sociales sobre la censura de contenidos en sus plataformas.

Ella explicó:

“En la actualidad existe una orden judicial que impide a la administración Biden comunicarse con las plataformas de medios sociales sobre amenazas de injerencia en los temas de las elecciones que, de hecho, se va a presentar ante el Tribunal Supremo de Estados Unidos este año.

“Así que nos encontramos en este extraño entorno en el que, justo cuando aumentan las amenazas, se reducen y se atacan las inversiones destinadas a realizar el trabajo cotidiano de confianza y seguridad en línea para nuestro entorno de información”.

El gobierno australiano estudia actualmente la promulgación de nuevas competencias para “combatir la desinformación y la información errónea”, lo que se conoce como “proyecto de ley sobre información errónea“.

En el mismo panel, Maurice Lévy, Presidente del Consejo de Administración de Publicis Groupe, una de las mayores empresas de marketing y relaciones públicas del mundo, atribuyó a las colaboraciones surgidas de las reuniones del FEM de años anteriores el aumento de la moderación y la eliminación de la “desinformación” y la “información errónea” en las plataformas de las redes sociales.

Explicó:

“Hace unos ocho, nueve años, decidimos -las cinco principales agencias mundiales con unos 30 grandes anunciantes- en una reunión aquí en Davos pedir a Facebook… YouTube, Google que participaran, y ha habido algunas normas que han sido muy enérgicas por parte de los anunciantes y las agencias. No queremos que nuestros anuncios aparezcan junto a violencia, terror, etc.

“Hemos aplicado normas tan estrictas (…) que YouTube se ha visto obligado a crear una moderación, que antes no tenía, y a limpiar los contenidos“.

Entre los clientes de Publicis Groupe figuran grandes empresas farmacéuticas como GlaxoSmithKline, Pfizer Consumer Healthcare, Merck, AstraZeneca, Johnson & Johnson y Purdue Pharmaceuticals, fabricante de Oxycontin, y grandes empresas tecnológicas como Google, Amazon y Microsoft.

Publicis Groupe también colabora con la empresa de “verificación de datos” NewsGuard y con el “Center for Countering Digital Hate”, autores de la lista dela “Docena de la desinformación” que se utilizó para presionar a las plataformas de medios sociales para que censuraran contenidos verídicos publicados por figuras como Robert F. Kennedy Jr., presidente en excedencia de “Children’s Health Defense”, durante la pandemia de COVID-19.

“Se les lleva a lugares como Davos”

Alexandra Reeve Givens, presidenta y directora ejecutiva del Centro para la Democracia y la Tecnología (CDT), sugirió durante una sesión el miércoles que se trajera a Davos a ejecutivos de empresas de medios sociales para hablar de “intervenciones” contra la “desinformación” y la “información errónea”.

En respuesta a una pregunta de Ravi Agrawal, redactor jefe de Foreign Policy, sobre si hay alguna forma de “obligar” o “presionar” a las empresas de medios sociales para que vigilen la “desinformación” y la “información errónea”, Givens respondió: “Se les lleva a lugares como Davos”.

Explicó:

“Hay lecciones importantes que aprendimos después de 2016, [que] las empresas de medios sociales aprendieron a rastrear las campañas de información errónea y desinformación, a coordinar la actividad inauténtica en una red, a poner pausas, como cuando un rumor está propagándose, haces que la gente compruebe si se ha leído o no este artículo antes de reenviárselo a un programa de verificación de datos .

“Esa arquitectura no ha sido una panacea ni mucho menos, pero al menos se ha puesto en marcha y ahora hay todo un campo académico que estudia esto y analiza cómo podrían ser las intervenciones. Tenemos que asegurarnos de que esas intervenciones sigan existiendo este año como mínimo para poder navegar por este panorama.”

Julie Brill, vicepresidenta corporativa y consejera general adjunta de Microsoft, es miembro de la junta directiva de CDT. El consejo asesor de CDT incluye figuras de Meta, la empresa matriz de Facebook, Amazon y el Stanford Cyber Policy Center, que acogió “The Virality Project” que, según los “Archivos de Twitter“, desempeñó un papel clave en la censura de las redes sociales durante la pandemia de COVID-19.

El lunes, en una mesa redonda del FEM titulada “Foro abierto: Liberar la ciencia“, el doctor Carlos Afonso Nobre, investigador principal del Instituto de Estudios Avanzados de la Universidad de São Paulo, afirmó que, como científico del clima, le resulta difícil “entender la desinformación, la información errónea”.

Refiriéndose a su país natal, Brasil, Nobre dijo: “Mucha gente no se vacunó”, refiriéndose a las vacunas COVID-19. Culpó de ello a una “erosión de la confianza” en la ciencia que, según él, se ve alimentada por la “información errónea” y la “desinformación”.

Nobre dijo que es importante entender cómo no comunicar los temas científicos y comprender “por qué algunas personas siguen sin creer” en esas narrativas.

Fuera de los confines de la reunión del FEM, los asistentes se mostraron menos comunicativos con sus opiniones.

El periodista de “Rebel News” Avi Yemini se enfrentó a los ejecutivos de Meta, Alex Schultz, director de marketing y vicepresidente de análisis de la empresa, y Javier Olivan, director de operaciones de Facebook, en las calles de Davos con preguntas sobre la “verificación de datos”, la “transparencia” y los esfuerzos de la empresa para combatir la “información errónea” y la “desinformación”.

Los dos ejecutivos eludieron las preguntas y, en su lugar, dijeron a Yemini que “no iban a interactuar” con él.

Suggest A Correction

Share Options

Close menu

Republish Article

Please use the HTML above to republish this article. It is pre-formatted to follow our republication guidelines. Among other things, these require that the article not be edited; that the author’s byline is included; and that The Defender is clearly credited as the original source.

Please visit our full guidelines for more information. By republishing this article, you agree to these terms.