The Defender Children’s Health Defense News and Views
Close menu
Close menu

You must be a CHD Insider to save this article Sign Up

Already an Insider? Log in

21-03-2024 News

Exposiciones tóxicas

“Todo parece salido de ‘un mundo feliz'”: Una nueva herramienta de IA predice la reticencia a vacunarse

Según los investigadores de la Universidad de Cincinnati que desarrollaron la herramienta, “a pesar de los mandatos de vacunación COVID-19, muchos optaron por renunciar a la vacunación, lo que plantea interrogantes sobre la psicología subyacente al modo en que el juicio afecta a estas elecciones.”

ai hand holding covid vaccine with woman looking hesitant

Un equipo de investigadores ha desarrollado una “nueva y potente herramienta de inteligencia artificial” (IA) que puede predecir si alguien tiene o no probabilidades de vacunarse contra el COVID-19.

Según la Universidad de Cincinnati, la nueva herramienta de IA “utiliza un pequeño conjunto de datos demográficos y juicios personales como la aversión al riesgo o a la pérdida” para identificar patrones de “juicio de recompensa y aversión” en los seres humanos que pueden ayudar a explicar la disposición de cada uno a vacunarse.

Los investigadores presentaron sus conclusiones en un estudio publicado el martes en la revista “Journal of Medical Internet Research Public Health and Surveillance”.

Las conclusiones del estudio “podrían tener amplias aplicaciones para predecir la salud mental y dar lugar a campañas de salud pública más eficaces”, afirma la universidad.

Según el estudio, “a pesar de los mandatos de vacunación COVID-19, muchos optaron por renunciar a la vacunación, lo que plantea interrogantes sobre la psicología subyacente a cómo el juicio afecta a estas decisiones.”

Los investigadores afirman que sus hallazgos “demuestran la importancia subyacente de las variables de criterio para la elección y la aceptación de la vacuna, lo que sugiere que la educación y los mensajes sobre la vacuna podrían dirigirse a distintos perfiles de criterio para mejorar la aceptación”.

Pero críticos como el doctor Brian Hooker, director científico de “Children’s Health Defense”, afirmaron que la nueva tecnología implica que quienes cuestionan las vacunas tienen problemas de salud mental:

“La insinuación es que la no conformidad con las normas de atención impuestas por la maquinaria de propaganda gubernamental convierte a alguien en un caso con problemas mentales o un caso atípico. Todo esto huele a ‘un mundo feliz’ en el que los individuos potencialmente no conformistas son objeto de mensajes basados en el miedo y la irracionalidad”.

Hooker afirmó que la nueva tecnología “es un sustituto prefabricado de lo que las grandes farmacéuticas, “Big Pharma”, y las agencias sanitarias gubernamentales evitan: debates racionales sobre ciencia y medicina que podrían sacar a la luz la verdad sobre los efectos adversos de las vacunas.”

¿Utilizar la IA para captar a los “reticentes a las vacunas”?

Nicole Vike, Ph.D.,, principal investigadora asociada de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Cincinnati, fue la autora principal del artículo.

“Es poco probable que COVID-19 sea la última pandemia que veamos en las próximas décadas”, afirmó Vike. “Disponer de una nueva forma de IA para la predicción en salud pública proporciona una valiosa herramienta que podría ayudar a preparar a los hospitales para predecir las tasas de vacunación y las consiguientes tasas de infección.”

Según los autores del estudio, la tecnología también podría utilizarse para “ayudar al despliegue de vacunas y a la preparación de la atención sanitaria proporcionando detalles específicos de la ubicación”, es decir, identificando las zonas geográficas que pueden experimentar bajas tasas de vacunación y altas tasas de hospitalización.

Los críticos cuestionaron las afirmaciones del estudio y también se mostraron preocupados por los posibles usos adversos de esta tecnología.

“El principal problema de este tipo de investigaciones es la premisa subyacente: la indecisión ante las vacunas debe explicarse en términos de la psicología (aberrante) de los sujetos y no con referencia a la eficacia y seguridad de la(s) vacuna(s) en cuestión”, afirmó El doctor Michael Rectenwald, Ph.D., autor de “Archipiélago Google: El gulag digital y la simulación de la libertad” (“Google Archipelago: The Digital Gulag and the Simulation of Freedom”).

Como resultado, dijo Rectenwald, se da a entender que “si las personas dudan de las vacunas, el fallo es endémico de ellas y no de la vacuna en sí. A partir de esta premisa, la investigación trata de justificar la vacunación como normal vinculando características mentales y psicológicas anómalas con la indecisión a la vacuna”.

Según Rectenwald, esto puede llevar a que las personas se conviertan en objetivo:

“El uso de la IA para predecir la indecisión ante las vacunas en estos términos podría incluir la movilización de programas de IA para seleccionar e incluso identificar individualmente a los sujetos indecisos ante las vacunas. También podríamos esperar programas de IA que traten de superar la indecisión ante las vacunas con intentos de “reprogramar” a dichos sujetos defectuosos.

“Como mínimo, identificar, seleccionar y reeducar a los sujetos indecisos ante las vacunas”.

Scott C. Tips, presidente de la Federación Nacional de Salud, afirmó que la nueva tecnología plantea problemas de privacidad.

Tips dijo:

“No es asunto de nadie más que del individuo si quiere o no vacunarse. ¿Por qué alguien necesita predecir decisiones sanitarias? La IA ‘predictiva’ en este tema no es más que una solución que busca un problema. Aquí no hay ningún problema. De hecho, deberíamos alegrarnos de que haya gente que no quiera vacunarse”.

En la misma línea se manifestó la Dra. Kat Lindley, presidenta del “Global Health Project” y directora de la Cumbre Mundial sobre COVID. “Hay muchas razones por las que alguien puede ser reacio a las vacunas, y confiar en un programa, por inteligente que sea, para predecir el resultado, me temo que subestimará el elemento humano y las experiencias individuales.”

Los críticos también cuestionan la eficacia de esta tecnología. “La IA es tan buena como el programador y los parámetros que se le hayan dado, lo que incluye también los prejuicios con los que se haya creado”, afirma Lindley.

Tim Hinchliffe, editor de The Sociable, ha declarado: “Hemos visto cómo ChatGPT escupe tonterías y hemos visto el desastre de diversidad que fue Google Gemini, así que lo mejor sería acercarse a los resultados con cautela”. Y cuando hay un equipo IA-humano, los resultados pueden seguir siendo sesgados”.

“El lema “basura dentro, basura fuera” se aplica por igual a las decisiones y resultados de la IA y a cualquier otra decisión o resultado tomado por humanos y ordenadores “tontos””, afirma Tips. “Si la IA busca sus respuestas en archivos y datos exclusivamente convencionales, obtendrá resultados incorrectos y sesgados”.

¿Quiénes serán los próximos objetivos de este aparato de predicción de actitudes?

Otros expertos sugirieron que los gobiernos podrían abusar de la tecnología y utilizarla como arma contra el público.

“Es indicativo del estado de la medicina y de las prioridades de nuestro gobierno federal ver que se investiga más sobre cómo aumentar la aceptación de cualquier producto que definan como vacuna, que hacer los estudios de seguridad que el público ha estado pidiendo a gritos”, dijo Valerie Borek, directora asociada y principal analista política de En defensa de la libertad sanitaria (“Stand For Health Freedom”)..

“Este estudio encaja con el enfoque adoptado durante décadas de utilizar la psicología y nuestro subconsciente para impulsar productos y agendas”, afirmó. “Ya existe tecnología capaz de evaluar datos biométricos como el ritmo cardíaco, la temperatura y los movimientos oculares, combinados con información sonora y de localización”.

Citando un ejemplo, Borek dijo que los Centros para el Control y la Prevención de Enfermedades “ya tienen un historial de uso de datos de teléfonos móviles para la vigilancia de la salud pública“.

Borek añadió:

“El gobierno tiene demasiados datos que peinar, por lo que el uso de la IA es inevitable para la vigilancia de la salud pública. ¿Cuánto tiempo pasará antes de que los dispositivos que llevamos voluntariamente se utilicen para hacer predicciones de inteligencia artificial sobre nuestras decisiones en materia de salud?

“¿Conducirán esas predicciones a alguna intervención gubernamental? Tenemos que hacer estas preguntas a nuestros legisladores y hacer lo que podamos para minimizar nuestra huella digital.”

Según Hinchliffe:

“Si ‘la IA puede predecir las actitudes de la gente’, entonces predecir la llamada indecisión ante las vacunas sería sólo el principio. ¿Qué viene ahora? ¿Predecir quién niega el cambio climático? ¿Qué hay de predecir las actitudes de la gente hacia los candidatos presidenciales y a quién votarán probablemente? ¿Quién necesita elecciones cuando la IA ya sabe quién va a ganar?

“¿Qué ocurre cuando los planes de reeducación y propaganda no funcionan? ¿Los datos para predecir las actitudes de la gente irán a parar a los gobiernos para que puedan reprimir a los disidentes? ¿Quiénes serán los próximos objetivos de este aparato de predicción de actitudes? Yo diría que son personas que “dudan” sobre la narrativa del cambio climático”.

Un estudio afirma que la IA puede “hacer predicciones precisas sobre las actitudes humanas”

Según el comunicado de la Universidad de Cincinnati, el desarrollo de la nueva herramienta de IA se basó en una encuesta realizada en Estados Unidos en 2021, en la que participó una muestra representativa de 3.476 adultos. Los encuestados “facilitaron información como su lugar de residencia, ingresos, nivel de estudios más alto completado, etnia y acceso a Internet”.

Se preguntó a los participantes si habían recibido la vacuna COVID-19. Aproximadamente el 73% de los encuestados declararon estar vacunados, “algo más que el 70% de la población del país que se había vacunado en 2021”, según el estudio.

A continuación, “se les pidió que valoraran cuánto les gustaba o disgustaba un conjunto de 48 imágenes secuenciadas aleatoriamente en una escala de siete puntos de 3 a -3”, para cuantificar “las características matemáticas de los criterios de las personas cuando observan estímulos ligeramente emocionales”.

“Las variables de criterio y demográficas se compararon entre los encuestados que se vacunaron y los que no. Se utilizaron tres enfoques de aprendizaje automático para comprobar hasta qué punto el criterio, los datos demográficos y las actitudes de los encuestados respecto a las precauciones contra la COVID-19 predecían si se vacunarían”, afirma el comunicado.

Según el estudio, se identificó “un pequeño conjunto de variables demográficas y 15 variables de criterio” que “predicen la aceptación de la vacuna con una exactitud de moderada a alta y una gran precisión”.

El conunicado dice que estos hallazgos muestran “que la inteligencia artificial puede hacer predicciones precisas sobre las actitudes humanas con sorprendentemente pocos datos o dependencia de evaluaciones clínicas costosas y lentas.”

El mismo anuncio citaba al doctor Aggelos Katsaggelos, catedrático de Ingeniería Eléctrica e Informática de la Universidad Northwestern, quien afirmaba que “el estudio es anti-big-data” porque la nueva tecnología “puede funcionar de forma muy sencilla” y sin necesidad de “supercomputación”.

“Es barata y puede aplicarse con cualquiera que tenga un smartphone. Lo denominamos IA de cognición computacional. Es probable que en un futuro muy próximo veamos otras aplicaciones relacionadas con alteraciones del criterio”, afirma Katsaggelos.

Lindley no está de acuerdo. Ella dijo a “The Defender” “Llamar a esto anti-big-data es un oxímoron, porque para poder reclamar un alto nivel de precisión, el programa tendría que abarcar un alto nivel de comprensión de la propia indecisión.”

“El problema de esta iniciativa de IA es el enfoque poblacional, que hace caso omiso de las preocupaciones y experiencias individuales”, afirma Lindley. “Si algo he aprendido ejerciendo la medicina estos últimos 20 años, es que el elemento humano importa y es imprevisible por naturaleza”.

“La punta del iceberg”: La IA también puede utilizarse para el desarrollo rápido de vacunas

Recientemente se han introducido otras tecnologías relacionadas con la IA en el ámbito sanitario.

En la reunión anual del Foro Económico Mundial (FEM) celebrada en enero, Albert Bourla, Consejero Delegado de Pfizer, elogió el papel de la IA en el desarrollo de Paxlovid, un medicamento oral de venta con receta comercializado como tratamiento de la COVID-19.

“Se desarrolló en cuatro meses”, dijo Bourla, mientras que el desarrollo de un fármaco de este tipo “suele llevar cuatro años”. Dijo que la IA ayudó a reducir considerablemente el tiempo necesario para el proceso de “descubrimiento de fármacos”, en el que “realmente se sintetizan millones de moléculas y luego se intenta descubrir dentro de ellas cuál funciona”.

Bourla atribuyó a este avance el haber salvado “millones de vidas” y predijo más avances de este tipo en el futuro. “Nuestro trabajo consiste en lograr avances que cambien la vida de los pacientes”, afirma Bourla. “Con la IA, puedo hacerlo más rápido y mejor”.

“Creo sinceramente que estamos a punto de entrar en un renacimiento científico de las ciencias de la vida debido a esta coexistencia de avances en tecnología y biología”, añadió Bourla. “La IA es una herramienta muy poderosa. En manos de gente mala, puede hacer cosas malas por el mundo, pero en manos de gente buena, puede hacer grandes cosas por el mundo”.

Durante la misma mesa redonda del FEM, Jeremy Hunt, Ministro de Hacienda del Reino Unido, afirmó que la IA podría conducir al rápido desarrollo y despliegue de vacunas.

“Cuando tengamos la próxima pandemia, no queremos tener que esperar un año para conseguir la vacuna”, dijo. “Si la IA puede reducir el tiempo que se tarda en conseguir esa vacuna a un mes, entonces será un enorme paso adelante para la humanidad”.

Un proyecto del FEM, anunciado por primera vez en 2019, financia la investigación sobre el uso de “pacientes” “sintéticos” generados por IA y datos de ensayos clínicos “sintéticos“.

La preocupación por la capacidad de predicción de la IA ha llevado a legisladores de todo el mundo a tomar algunas medidas. El 13 de marzo, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que contiene varias restricciones y prohibiciones al uso de la IA en diversos contextos.

Según el diario griego “The Business Daily“, “el reconocimiento de emociones en el lugar de trabajo y en las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se basa únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas” están prohibidos por esta legislación.

Sin embargo, para Hinchliffe, “utilizar la IA para predecir las actitudes de la gente hacia las vacunas y la indecisión ante ellas es sólo la punta del iceberg”, ya que la tecnología de la IA puede entonces “utilizarse para predecir actitudes sobre casi cualquier cosa”.

“Si tenemos éxito, predecir las actitudes de la gente nos llevará a predecir su comportamiento. Predecir su comportamiento significa saber más de ellos que ellos mismos”, afirma. “Una vez que los humanos son ‘hackeables‘, se acaban todas las apuestas: Pueden ser manipulados y controlados de las formas más nefastas”.

Suggest A Correction

Share Options

Close menu

Republish Article

Please use the HTML above to republish this article. It is pre-formatted to follow our republication guidelines. Among other things, these require that the article not be edited; that the author’s byline is included; and that The Defender is clearly credited as the original source.

Please visit our full guidelines for more information. By republishing this article, you agree to these terms.