The Defender Children’s Health Defense News and Views
Close menu
Close menu

You must be a CHD Insider to save this article Sign Up

Already an Insider? Log in

14-07-2023 News

Big Tech

¿Demasiado poco, demasiado tarde? La FTC inicia una investigación sobre ChatGPT, alegando problemas de privacidad y seguridad

La Comisión Federal de Comercio inició el jueves una investigación sobre las prácticas comerciales de OpenAI y su plataforma ChatGPT por cuestiones de privacidad y perjuicio al consumidor. Muchos observadores del sector aplauden la medida, pero temen que los esfuerzos reguladores sean demasiado débiles o lleguen demasiado tarde.

ftc chatgpt openai privacy feature

La Comisión Federal de Comercio (“Federal Trade Commission”, FTC por sus siglas en inglés) este jueves inició una investigación sobre OpenAI, el desarrollador de la popular plataforma de inteligencia artificial (IA) ChatGPT, citando preocupaciones sobre violaciones de la privacidad, prácticas de recopilación de datos y publicación de información falsa sobre las personas.

La investigación de la FTC pretende determinar si OpenAI infringió las leyes de protección de los consumidores.

La FTC informó a OpenAI de la inminente investigación en una carta de 20 páginas dirigida a la empresa a principios de esta semana, en lo que “The New York Times” describió como “la amenaza regulatoria más potente hasta la fecha para el negocio de OpenAI en Estados Unidos.”

En la carta se pide a OpenAI que responda a una serie de preguntas sobre sus prácticas empresariales y de seguridad y que facilite numerosos documentos y otros datos internos de la empresa. Se dio a la empresa 14 días para responder.

Sam Altman, consejero delegado de OpenAI, tuiteó su decepción por la noticia, pero afirmó que su empresa colaboraría con la agencia.

Según “The Washington Post”, “si la FTC descubre que una empresa infringe las leyes de protección de los consumidores, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar la forma en que la empresa maneja los datos”.

Eleanor Fox, LL.B., profesora emérita de Derecho de la Universidad de Nueva York y experta en antimonopolio, declaró a “The Defender” que la actuación de la FTC es un paso positivo:

“La apertura de una investigación sobre OpenAI por parte de la FTC parece un movimiento importante y justo lo que la FTC debería estar haciendo. La mayoría está de acuerdo en que debe regularse, incluida la propia OpenAI.

“Los aspectos relacionados con el consumidor y la competencia están muy relacionados. El primer corte aquí es lógicamente la protección del consumidor”.

Sin embargo, otros observadores jurídicos y analistas de las grandes empresas tecnológicas, “Big Tech”, señalaron que la investigación puede durar muchos meses y afirman que no es seguro que OpenAI se enfrente finalmente a ninguna sanción.

W. Scott McCollough, abogado especializado en Internet y telecomunicaciones con sede en Austin, declaró a “The Defender”:

“No confío en que la FTC haga mucho bien. Normalmente acaban bendiciendo modelos de negocio intrusivos o perjudiciales haciendo unos cuantos apaños superficiales o exigiendo la divulgación de la práctica perjudicial cuando toda la empresa debería ser eliminada.

“Así es como empezó todo el asunto del capitalismo de vigilancia hace un tiempo. Y ahora es demasiado tarde”.

El experto en tecnología Michael Rectenwald, autor de “Archipiélago Google: el gulag digital y la simulación de la libertad” (“Google Archipelago: The Digital Gulag and the Simulation of Freedom”) expresó su preocupación por el sesgo político e ideológico de cualquier propuesta de regulación de la industria tecnológica:

“La IA plantea peligros al público sobre todo porque es creada por monopolios o cuasi monopolios. Pero la regulación gubernamental no es la respuesta. Si los reguladores y legisladores de izquierdas se salen con la suya, la IA curará la realidad utilizando criterios “woke” y hará desaparecer la realidad que es de otro modo.

“La respuesta es una mayor competencia. La competencia obligaría a los productores de IA a salvaguardar la privacidad, proteger a las personas de la difamación automatizada y a representar la realidad en lugar de una ficción fantástica izquierdista.”

La carta de la FTC llegó la misma semana en que la presidenta de la agencia, Lina Khan, se enfrentaba a las preguntas del Comité Judicial de la Cámara de Representantes (“House Judiciary Committee”), dirigido por los republicanos, sobre otras acciones antimonopolio y reguladoras fallidas contra grandes empresas tecnológicas.

Acusaciones de “prácticas engañosas”, “daños a la reputación” de las personas

La investigación de la FTC se produce menos de cuatro meses después de que el Centro de Inteligencia Artificial y Política Digital (“Center for AI and Digital Policy”, CAIDP por sus siglas en inglés), un grupo de defensa sin ánimo de lucro, presentara una denuncia ante la FTC instando a una investigación de OpenAI.

La denuncia del CAIDP afirmaba que OpenAI no cumplía las directrices de la FTC, según las cuales la IA debe ser “transparente, explicable, justa y empíricamente sólida, al tiempo que fomenta la responsabilidad”, y afirmaba que la propia OpenAI reconocía una serie de peligros potenciales, como “operaciones de desinformación e influencia” y “proliferación de armas convencionales y no convencionales”.

El CAIDP pidió a la FTC que impidiera a OpenAI lanzar nuevas ediciones comerciales de su plataforma ChatGPT “hasta que se establezcan barandillas” para resolver los problemas de parcialidad, desinformación y seguridad. La carta se basaba en declaraciones de “expertos en IA” que pedían una “pausa en los grandes modelos lingüísticos” utilizados en la IA.

El CAIDP amplió su denuncia el 7 de julio, acusando a OpenAI de “prácticas desleales y engañosas” y de “creciente preocupación por las implicaciones éticas y las necesidades normativas” de productos de IA como ChatGPT.

Según “The Post”, además de la denuncia del CAIDP, ha habido otras acusaciones de perjuicio contra OpenAI y ChatGPT.

“The Post” informó de que el locutor de radio de Georgia, Mark Walters, demandó a OpenAI por difamación, alegando que el chatbot afirmó falsamente que había defraudado y malversado fondos de la “Second Amendment Foundation”. Walters ha presentado una demanda contra OpenAI.

En otro caso, ChatGPT dijo que un abogado “hizo comentarios sexualmente sugerentes e intentó tocar a una estudiante en un viaje de clase a Alaska, citando un artículo que, según dijo, había aparecido en ‘The Washington Post’.”

Sin embargo, “no existía tal artículo, el viaje de estudios nunca tuvo lugar y el abogado dijo que nunca se le acusó de acosar a una estudiante”, según “The Post”.

En consecuencia, la FTC pidió a OpenAI que proporcionara detalles sobre todas las quejas que recibió acerca de que sus productos hacían afirmaciones “falsas, engañosas, denigrantes o perjudiciales” sobre las personas que pudieran haber provocado un “daño a la reputación.”

Cuestiones de seguridad investigadas

La FTC también examinará si OpenAI “incurrió en prácticas desleales o engañosas en materia de privacidad o seguridad de datos o si incurrió en prácticas desleales o engañosas en relación con los riesgos de perjuicio para los consumidores.”

La FTC busca registros relacionados con una filtración de datos en marzo, en la que un fallo en el sistema ChatGPT reveló el historial de chat de algunos usuarios, datos de identificación personal e información financiera.

En aquel momento, OpenAI afirmó que sólo se había visto afectado un número “extremadamente bajo” de usuarios.

¿Comprenden los usuarios de ChatGPT los límites de la tecnología de IA?

La FTC solicita a OpenAI que facilite cualquier investigación, encuesta o resultado de pruebas que evalúen hasta qué punto los consumidores comprenden “la precisión o fiabilidad de los resultados” generados por sus herramientas de IA, y sobre los datos que OpenAI utiliza para entrenar sus productos.

“The Post” señala que productos como ChatGPT “imitan el habla humana mediante la ingesta de texto, en su mayoría extraído de Wikipedia, Scribd y otros sitios de la web abierta”, pero que estos modelos también tienen una “tendencia a ‘‘alucinar’” al “inventarse respuestas cuando los modelos no saben la respuesta a una pregunta”.

McCollough declaró a “The Defender” que prácticas como la “alucinación” suponen una amenaza para la privacidad de todos los usuarios de Internet:

“Las empresas tecnológicas a menudo se arrogan el derecho de raspar todo lo que hay en Internet, incluso el material personal o protegido por derechos de autor. Así que alguien que piense que ha colgado algo privado o que no suele publicarse puede conseguir que se lo apropien”.

Por último, la FTC pide detalles sobre la forma en que OpenAI anuncia sus productos, cómo evalúa la seguridad y fiabilidad de los nuevos productos y con qué frecuencia retrasa OpenAI un nuevo producto debido a problemas de seguridad.

Según “The Times”, “la investigación podría obligar a OpenAI a revelar sus métodos de creación de ChatGPT y las fuentes de datos que utiliza para construir sus sistemas de IA”, y añade que “aunque OpenAI ha sido durante mucho tiempo bastante abierta sobre este tipo de información, más recientemente ha dicho poco sobre la procedencia de los datos para sus sistemas de IA”.

No está claro si habrá sanciones contra OpenAI

A pesar de las numerosas acusaciones contra OpenAI, el resultado de esta investigación dista mucho de ser seguro. Según “The Times”, “la investigación de la FTC sobre OpenAI puede llevar muchos meses, y no está claro si conducirá a alguna acción por parte de la agencia. Tales investigaciones son privadas y a menudo incluyen deposiciones de altos ejecutivos corporativos.”

Megan Gray, ex miembro del personal de la Oficina de Protección al Consumidor de la FTC, dijo a “The Times” que “La FTC no tiene el personal con conocimientos técnicos suficientes como para evaluar las respuestas que recibirán y ver cómo OpenAI puede tratar de sombrear la verdad.”

Los analistas del sector cuestionaron la autoridad de la FTC para emprender acciones contra OpenAI. Adam Kovacevich, fundador y consejero delegado de la Cámara de Comercio de la industria tecnológica, dijo a “The Post” que la agencia podría carecer de autoridad para “vigilar la difamación o el contenido de los resultados de ChatGPT”.

Sin embargo, “la investigación de la FTC supone la primera gran amenaza regulatoria de EE.UU. para OpenAI, una de las empresas de IA de más alto perfil, y señala que la tecnología puede estar cada vez más bajo escrutinio a medida que las personas, las empresas y los gobiernos utilicen más productos impulsados por IA”, afirma “The Times”.

Preocupación reciente por la tecnología de IA

En junio, el senador Chuck Schumer (demócrata de Nueva York) pidió una “legislación integral” para crear “una nueva base para la política de inteligencia artificial”:

“Las tareas menos cualificadas seguirán siendo víctimas de la automatización a un ritmo cada vez más rápido, desplazando a millones de trabajadores con bajos ingresos, muchos de ellos procedentes de comunidades de color. El transporte por carretera, la fabricación y la producción de energía podrían ser los siguientes. Y ten por seguro que los que tienen estudios universitarios y títulos avanzados tampoco estarán a salvo”.

El propio Altman afirmó que es necesario regular la industria de la IA. En su comparecencia ante el Congreso en mayo, declaró: “Creo que si esta tecnología sale mal, puede salir bastante mal. Queremos trabajar con el gobierno para evitar que eso ocurra”.

En la misma audiencia, Altman dijo que sería importante que “el gobierno descubriera cómo queremos mitigar” las posibles pérdidas de empleo que podrían derivarse del amplio despliegue de la tecnología de IA.

Los reguladores de otros países ya han tomado medidas contra las empresas de IA

Algunos países ya están tomando medidas para regular la IA.

En marzo, Italia detuvo temporalmente las operaciones de ChatGPT por problemas de privacidad de datos.

En junio, Google se vio obligado a posponer el lanzamiento de su herramienta de inteligencia artificial Bard en Irlanda por motivos similares.

La UE, Brasil, China, Japón, Canadá, India y Suiza también están trabajando en la elaboración de normativas para la industria de la IA, según el bufete de abogados TaylorWessing.

Este tipo de medidas adoptadas por los organismos reguladores de otros países pueden haber inducido a la FTC a actuar. Según el Times, “La FTC está actuando sobre la Inteligencia Artificial con notable rapidez, abriendo una investigación menos de un año después de que OpenAI presentara ChatGPT”.

En abril, Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, dijo que la agencia estaba preparada para ser “ágil” en la respuesta a las amenazas emergentes planteadas por la IA, añadiendo que mientras que la FTC “da la bienvenida a la innovación … ser innovador no es una licencia para ser imprudente.”

“Estamos dispuestos a utilizar todas nuestras herramientas, incluida la represión, para hacer frente a las prácticas perjudiciales en este ámbito”, declaró Levine.

Anteriormente, en una entrada de blog de febrero, la FTC advertía a las empresas de IA de que “los vendedores deben saber que, a efectos de aplicación de la FTC, las afirmaciones falsas o sin fundamento sobre la eficacia de un producto son nuestro pan de cada día”.

La presidenta de la FTC, Khan, que se ha ganado la reputación de escéptica de las grandes tecnológicas, se refirió a la IA durante una conferencia de prensa de la administración Biden en abril, en la que dijo: “No hay ninguna exención para la IA en las leyes vigentes”, según “The Post”.

En 2017, Khan publicó un artículo jurídico en el “Yale Law Journal” en el que caracterizaba a Amazon como un monopolista moderno cuyo poder de mercado requería ser “abordado.” En el mismo documento, abogaba por restaurar “la política antimonopolio y de competencia tradicional” para las grandes empresas tecnológicas.

El 3 de mayo en un ensayo invitado publicado en “the Times”, Khan dijo que aunque las herramientas de IA “son novedosas, no están exentas de las normas existentes, y la FTC hará cumplir enérgicamente las leyes que estamos encargados de administrar, incluso en este nuevo mercado”, añadiendo que “Si bien la tecnología se está moviendo rápidamente, ya podemos ver varios riesgos.”

Khan cuestionada por los fallos de la FTC

El jueves en la comparecencia ante el Comité Judicial de la Cámara de Representantes, Khan reiteró su llamamiento a un mayor control de la industria de la inteligencia artificial.

“ChatGPT y algunos de estos otros servicios están recibiendo un enorme caudal de datos. No hay controles sobre qué tipo de datos se introducen en estas empresas”, dijo en la audiencia, añadiendo que se habían recibido informes de “información sensible” de personas que aparecía en los resultados entregados por la herramienta de IA.

En los últimos meses, la FTC ha emprendido algunas acciones contra grandes empresas tecnológicas por prácticas engañosas al consumidor.

En 2019, la FTC aprobó un acuerdo de 5.000 millones de dólares con Facebook tras una investigación sobre privacidad, la FTC impuso una multa de 150 millones de dólares a Twitter en 2022 por prácticas engañosas de recopilación de datos y, en mayo, la FTC multó a Amazon con 25 millones de dólares por problemas de privacidad infantil.

En febrero, la farmacia en línea con sede en California, GoodRx, acordó pagar 1,5 millones de dólares en sanciones civiles, tras una investigación de la FTC en la que se descubrió que la empresa compartía datos sanitarios de los usuarios con empresas como Facebook y Google.

Sin embargo, en la audiencia del jueves, Khan fue interrogada acerca de los fracasos de su agencia, incluido el hecho de que un juez federal paralizara el intento de la FTC de detener la adquisición de Activision por parte de Microsoft, valorada en 70.000 millones de dólares. El mes anterior, la FTC había sufrido otra derrota judicial cuando un juez bloqueó los esfuerzos de la FTC por detener la adquisición por Meta de la empresa de aplicaciones de realidad virtual Within.

El diputado Jim Jordan (republicano de Ohio), presidente del Comité Judicial de la Cámara de Representantes, dijo que “la FTC no ha cumplido plenamente con una sola solicitud de documentos de este comité, y debido a su mala gestión, ni siquiera su propio personal está impresionado con el liderazgo de la presidenta Khan”, citando encuestas internas de la FTC que muestran una creciente insatisfacción del personal.

Y el representante Kevin Kiley (republicano de California) preguntó a Khan durante la audiencia del jueves: “Ahora lleva 0 de 4 en juicios por fusiones. ¿Por qué está perdiendo tanto?”.

Preguntas sin respuesta sobre los riesgos de la IA para el tejido social

Sin embargo, lo que pareció faltar tanto en la retórica de la FTC como en las preguntas que Khan recibió en la audiencia fueron los riesgos más amplios que la IA puede plantear al tejido social.

Según el analista y activista Charles Hugh Smith, “la IA elimina puestos de trabajo que no son sustituidos por una oleada masiva de nuevos empleos, un proceso conocido como desplazamiento tecnológico del empleo.”

Smith escribió que es “escéptico ante las afirmaciones de que se perderán decenas de millones de puestos de trabajo debido al LLM [siglas en inglés de “large language model”, modelo lingüístico amplio] o a la IA de aprendizaje automático” y que tales herramientas de IA pueden “aumentar la productividad de los trabajadores humanos cualificados en lugar de sustituirlos por completo”.

Sin embargo, en respuesta a las afirmaciones de que las nuevas tecnologías pueden incluso crear muchos más puestos de trabajo de los que eliminan, Smith escribió: “En realidad, las pruebas no son tan claras de que esta nueva creación de empleo sea predecible”.

Como resultado, “podemos encontrarnos con que la IA ofrece lo peor de ambos mundos: reduce drásticamente los beneficios a medida que todo el mundo carga con los mayores costes de la IA, pero sin ninguna ventaja competitiva duradera que respalde precios y beneficios más altos, y desplaza amplias franjas de mano de obra humana que no son sustituidas por nuevos sectores que generan decenas de millones de nuevos puestos de trabajo.”

“Las pérdidas de empleo que no se sustituyen se retroalimentan”, añadió Smith, citando al economista John Maynard Keynes.

“Cuando las personas pierden sus ingresos salariales y dependen del desempleo o, posiblemente, de la Renta Básica Universal (RBU), sus ingresos suelen ser más bajos y ya no pueden gastar y consumir tanto como cuando tenían un empleo. Toda la economía se contrae”.

Suggest A Correction

Share Options

Close menu

Republish Article

Please use the HTML above to republish this article. It is pre-formatted to follow our republication guidelines. Among other things, these require that the article not be edited; that the author’s byline is included; and that The Defender is clearly credited as the original source.

Please visit our full guidelines for more information. By republishing this article, you agree to these terms.