La Federal Trade Commission (FTC) a lancé jeudi une enquête sur OpenAI, le développeur de la populaire plateforme d’intelligence artificielle ChatGPT, en raison de préoccupations concernant des violations de la vie privée, des pratiques de collecte de données et la publication de fausses informations sur des personnes.
L’enquête de la FTC vise à déterminer si OpenAI a violé les lois sur la protection des consommateurs.
La FTC a informé OpenAI de l’imminence de l’enquête dans une lettre de 20 pages adressée à l’entreprise en début de semaine, dans ce que le New York Times a décrit comme « la menace réglementaire la plus puissante à ce jour pour les activités d’OpenAI aux États-Unis ».
La lettre demande à OpenAI de répondre à une série de questions sur ses pratiques commerciales et de sécurité et de fournir de nombreux documents et autres informations internes à l’entreprise. L’entreprise disposait d’un délai de 14 jours pour répondre.
Sam Altman, PDG d’OpenAI, a fait part sur Twitter de sa déception, mais a indiqué que son entreprise travaillerait avec l’agence.
il est très décevant de constater que la demande de la FTC commence par une fuite et ne contribue pas à instaurer la confiance.
Cela dit, il est très important pour nous que notre technologie soit sûre et favorable aux consommateurs, et nous sommes convaincus que nous respectons la loi. Bien entendu, nous travaillerons avec la FTC.
– Sam Altman (@sama) 13 juillet 2023
Selon le Washington Post, « si la FTC constate qu’une entreprise viole les lois sur la protection des consommateurs, elle peut lui infliger des amendes ou la soumettre à un décret de consentement, qui peut dicter la manière dont l’entreprise traite les données ».
Eleanor Fox, LL.B.,, professeure de droit émérite à l’université de New York et experte en matière d’antitrust, a déclaré au Defender que l’action de la FTC constituait une étape positive :
« L’ouverture d’une enquête sur OpenAI par la FTC semble être une mesure importante et correspondre exactement à ce que la FTC devrait faire. La plupart d’entre eux, y compris l’OpenAI elle-même, s’accordent à dire qu’il devrait être réglementé.
« Les aspects relatifs aux consommateurs et à la concurrence sont très liés. La protection des consommateurs est logiquement la première des priorités. »
Toutefois, d’autres observateurs juridiques et analystes des grandes technologies ont déclaré que l’enquête pourrait durer de nombreux mois et qu’il est loin d’être certain qu’OpenAI fera finalement l’objet de sanctions.
W. Scott McCollough, avocat spécialiste de l’internet et des télécommunications basé à Austin, a déclaré à The Defender :
« Je ne fais pas confiance à la FTC pour faire beaucoup de bien. Elles finissent généralement par bénir les modèles d’entreprise intrusifs ou nuisibles en bricolant sur les bords ou en exigeant la divulgation de la pratique nuisible alors que l’ensemble de l’entreprise devrait être éliminé.
« C’est ainsi que le capitalisme de surveillance a commencé il y a quelque temps. Et maintenant, il est trop tard. »
L’expert en technologie Michael Rectenwald, auteur de « Google Archipelago: The Digital Gulag and the Simulation of Freedom », s’est inquiété de la partialité politique et idéologique de toute proposition de réglementation de l’industrie technologique :
« L’IA représente un danger pour le public principalement parce qu’elle est créée par des monopoles ou des quasi-monopoles. Mais la réglementation gouvernementale n’est pas la solution. Si les régulateurs et législateurs gauchistes font ce qu’ils veulent, l’IA va gérer la réalité en utilisant des critères « woke » et fera disparaître la réalité autrement.
« La réponse est une plus grande concurrence. La concurrence obligerait les producteurs d’IA à préserver la vie privée, à protéger les individus contre la diffamation automatisée et à représenter la réalité plutôt que la fiction fantaisiste de la gauche. »
La lettre de la FTC a été envoyée la semaine même où la présidente de l’agence, Lina Khan, a dû répondre aux questions de la commission judiciaire de la Chambre des représentants, dirigée par les républicains, au sujet de plusieurs autres actions antitrust et réglementaires infructueuses contre des entreprises du secteur des grandes technologies.
Allégations de pratiques trompeuses et d’atteinte à la réputation des personnes
L’enquête de la FTC intervient moins de quatre mois après que le Center for AI and Digital Policy (CAIDP), un groupe de défense à but non lucratif, a déposé une plainte auprès de la FTC pour demander une enquête sur OpenAI.
La plainte du CAIDP indique qu’OpenAI n’a pas respecté les lignes directrices de la FTC selon lesquelles l’IA doit être « transparente, explicable, équitable et empirique tout en favorisant la responsabilité », et précise qu’OpenAI elle-même a reconnu un certain nombre de dangers potentiels, notamment « la désinformation et les opérations d’influence” et “la prolifération d’armes conventionnelles et non conventionnelles ».
Le CAIDP a demandé à la FTC d’empêcher OpenAI de publier de nouvelles éditions commerciales de sa plateforme ChatGPT « jusqu’à ce que des garde-fous soient mis en place » pour résoudre les problèmes liés aux préjugés, à la désinformation et à la sécurité. La lettre s’inspire de déclarations d’ « experts en IA » qui ont appelé à une « pause dans les grands modèles de langage » utilisés dans l’IA.
Le CAIDP a intensifié sa plainte le 7 juillet, accusant OpenAI de « pratiques déloyales et trompeuses » et de « préoccupations croissantes concernant les implications éthiques et les besoins réglementaires » des produits d’IA tels que ChatGPT.
Selon le Post, outre la plainte du CAIDP, d’autres allégations de préjudice ont été formulées à l’encontre d’OpenAI et de ChatGPT.
Le Post a rapporté que Mark Walters, animateur d’une émission de radio en Géorgie, a poursuivi OpenAI pour diffamation, alléguant que le chatbot avait faussement prétendu qu’il avait fraudé et détourné des fonds de la Second Amendment Foundation. Walters a intenté une action en justice contre OpenAI.
Dans un autre cas, ChatGPT a déclaré qu’un avocat « a fait des commentaires sexuellement suggestifs et a tenté de toucher une étudiante lors d’un voyage de classe en Alaska, en citant un article qui aurait été publié dans le Washington Post ».
Cependant, « aucun article de ce type n’a existé, le voyage de classe n’a jamais eu lieu et l’avocat a déclaré qu’il n’avait jamais été accusé d’avoir harcelé un élève », selon le Post.
En conséquence, la FTC a demandé à OpenAI de fournir des détails sur toutes les plaintes qu’elle a reçues concernant ses produits faisant des déclarations « fausses, trompeuses, dénigrantes ou préjudiciables » sur des personnes, ce qui pourrait avoir entraîné un « préjudice de réputation ».
Questions de sécurité examinées
La FTC examinera également si OpenAI « s’est livrée à des pratiques déloyales ou trompeuses en matière de protection de la vie privée ou de sécurité des données ou si elle s’est livrée à des pratiques déloyales ou trompeuses concernant les risques de préjudice pour les consommateurs ».
La FTC cherche à obtenir des documents relatifs à une violation de données survenue en mars, au cours de laquelle un bogue dans le système ChatGPT a révélé l’historique des conversations de certains utilisateurs, des données personnelles identifiables et des informations financières.
À l’époque, OpenAI avait affirmé que seul un nombre « extrêmement faible » d’utilisateurs avait été touché.
Les utilisateurs de ChatGPT comprennent-ils les limites de la technologie de l’IA ?
La FTC demande à OpenAI de lui communiquer les résultats de recherches, d’enquêtes ou de tests visant à déterminer dans quelle mesure les consommateurs comprennent « l’exactitude ou la fiabilité des résultats » générés par ses outils d’intelligence artificielle, ainsi que les données qu’OpenAI utilise pour former ses produits.
Le Post note que des produits tels que ChatGPT « imitent la parole humaine en ingérant du texte, principalement extrait de Wikipedia, Scribd et d’autres sites du web ouvert », mais que ces modèles ont également « tendance àhalluciner » en « inventant des réponses lorsque les modèles ne connaissent pas la réponse à une question ».
McCollough a déclaré au Defender que des pratiques telles que l’ « hallucination » constituent une menace pour la vie privée de tous les utilisateurs en ligne :
« Les entreprises technologiques s’arrogent souvent le droit de fouiller tout ce qui se trouve sur l’internet, même les documents personnels ou protégés par des droits d’auteur. Ainsi, quelqu’un qui pense avoir posté quelque chose de privé ou qui n’est pas généralement publié peut se l’approprier. »
Enfin, la FTC demande des précisions sur la manière dont OpenAI fait la publicité de ses produits, sur la manière dont elle évalue la sécurité et la fiabilité des nouveaux produits et sur la fréquence à laquelle OpenAI retarde un nouveau produit en raison de problèmes de sécurité.
Selon le Times, « l’enquête pourrait obliger OpenAI à révéler ses méthodes de construction de ChatGPT et les sources de données qu’elle utilise pour construire ses systèmes d’IA », ajoutant que « si OpenAI a longtemps été assez ouverte sur ce type d’informations, elle a plus récemment peu parlé de l’origine des données utilisées pour ses systèmes d’IA ».
Il n’est pas certain que des sanctions soient prises à l’encontre de l’OpenAI
Malgré les nombreuses allégations à l’encontre d’OpenAI, l’issue de cette enquête est loin d’être certaine. Selon le Times, « l’enquête de la FTC sur OpenAI peut prendre de nombreux mois, et il n’est pas certain qu’elle débouche sur une action de l’agence. De telles enquêtes sont privées et comprennent souvent des dépositions de cadres supérieurs d’entreprises ».
Megan Gray, ancienne membre du Bureau de la protection des consommateurs de la FTC, a déclaré au Times : « La FTC ne dispose pas du personnel technique nécessaire pour évaluer les réponses qu’elle recevra et pour voir comment OpenAI pourrait tenter de nuancer la vérité. »
Les analystes du secteur ont remis en question l’autorité de la FTC pour mettre en œuvre des actions contre OpenAI. Adam Kovacevich, fondateur et directeur général de la Chambre de commerce de l’industrie technologique, a déclaré au Post que l’agence pourrait ne pas avoir l’autorité nécessaire pour « contrôler la diffamation ou le contenu des résultats de ChatGPT ».
Néanmoins, « l’enquête de la FTC constitue la première grande menace réglementaire américaine pour OpenAI, l’une des entreprises d’IA les plus en vue, et indique que la technologie pourrait être de plus en plus surveillée à mesure que les personnes, les entreprises et les gouvernements utilisent davantage de produits alimentés par l’IA », a déclaré le Times.
Préoccupations récentes concernant la technologie de l’IA
En juin, le sénateur Chuck Schumer (D-N.Y.) a appelé à une « législation complète » pour créer « une nouvelle base pour la politique en matière d’IA » :
« Les tâches peu qualifiées continueront d’être victimes de l’automatisation à un rythme de plus en plus rapide, ce qui entraînera le déplacement de millions de travailleurs à faibles revenus, souvent issus de communautés de couleur. Le camionnage, l’industrie manufacturière et la production d’énergie pourraient être les prochaines victimes de l’automatisation. Et soyez assurés que ceux qui ont fait des études supérieures ne seront pas à l’abri non plus. »
Altman a lui-même déclaré que l’industrie de l’IA devait être réglementée. Lors de sa déposition devant le Congrès en mai, il a déclaré : « Je pense que si cette technologie tourne mal, elle peut tourner très mal. Nous voulons travailler avec le gouvernement pour éviter que cela ne se produise. »
Lors de cette même audition, Altman a déclaré qu’il serait important que « le gouvernement détermine comment nous voulons atténuer » les pertes d’emplois potentielles qui pourraient résulter du déploiement à grande échelle de la technologie de l’IA.
Les autorités de régulation d’autres pays ont déjà pris des mesures à l’encontre d’entreprises spécialisées dans l’IA
Certains pays ont déjà pris des mesures pour réglementer l’IA.
En mars, l’Italie a temporairement interrompu les activités de ChatGPT en raison de préoccupations liées à la confidentialité des données.
En juin, Google a été contraint de reporter le lancement de son outil d’IA Bard en Irlande en raison de préoccupations similaires.
L’UE, le Brésil, la Chine, le Japon, le Canada, l’Inde et la Suisse travaillent également à l’élaboration de réglementations pour l’industrie de l’IA, selon le cabinet d’avocats TaylorWessing.
Ces mesures prises par les autorités de régulation d’autres pays pourraient avoir incité la FTC à agir. Selon le Times, « la FTC agit sur l’I.A. avec une rapidité notable, ouvrant une enquête moins d’un an après qu’OpenAI a lancé ChatGPT ».
En avril, Samuel Levine, directeur du Bureau de la protection des consommateurs de la FTC, a déclaré que l’agence était prête à faire preuve de « souplesse » pour répondre aux nouvelles menaces posées par l’IA, ajoutant que si la FTC « accueille favorablement l’innovation […], le fait d’être innovant n’est pas une licence pour être imprudent ».
« Nous sommes prêts à utiliser tous nos outils, y compris l’application de la loi, pour lutter contre les pratiques préjudiciables dans ce domaine », a déclaré Levine.
Précédemment, dans un billet de blog datant de février, la FTC a averti les entreprises d’IA que « les spécialistes du marketing doivent savoir que – pour les besoins de l’application de la loi par la FTC – les allégations fausses ou non fondées concernant l’efficacité d’un produit sont notre pain et notre beurre ».
La présidente de la FTC, Khan, qui a acquis une réputation de sceptique à l’égard des grandes entreprises technologiques, a abordé la question de l’IA lors d’une conférence de presse de l’administration Biden en avril, au cours de laquelle elle a déclaré : « Il n’y a pas d’exemption pour l’IA aux lois en vigueur », selon le Post.
En 2017, Khan a publié un article juridique dans le Yale Law Journal, qualifiant Amazon de monopoleur moderne dont le pouvoir de marché devait être « traité ». Dans le même document, elle plaide en faveur de la restauration de la « politique antitrust et de concurrence traditionnelle » pour les grandes entreprises technologiques.
Dans un essai d’un invité publié le 3 mai dans le Times,Khan a dit que « bien que les outils d’IA soient nouveaux, ils ne sont pas exemptés des règles existantes, et la FTC appliquera vigoureusement les lois qu’elle est chargée d’administrer, même sur ce nouveau marché », ajoutant que « si la technologie évolue rapidement, nous pouvons déjà déceler plusieurs risques ».
Khan interrogé sur les échecs de la FTC
Lors de l’audition de jeudi de la commission judiciaire de la Chambre des représentants, Khan a réitéré ses appels à une surveillance accrue de l’industrie de l’IA.
« ChatGPT et certains de ces autres services sont alimentés par une énorme quantité de données. Il n’y a aucun contrôle sur le type de données insérées dans ces entreprises », a-t-elle déclaré lors de l’audition, ajoutant qu’il avait été signalé que des « informations sensibles » apparaissaient dans les résultats fournis par l’outil d’intelligence artificielle.
Ces derniers mois, la FTC a pris des mesures à l’encontre d’entreprises du secteur des grandes technologies pour pratiques trompeuses à l’égard des consommateurs.
En 2019, la FTC a approuvé un règlement de 5 milliards de dollars avec Facebook à la suite d’une enquête sur la protection de la vie privée, une amende de 150 millions de dollars a été infligée par la FTC à Twitter en 2022 pour pratiques trompeuses en matière de collecte de données, et en mai, la FTC a infligé une amende de 25 millions de dollars à Amazon en raison de problèmes liés à la protection de la vie privée des enfants.
En février, la pharmacie en ligne GoodRx, basée en Californie, a accepté de payer 1,5 million de dollars de pénalités civiles, à la suite d’une enquête de la FTC qui a révélé que l’entreprise partageait les données de santé de ses utilisateurs avec des sociétés telles que Facebook et Google.
Toutefois, lors de l’audition de jeudi, Khan a été questionnée sur les échecs de son agence, notamment sur le fait qu’un juge fédéral a mis un terme à la tentative de la FTC d’empêcher l’acquisition d’Activision par Microsoft pour un montant de 70 milliards de dollars. Le mois précédent, la FTC avait essuyé une nouvelle défaite judiciaire lorsqu’un juge avait bloqué les efforts de la FTC pour empêcher l’acquisition par Meta de la société d’applications de réalité virtuelle Within.
Rép. Jim Jordan (R-Ohio), président de la commission judiciaire de la Chambre des représentants, a déclaré que « la FTC ne s’est pas pleinement conformée à une seule demande de documents émanant de cette commission et, en raison de sa mauvaise gestion, même son propre personnel n’est pas impressionné par la direction de la présidente Khan », citant des enquêtes internes de la FTC montrant un mécontentement croissant du personnel.
Lors de l’audition de jeudi, le député Kevin Kiley (R-Calif) a demandé à Khan : « Vous êtes maintenant à 0 sur 4 dans les procès de fusion. Pourquoi perdez-vous autant ? »
Questions sans réponse sur les risques que l’IA fait peser sur le tissu social
Toutefois, ce qui semble manquer à la fois dans le discours de la FTC et dans les questions posées à Khan lors de l’audition, ce sont les risques plus larges que l’IA peut faire peser sur le tissu social.
Selon l’analyste et activiste Charles Hugh Smith, « l’IA élimine les emplois qui ne sont pas remplacés par une vague massive de nouveaux emplois, un processus connu sous le nom de déplacement technologique d’emplois ».
Smith a écrit qu’il était « sceptique quant aux affirmations selon lesquelles des dizaines de millions d’emplois seront perdus en raison du LLM [large language model] ou de l’apprentissage automatique de l’IA » et que ces outils d’IA pourraient « augmenter la productivité des travailleurs humains qualifiés plutôt que de les remplacer entièrement ».
Toutefois, en réponse aux affirmations selon lesquelles les nouvelles technologies pourraient même créer beaucoup plus d’emplois qu’elles n’en suppriment, Smith a écrit : « Il n’est en fait pas si évident que cette nouvelle création d’emplois soit prévisible. »
En conséquence, « nous pourrions constater que l’IA offre le pire des deux mondes : elle réduit les bénéfices car tout le monde se charge des coûts plus élevés de l’IA, mais sans aucun avantage concurrentiel durable qui soutiendrait des prix et des bénéfices plus élevés, et elle déplace de vastes pans de la main-d’œuvre humaine qui ne sont pas remplacés par de nouveaux secteurs générant des dizaines de millions d’emplois nouveaux ».
« Il y a une boucle de rétroaction pour les pertes d’emploi qui ne sont pas remplacées », a ajouté Smith, citant l’économiste John Maynard Keynes.
« Lorsque les gens perdent leur revenu du travail et dépendent du chômage ou éventuellement du revenu de base universel (RBU), leur revenu est généralement plus faible et ils ne sont plus en mesure de dépenser et de consommer autant que lorsqu’ils avaient un emploi. L’ensemble de l’économie se contracte. »