OpenAI, le géant de la technologie connu pour son chatbot IA innovant, ChatGPT, se retrouve dans une situation délicate avec les autorités de l’Union européenne. L’autorité italienne de protection des données, après des mois d’enquête, soupçonne OpenAI d’enfreindre les lois européennes sur la protection de la vie privée. Bien que les détails des allégations ne soient pas divulgués, OpenAI a reçu un préavis sévère de 30 jours pour se défendre contre les accusations.
Dans le monde des amendes, nous parlons ici d’affaires sérieuses. S’il est reconnu coupable, OpenAI pourrait se voir infliger des sanctions pouvant aller jusqu’à 20 millions d’euros, soit 4 % de son chiffre d’affaires annuel mondial. C’est suffisant pour faire transpirer même le système d’IA le plus avancé ! Mais cela ne s’arrête pas là. Les autorités pourraient également donner à OpenAI des ordonnances exigeant des changements dans ses pratiques de traitement des données. Tu parles d’une refonte numérique !
En réponse à ces allégations, OpenAI a publié une déclaration affirmant sa conformité au RGPD et à d’autres réglementations en matière de confidentialité. Ils prétendent prendre des précautions supplémentaires pour protéger les données et la confidentialité des utilisateurs. Après tout, ils veulent que leur IA soit bien au fait des connaissances mondiales, et non des affaires privées des individus. Cependant, l’autorité italienne n’est pas convaincue, faisant part de ses inquiétudes sur les pratiques de traitement des données de ChatGPT et sa tendance à « halluciner » l’information, ce qui ressemble plus à une intrigue de science-fiction qu’à un scandale technologique.
Le cœur du problème réside dans la manière dont OpenAI collecte et traite les données personnelles pour entraîner ses modèles d’IA. Il semble que la base juridique d’OpenAI pour cette pratique soit aussi solide qu’un château de cartes dans une tempête de vent. Le RGPD prévoit six fondements juridiques possibles, mais la plupart ne s’appliquent pas ici. La tentative d’OpenAI de s’appuyer sur des « intérêts légitimes » se heurte à un problème car elle entre en conflit avec les droits et libertés individuels. C’est comme essayer de mettre une cheville carrée dans un trou rond, mais avec le jargon juridique.
Malgré les efforts d’OpenAI pour répondre à certaines préoccupations et reprendre les services de ChatGPT en Italie, l’enquête fait rage. Le Garante, l’autorité italienne de protection des données, ne recule pas. Ils sont déterminés à aller au fond de cette débâcle de l’IA, allant même jusqu’à former un groupe de travail avec d’autres autorités européennes pour s’attaquer au problème.
La tentative d’OpenAI de chercher refuge en Irlande, dans l’espoir d’une navigation plus fluide dans le cadre du RGPD, n’est peut-être pas la solution miracle qu’ils recherchent. Les autorités européennes chargées de la protection des données sont comme une meute de limiers : elles ne se reposeront pas tant qu’elles n’auront pas repéré chaque violation, quel que soit l’endroit où elle se produit dans l’UE.
Alors que la poussière numérique retombe, une chose est sûre : le voyage d’OpenAI à travers le labyrinthe des lois européennes sur la protection de la vie privée est loin d’être terminé. Alors, attachez votre ceinture, les amis : le voyage dans le monde sauvage de la réglementation de l’IA sera forcément semé d’embûches !