25 Sep 2024

Intelligence artificielle : (ré)concilier innovation et protection

« Le silence, l’inaction, l’ignorance feinte ne sont pas des options. » 

Alors que le Règlement sur l’intelligence artificielle (RIA) a finalement été adopté dans la douceur (ou la douleur ?) de l’été, les oppositions se traduisent toujours par des postures. Les partisans de l’innovation regrettent à grand bruit le cadre régulatoire adopté, qui empêcherait l’émergence d’un écosystème européen de l’IA, tandis que les tenants du principe de précaution s’inquiètent de l’avancée de la technologie et de la discrétion, voire du sacrifice, des droits fondamentaux dans le texte. Entre le marché et la préservation des valeurs, il faudrait choisir son camp. Qu’il nous soit permis de douter et donc de ne pas choisir. Non seulement l’opposition est stérile et sans fondement, mais elle est fondée sur des présomptions hâtives : le législateur européen, en intervenant pour imposer la première réglementation transversale au monde, aurait-il renoncé à l’innovation ? Ou au contraire, dans une approche schizophrénique, aurait-il sacrifié la protection des personnes sur l’autel de la compétitivité ? Soutenir le développement éthique de l’innovation conduit-il automatiquement à freiner les technologies ?  

Donner un sens à l’innovation, c’est construire un modèle européen, respectueux des droits, un modèle éthique et compétitif. Osons conjuguer progrès et protection. Dans cette voie, la course effrénée au développement des outils d’IA ne peut fragiliser ou occulter les droits de tiers. Notamment, on sait que les modèles d’IA se nourrissent de masses de données. Peut-on ignorer ce que certains considèrent comme un « pillage culturel » ? Peut-on accepter l’utilisation non contrôlée de données à caractère personnel ? Peut-on minimiser la présence d’images pédopornographiques dans les bases d’entraînement ? 

Le droit se confronte au réel. Le silence, l’inaction, l’ignorance feinte ne sont pas des options. La (ré)conciliation est la seule voie possible. La démarche oblige à réinventer le progrès, à lui imposer parfois des limites fécondes, surtout à lui redonner du sens, celui de l’humanité.  

Le temps est donc désormais venu de mettre en œuvre le RIA. Notamment, le secteur de la culture et des médias est directement touché en raison du fonctionnement même des IA génératives. ChatGPT n’offre des réponses que parce qu’il s’est entraîné sur des masses de données, dont des contenus protégés par le droit d’auteur et les droits voisins. Les contenus culturels, contenus de qualité qui augmentent les performances de ces outils, font ainsi partie de la chaine de valeur de la conception d’un modèle d’IA. Or, ces données ont une valeur et un prix. Pour servir de levier à l’émergence d’un marché, le législateur européen a imposé aux fournisseurs d’IA une obligation de transparence sur les données d’entraînement. Pour ce faire, le Bureau de l’IA devra fournir un cadre, sous forme de modèle de transparence. La ministre de la Culture, Rachida Dati, a souhaité que la France, fidèle à sa tradition de protection des Arts, soit force de propositions tant sur ce « template » que sur les modèles de rémunération possibles (V. Missions CSPLA). Le rayonnement de la culture française est à ce prix.  

C’est aussi dire que la concurrence n’est pas qu’économique, elle est politique, normative. Sur ce point, la vocation extraterritoriale du RIA permettra de placer toutes les entreprises, européennes comme extra-européennes, sur un pied d’égalité. Par ailleurs, le développement de modèles d’IA régionaux n’est pas pertinent, pour des raisons de coût notamment. Et les acteurs non-européens ne voudront pas se passer du marché européen. Aussi, l’« effet Bruxelles », décrit par Anu Bradford, exercera sans doute son emprise. 


Pour en savoir plus sur les dernières actualités et mises à jour de Lexis+ AI en matière d'IA juridique, demandez votre démo dès maintenant.