Le Parlement européen vient d’adopter le 12 février 2019 une Résolution sur l’intelligence artificielle (ci-après IA), quasiment deux ans jour pour jour après sa Résolution du 16 février 2017 concernant les règles de droit civil sur la robotique (au premier chef de ses visas) ; qualifié de « l’une des technologies stratégiques du 21ème siècle » (pt. D), le sujet apparaît suffisamment urgent pour que la Résolution souligne, à plusieurs reprises, la nécessité de rattraper le retard européen « vis-à-vis de l’Amérique du Nord et de l’Asie » (pt. AF et I).

Du point de vue des PME (auxquelles une section 3.1.7 est consacrée), le Parlement européen considère que l’IA peut « renforcer la compétitivité de l’industrie et des petites et moyennes entreprise » (pt. F), en permettant « une meilleure adaptation aux besoins des consommateurs » (pt. Q) ; cela vaut en de nombreux domaines « tels que la médecine, les finances, la biologie, l’énergie, l’industrie, la chimie ou le secteur public » notamment (pt. T).

Cette Résolution est l’occasion de faire le point sur les modalités de protection de l’IA (1), ainsi que sur leurs limites actuelles (2).

1. Protection de l’IA : droit des bases de données et des logiciels

Le Parlement européen insiste sur le fait que « les régimes et doctrines juridiques existants peuvent s’appliquer en l’état à ce domaine », de sorte qu’aucune nouvelle législation particulière n’est pour l’instant envisagée (pt. 136) ; diverses dispositions peuvent effectivement d’ores et déjà régir les sources comme le fonctionnement de l’IA.

En premier lieu sur ce qui alimente de manière indispensable l’IA, à savoir les bases de données lui permettant de fonctionner, celles-ci font l’objet d’une protection spécifique au sein de l’Union européenne depuis la Directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996, transposée aux art. L341-1 et s. du Code de la propriété intellectuelle ; soulignons que lesdites bases doivent en outre désormais se conformer au Règlement RGPD 2016/679 du 27 avril 2016 si elles impliquent le traitement de données personnelles (voir les précédents articles sur le sujet : Entrée en vigueur du Règlement général sur la protection des données le 24 mai 2018 ; Les données personnelles et le droit français).

En second lieu sur l’essence même de l’IA, celle-ci relève du droit des logiciels, lesquels sont protégés en droit européen depuis la Directive 91/250 du Conseil des Communautés européennes du 14 mai 1991, notamment transposée aux art. L122-6 et s. du Code de la propriété intellectuelle ; cette protection est ainsi intégrée depuis près de trente ans aux droits d’auteur, traités par le premier livre dudit Code.

*

C’est donc sans envisager de prendre dans l’immédiat de nouvelles dispositions spécifiques pour l’IA que le Parlement appréhende la matière, tout en préconisant tout de même des réévaluations régulières de la législation « afin de s’assurer qu’elle soit adaptée à son objectif » (pt. 114), ainsi que des bilans pour « contrôler la pertinence et l’efficacité des règles en matière de propriété intellectuelle » (pt. 136).

2. Contrôle de l’IA : fiabilité des sources et gestion d’exploitation

Le Parlement souligne à plusieurs reprises la priorité humaine sur le système informatique, posant un principe « de responsabilité selon lequel l’humain contrôle la machine » (pt. AK), ou encore qualifiant l’IA « d’outil utile pour compléter l’action humaine et pour améliorer ses performances et réduire les erreurs », sans avoir vocation à la remplacer (pt. 152) ; cela s’illustre tant au niveau de la collecte des données qu’au niveau de leur traitement.

En amont, conscient qu’un système informatique ne sera pas nécessairement capable d’apprécier le degré d’authenticité d’une information, le Parlement invite par exemple la Commission « à veiller à ce que toute personne qui produit des documents ou des vidéos synthétiques comportant des trucages vidéo élaborés ou toute autre vidéo synthétique réaliste déclare explicitement qu’il ne s’agit pas d’un original » (pt. 178) ; il convient, plus généralement, de veiller ainsi à ce que l’IA ne parte pas de postulats erronés si l’on veut s’assurer ensuite de son bon fonctionnement.

En aval, et à titre d’illustration au niveau du traitement des données, le Parlement « fait observer que les technologies de l’IA destinées aux systèmes d’armes automatisés doivent continuer à faire l’objet d’une approche dans laquelle l’homme reste aux commandes » (pt. 150) ; il était apparemment utile de le préciser…

*

Ainsi les aspects éthiques, auxquels la présente Résolution consacre un chapitre entier (5.), apparaissent-ils omniprésents dans la réflexion du Parlement européen qui prône « une technologie centrée sur l’homme » (5.1), tentant de se distinguer en cela notamment des systèmes de crédit social fondés sur l’exploitation d’analyses comportementales adoptés par d’autres pays (pt. 13 et 146).

***

Si la Résolution du Parlement du 12 février 2019 souligne l’urgence qu’il y a désormais à s’adapter aux codes de l’IA en Europe, les prochaines générations devront quant à elles quasiment en faire une seconde langue vivante, ce qui est d’ores et déjà envisagé par le biais de « l’acquisition des compétences numériques, y compris la programmation, dans l’éducation et la formation, depuis l’enseignement fondamental jusqu’à l’apprentissage tout au long de la vie » (pt. 8), le Parlement invitant « instamment les États membres à moderniser leur système d’éducation… et à faire en sorte que les services professionnels de l’Union soient compétitifs à l’échelle internationale dans les décennies à venir » (pt. 121).

Après la course à l’information c’est donc désormais celle à la formation qui est lancée avec l’IA, laquelle pourrait même avoir pris un peu d’avance en la matière, la Résolution indiquant notamment « reconnaître que les algorithmes d’apprentissage automatiques sont entraînés pour apprendre par eux-mêmes… » (pt. 160).

Julie GRINGORE
Février 2019