L’événement, qui a reçu le soutien de Google France, avait pour ambition de faire le point sur l’état de la réflexion sur la législation sur l’intelligence artificielle. À cette fin, un panel d’experts aux profils variés a été réuni pour aborder la question sous différents aspects et depuis différentes perspectives : légal, sociétal, technique et entrepreneurial.
La table ronde a été précédée d’un propos introductif de Kent Walker, président des affaires mondiales et directeur juridique de Google and Alphabet. Le panel était composé de :
- Éric Bothorel, député des Côtes-d’Armor, membre de la commission spéciale chargée d’examiner le projet de loi visant à sécuriser et réguler l’espace numérique ;
- Dr. Christian Hübner, Chef de projet IA, Konrad-Adenauer-Stiftung ;
- Emmanuel Lempert, Vice-président pour les relations institutionnelles et Directeur des relations institutionnelles pour le Moyen-Orient, l’Afrique et la France, SAP ;
- Hugo Ruggieri, directeur des Affaires juridiques, Doctrine ;
- Renaud Vedel, préfet, directeur de cabinet du ministre délégué au numérique.
Modération : Alice Pannier, Responsable du programme Géopolitique des technologies, Ifri
La première question s’est attachée à définir si législation et innovation étaient nécessairement antagonistes. Tous les participants se sont entendus pour indiquer qu’une législation trop abondante ou prématurée pouvait en effet être un frein au développement de l’innovation dans le domaine de l’intelligence artificielle, que cela présentait un risque de compétitivité pour les entreprises européennes. Tous se sont ainsi accordés pour mettre en garde contre une future régulation excessivement détaillée car il est impossible de connaître les développements futurs de la technologie. C’est pourquoi il est préférable d’avoir une approche sur les usages plutôt que sur les technologies elles-mêmes.
Dans cette perspective, tous considèrent que la première version de la proposition de règlement européen était de bon niveau. Les deux représentants d’entreprises privées présents recommandent cependant de faire du cas par cas. Selon eux, l’approche par les risques qui sous-tend la législation doit être croisée avec une approche en fonction du secteur d’activité de l’acteur.
Par ailleurs, les intervenants ont donné plusieurs cas de figure dans lesquels la régulation a été facteur de compétitivité pour les entreprises. Par exemple, le RGPD a certes mené les entreprises à mettre en œuvre de nouveaux process mais cette législation a par ailleurs permis d’unifier le marché européen tout en leur offrant plus de flexibilité et de rapidité dans leur mise en conformité.
Dans un second temps, il a été question de l’ambition de l’Union européenne en termes d’intelligence artificielle. Tout d’abord, contrairement à d’autres technologies, les intervenants considèrent que l’Europe n’a pas encore pris de retard significatif.
Cependant, pour que l’UE devienne un hub de l’IA, la question de l’accès aux données est cruciale. Pour ce faire, une harmonisation du marché européen de la data est nécessaire. Cette ouverture des données peut faire l’objet d’un traitement différencié entre usagers, clients et régulateurs.
La question des risques et des opportunités que présente l’IA a irrigué les discussions. Tous ont par exemple rappelé que sans les progrès de l’IA, il n’aurait pas été possible de trouver aussi vite un vaccin contre la COVID-19.
Pour autant, comme l’a reconnu Kent Walker, il est clair que les potentiels de dérives sont importants, comme la manipulation d’informations, d’où la nécessité d’encadrer son usage. Au moment de l’échange avec la salle, il a par ailleurs été rappelé qu’il y aura toujours une différence d’appréciation de ce que l’on considère à risque en fonction des cultures. De plus, pour établir la bonne régulation, il semble nécessaire de trancher question de sur qui la responsabilité reposera : le fournisseur de l’outil ou l’utilisateur ?
En guise de conclusion, un pont a été fait avec le besoin que les sociétés ont aujourd’hui de reconstruire de la confiance. Alors que les démocraties libérales se sentent en danger, l’usage de l’IA pourrait concourir à bâtir un modèle d’open gouvernement en ouvrant davantage la décision publique, en créant de la transparence et donc de la confiance.