La Commission européenne a défini sept éléments essentiels pour parvenir à une intelligence artificielle (IA) digne de confiance. Elle lance une phase pilote afin de faire en sorte que les lignes directrices en matière éthique pour le développement de l'IA puissent être mises en œuvre dans la pratique.
À la suite de la publication de sa stratégie européenne sur l'intelligence artificielle (IA) en avril 2018, la Commission européenne a mis en place un groupe d'experts de haut niveau sur l'IA, composé de 52 experts indépendants représentant le monde universitaire, l'industrie et la société civile. Ce groupe d'experts a publié un premier projet de lignes directrices en matière d'éthique en décembre 2018. Puis, ont été organisées une consultation des parties prenantes et des réunions avec des représentants des États membres afin de recueillir des réactions et retours d'informations.
Désormais, l'exécutif européen veut aller plus loin en lançant lune phase pilote afin de faire en sorte que les lignes directrices en matière éthique pour le développement de l'intelligence artificielle (IA) puissent être mises en œuvre dans la pratique. L'industrie, les instituts de recherche et les autorités publiques sont invités à tester la liste d'évaluation détaillée élaborée par le groupe d'experts, qui complète les lignes directrices.
« Aujourd'hui, nous avons franchi une étape importante sur la voie d'une IA éthique et sûre dans l'UE. Nous disposons désormais d'une base solide fondée sur les valeurs de l'UE et qui résulte d'un engagement profond et constructif de la part de nombreuses parties prenantes, y compris les entreprises, le monde universitaire et la société civile. Nous allons maintenant mettre ces exigences en pratique et, dans le même temps, favoriser un débat international sur une IA axée sur le facteur humain » explique Mariya Gabriel, commissaire chargée de l'économie et de la société numériques.
7 principes pour une IA éthique
Selon la Commission, sept éléments sont essentiels pour parvenir à une IA digne de confiance :
- Facteur humain et contrôle humain: les systèmes d'IA devraient être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine.
- Robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA.
- Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
- Transparence : la traçabilité des systèmes d'IA doit être assurée.
- Diversité, non-discrimination et équité : les systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
- Bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
- Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.
À l'issue cette phase pilote, au début de l'année 2020, le groupe d'experts sur l'IA dressera un bilan des listes d'évaluation des exigences clés, en se fondant sur les retours d'informations reçus. En fonction des résultats obtenus la Commission européenne proposera d'éventuelles prochaines étapes.
Arnaud Dumourier (@adumourier)
Suivre @adumourier