Ce billet fait suite à celui de la semaine dernière, recension de la première partie de l’ouvrage de Luciano Floridi, L’éthique de l’intelligence artificielle, Éditions Mimesis, Philosophie n°93, 2023, disponible ici.

Nous nous intéressons dans ce billet à quelques points éthiques et épistémologiques développés dans la seconde partie, sans vouloir être exhaustif de l’ensemble des sujets traités par Floridi dans son ouvrage.

Deuxième partie : évaluer l’IA

Dans cette deuxième partie, Floridi propose une investigation théorique des conséquences de ce divorce qu’il a mis en lumière, en s’attachant notamment aux implications éthiques qui en découlent : l’IA est une nouvelle forme d’agir qui peut être exploitée de manière éthique et non éthique.

Un cadre unifié de principes éthiques pour l’IA

Après avoir fait le constat d’une pluralité de principes éthiques qui ont fleuri depuis quelques années, pluralité à la fois de principes mais également de sources à l’origine de ces principes, Floridi met en lumière le risque de cette multiplication quant au brouillage du message potentiel qui en résulte.

Il mène alors une analyse comparative de six ensembles de principes éthiques publiés par des institutions reconnues depuis 2017, qui rassemblent en tout 47 principes dont les différences tiennent majoritairement à des variations linguistiques.

Dans l’ensemble, ces six propositions peuvent converger en six ensembles de principes qui sont proches de ceux utilisés en bio-éthique :

  • Bienfaisance : promouvoir le bien-être, préserver la dignité et assurer la pérennité de la planète.
  • Non-malfaisance : vie privée, sécurité, prudence en matière de capacité.
  • Autonomie : le pouvoir de “décider de décider”.
  • Justice : promouvoir la prospérité, préserver la solidarité, éviter l’injustice.
  • Explicabilité : permettre les autres principes par l’intelligibilité et la responsabilité.

Si l’on poursuit le parallèle avec la bioéthique, seul le dernier principe relève véritablement d’un nouveau principe propre à l’IA.

Des principes aux pratiques

Dans le chapitre suivant, Floridi analyse chacun des risques qui découlent de la prolifération des principes ; il en pointe cinq :

  • Le shopping éthique : face à la prolifération des principes, “le principal risque contraire à l’éthique est que toute cette hyperactivité crée un “marché des principes et des valeurs” où les acteurs privés et publics peuvent rechercher le type d’éthique le plus adapté pour justifier leurs comportements actuels plutôt que de réviser lleurs comportements ou les rendre cohérents avec un cadre éthique socialement accepté”1.
  • Le bluewashing éthique : ou blanchiment éthique numérique : il s’agit d’une mauvaise pratique consistant à faire des déclarations non fondées ou trompeuses sur les valeurs éthiques et les avantages des processus, produits services ou autres solutions numériques, ou à mettre en oeuvre des mesures superficielles en leur faveur, afin de paraître plus éthiques qu’on ne l’est2. La meilleure stratégie contre le bluewashing est celle adoptée contre le greenwashing : la transparence et l’éducation3.
  • Le lobbying éthique : mauvaise pratique consistant à exploiter l’éthique numérique pour retarder, réviser, remplacer ou éviter une législation bonne et nécessaire (ou son application) concernant la conception, le développement ou le déploiement de processus, produits, services ou autres solutions numériques4.
  • Le dumping éthique : expression inventée en 2013 par la Commission européenne pour décrire l’exportation de pratiques de recherche non éthiques vers des pays où les cadres juridiques et éthiques et les mécanismes d’application sont plus faibles5.
  • L’esquive éthique : principe du “deux poids deux mesures”. L’erreur consiste à faire de moins en moins de “travail éthique” dans un contexte donné, plus le rendement perçu de ce travail éthique dans ce contexte est faible.

Pour reprendre une métaphore déjà introduite, la meilleure façon d’attraper le train de la technologie n’est pas de le poursuivre, mais d’être déjà à la prochaine station. Nous devons anticiper et orienter le développement éthique de l’innovation technologique. Nous pouvons le faire en examinant ce qui est réellement faisable. Dans le cadre de ce qui est faisable, nous pouvons privilégier ce qui est écologiquement durable, puis ce qui est socialement acceptable, et enfin, idéalement, choisir ce qui est socialement préférable6.

Cartographier l’éthique des algorithmes

Après avoir analysé les principes, Floridi porte son attention sur les débats relatifs à l’éthique des algorithmes. Prenant acte de l’absence de définition claire de ce qu’est un algorithme, il propose de le prendre comme des “constructions mathématiques mises en oeuvre sous forme de programmes et de configurations (applications)”7. À partir de là, il propose de définir et de présenter six préoccupations éthiques qui définissent l’espace conceptuel de l’éthique des algorithmes.

Nous présenterons un certains nombre de ces préoccupations et de leurs manifestations.

  • 1. Preuves non-concluantes : fait référence à la manière dont les algorithmes de machine learning non-déterministes produisent des sorties exprimées en termes probabilistes (James et al., 2013 ; Valiant, 1984). Ces types d’algorithmes identifient généralement l’association et la corrélation entre les variables dans les données sous-jacentes, mais pas les connexions causales. En tant que tels, ils peuvent encourager la pratique de l’apophénie : “voir des modèles là où il n’y en a pas, simplement parce que des quantités massives de données peuvent offrir des connexions qui rayonnent dans toutes les directions” (Boyd et Crawford, 2012, p. 668). Cela pose la question :
    • De la qualité du jeu de données (Olteanu et al., 2016).
    • De la quantité d’informations disponibles dans un jeu de données (Olhede et Wolfe, 2018).
    • Des hypothèses qui ont guidé le processus de collecte de données (Diakopoulos et Kolista, 2017).
  • 2. Preuves insondables : se concentre sur les problèmes liés au manque de transparence qui caractérise souvent les algorithmes (en particulier de machine learning), l’infrastructure sociotechnique dans laquelle ils existent et les décisions qu’ils soutiennent. Le manque de transparence peut dès lors être :
    • Inhérent aux limites de la technologie.
    • Acquis par des décisions de conceptions et par obscurcissement des données sous-jacentes (Lepri et al., 2018 ; Dahl, 2018 ; Ananny et Crawford, 2018).
    • Découler de contraintes juridiques en termes de propriété intellectuelle.

Les causes peuvent être de différentes natures : impossibilité cognitives pour des humains d’interpréter des modèles algorithmiques et des jeux de données massifs ; manque d’outils pour visualiser et suivre de grands volumes de données ; codes et données mal structurées et impossibles à relire ; mises à jour permanentes et influence humaine sur le modèle ; processus d’apprentissage stochastique (deep learning).

Il y a alors deux façons principales explique Floridi d’aborder cette question de la transparence :

  1. Procédures documentaires, comme celles déployées dans l’industrie électronique : “chaque composant, aussi simple ou complexe soit-il, est accompagné d’une fiche technique décrivant ses caractéristiques de fonctionnement, les résultats des tests, l’usage recommandé” (Gebru et al., 2020, p. 2).
  2. L’audit des systèmes algorithmiques : vérifier si les algorithmes présentent des tendances négatives, audit en détail d’une piste de prédiction ou de décision.

Les procédures de transparence efficaces sont susceptibles, et même devraient, impliquer une explication interprétable des processus internes de ces systèmes8.

L’explicabilité est particulièrement importante si l’on considère le nombre rapidement croissant de modèles et de jeux de données open-source et faciles à utiliser. De plus en plus, des non-experts expérimentent des modèles algorithmiques de pointe largement disponibles via Github, sans toujours bien saisir leurs limites et leurs propriétés (Hutson, 2019)9.

  • 3. Preuves erronées : les développeurs cherchent principalement à s’assurer que leurs algorithmes exécutent les tâches pour lesquelles ils ont été conçus. Le type de pensée qui guide les développeurs est donc essentiel pour comprendre l’émergence de préjugés dans les algorithmes et la prise de décision algorithmique. C’est ce que des chercheurs ont appelé le “formalisme algorithmique”. Si cette approche est utile pour abstraire et définir les processus analytiques, elle tend à ignorer la complexité sociale du monde réel (Katell et al. 2020). Elle peut donc conduire à des interventions algorithmiques qui s’efforcent d’être “neutres” mais qui, ce faisant, risquent d’enraciner les situations sociales existantes (Green et Viljoen, 2020, p. 20).

  • 4. Effets transformateurs menant à des défis pour l’autonomie : L’impact collectif des algorithmes a suscité des discussions sur l’autonomie dont bénéficient les utilisateurs finaux […]. Les limites à l’autonomie des utilisateurs proviennent de trois sources :

    • Distribution omniprésente et proactivité des algorithmes pour éclairer les choix des utilisateurs (Yang et al., 2018 ; Taddeo et Floridi, 2018) ;
    • Compréhension limitée des algorithmes par les utilisateurs ;
    • Absence de pouvoir de second ordre (ou des recours) sur les résultats algorithmiques (Rubel, Castro, et Pham, 2019)10.

En termes de solutions pour contrecarrer ces limites, Floridi mentionne en particulier la méthode de recherche et d’innovation responsable (RIR), c’est-à-dire la “conception participative” qui met l’accent sur la conception d’algorithmes visant à promouvoir les valeurs des utilisateurs finaux et à protéger leur autonomie (Whitman, Hsiang, et Roark, 2018 ; Kattel et al., 2020)11.

La conception participative vise à “intégrer les connaissances tacites et l’expérience incarnée des participants dans le processus de conception” (Whitman, Hsiang, et Roark, 2018). Par exemple, le cadre conceptuel de la “société-dans-la-boucle” (society in the loop) vise à permettre aux différentes parties prenantes de la société de participer à la conception et à la mise en oeuvre d’un projet (Rahwan, 2018), de concevoir des systèmes algorithmiques avant leur déploiement, et de modifier ou d’annuler les décisions des systèmes algorithmiques qui sous-tendent déjà les activités sociales. Ce cadre vise à maintenir le bon fonctionnement du “contrat social algorithmique”, défini comme “un pacte entre diverses parties prenantes humaines, médié par des machines” (Rahwan, 2018)12.

  • 5. Traçabilité menant à la responsabilité morale : Aujourd’hui, l’incapacité à saisir les effets involontaires du traitement et de la commercialisation en masse des données personnelles, un problème familier dans l’histoire des technologies (Wiener, 1950, 1989 ; Klee, 1996 ; Benjamin, 2019) se double des explications limitées que fournissent la plupart des algorithmes de machine learning. Cette approche risque de favoriser l’évitement de responsabilité par un déni du type “l’ordinateur l’a dit” (Karppi, 2018). Cela peut conduire des experts de terrain, tels que les cliniciens, à ne pas remettre en question la suggestion d’un algorithme, même si elle leur semble étrange (Watson et al. 2019). L’interaction entre les experts de terrain et les algorithmes de ML peut susciter des vices épistémiques comme le dogmatisme et la crédulité (Hauer, 2019) et entraver l’attribution de la responsabilité dans les systèmes distribués (Floridi, 2016).

Bonnes pratiques : l’utilisation appropriée de l’IA pour le bien social (IApBS)

Identification de sept facteurs pour une AIpBS réussie13 :

  1. Falsifiabilité et déploiement incrémental ;
  2. Garanties contre la manipulation des prédicteurs ;
  3. Intervention adaptée au contexte du récepteur ;
  4. Explication adaptée au contexte du récepteur et objectifs transparents ;
  5. Protection de la vie privée et consentement de la personne concernée ;
  6. Équité situationnelle ;
  7. Sémantisation adaptée aux humains.
  1. p. 133. 

  2. p. 135. 

  3. p. 136. 

  4. pp. 137-138. 

  5. p. 139. 

  6. p. 162. 

  7. p. 170. 

  8. p. 162. 

  9. p. 182. 

  10. Voir, sur ces points, les pp. 190-194. 

  11. p. 191. 

  12. p. 192. 

  13. p. 250.