PcEnShort
PcEnArrow

+

  • 19-04-2021
    • Conversation

      Éthique du numérique

Conversation

Éthique du numérique

Conversation avec François Pellegrini

Intelligence artificielle, traitements algorithmiques : François Pellegrini, Professeur à l'Université de Bordeaux, vice-président de la CNIL, nous éclaire sur ces enjeux de société.

Les équipes de la Chaire sollicitent régulièrement des universitaires et professionnels afin de recueillir leur point de vue sur l'actualité des secteurs de la culture et du numérique.

Cette semaine, nous interrogeons François Pellegrini, Professeur à l'Université de Bordeaux, vice-président de la CNIL.

L’intelligence artificielle est-elle une révolution ?

Je dirais que non. D’abord, il n’y a là aucune "intelligence", au sens où nous entendons ce mot. Les ordinateurs restent des machines toujours aussi stupides, qui ne font qu’exécuter le programme qui leur a été fourni. C’est pour cela que je préfère parler de "traitements algorithmiques", terme qui ne projette aucun fantasme anthropomorphe sur les outils en question.

Il existe deux sortes de traitements algorithmiques. Les traitements déductifs, qui constituent l’informatique "à l’ancienne", reviennent à modéliser un problème, proposer un algorithme de résolution (la méthode de calcul d’une pension de retraite, par exemple), et à coder cet algorithme dans un logiciel qui sera exécuté. Ainsi, l’algorithme est connu, et les résultats sont directement déduits des données d’entrée.

Lorsque le problème est trop compliqué à modéliser, parce qu’il contient trop de paramètres, alors la méthode moderne consiste à utiliser des algorithmes destinés à déterminer des corrélations dans les jeux de données qui lui sont fournis. Sur la base de ces données, le logiciel s’auto-configure (je préfère ce terme à celui d’"apprentissage", qui supposerait l’intelligence) pour fournir les résultats attendus. Le pari est alors que lorsqu’on lui fournira de nouvelles données, le résultat rendu par la machine sera conforme (ou meilleur) à celui que fournirait un humain muni des mêmes données d’entrée.

La révolution est donc moins dans l’algorithmique employée (qui est somme toute assez basique) que dans l’augmentation des jeux de données et de la puissance de calcul disponibles, issus de la numérisation globale des activités humaines, qui permet d’appliquer ces traitements algorithmiques à des cas d’usage de plus en plus divers.

Quels sont les enjeux éthiques de l’usage des "traitements algorithmiques" ?

Les traitements algorithmiques sont intrinsèquement conformatifs. Dans le cas des traitements déductifs, l’algorithme est inscrit "en dur" dans le code du logiciel. Dans le cas des traitements inductifs, le but du "moteur" qui analyse les corrélations entre données est également aussi de reproduire le passé dans l’avenir : la "prédiction" est basée sur la double supposition que la corrélation découverte jusqu’alors est liée à une causalité réelle, et que ce comportement se reproduira à l’avenir. Rien de cela n’est garanti !

Il est donc important que les personnes comprennent comment ces traitements fonctionnent, pour ne pas s’inférioriser et renoncer à contester éventuellement les résultats produits par ces dispositifs.

Dans le cas de traitements venant en appui des personnes et opérant dans un espace de données très limité, comme par exemple la détection de tumeurs dans une image médicale, ces traitements peuvent être très utiles, en attirant l’œil du médecin sur une anomalie qui pourrait lui avoir échappé.Imaginer transposer ces dispositifs à des situations beaucoup plus complexes, dans lesquelles le comportement du traitement algorithmique aurait une conséquence directe sur la vie des personnes, est une autre histoire. On le voit bien avec le mythe de la "voiture autonome", qui conduirait dans un environnement humain : cela ne fonctionne pas, car conduire est un acte social complexe (on ne conduit pas de la même façon à Washington et au Caire).

Se pose également la question de l’usage, à l’encontre des personnes, des données collectées. Une fouille de données sur les données médicales de grandes cohortes pourrait permette à des compagnies d’assurance de cibler des profils "coûteux", et donc de démutualiser le risque, portant atteinte aux modèles s’appuyant, au moins partiellement, sur la solidarité. Tout ce qui est vendu comme "prédictif" peut conduire à de graves dérives, parce que, de façon contre-intuitive, cela nie la personne, dont le comportement est supposé conforme à une règle préétablie.

Que faire, alors ? Refuser le progrès ?

Pour répondre à cette question, il faudrait d’abord définir ce qui constituerait un "progrès". Le problème de l’informatisation est que les personnes sont de plus en plus confrontées à de multiples dispositifs qui ont été conçus pour leur prodiguer des services, mais contre lesquelles ces personnes sont démunies lorsqu’elles souhaitent se faire traiter de façon particulière. Contester une décision prise par un automatisme demande de l’énergie aux humains, face à des dispositifs qui ne se déstabilisent ni ne s’épuisent jamais.

Le vrai enjeu éthique est donc, selon moi, de savoir quelle automatisation nous voulons, jusqu’à quel degré. Le "coût" pour les sociétés d’une des-humanisation majeure des interactions pourrait au final se trouver très lourd à payer.

L'équipe de la Chaire PcEn remercie chaleureusement François Pellegrini pour ses réponses à nos questions.

Pour aller plus loin :

- Droit des logiciels, logiciels privatifs et logiciels libres (2013), François Pellegrini et Sébastien Canevet, PUF.