Les petites cases

De la responsabilité humaine des algorithmes

Comme Nicolas, je dois bien avouer que je suis fatigué par ces articles de journaux, sujets télévisés et autres discussions de comptoirs qui conçoivent l’algorithme comme une entité en soi dont la création et l’exécution seraient immanentes. L’algorithme est devenu peu à peu l’expression d’une peur alimentée par la place grandissante du numérique dans nos vies et de l’incompréhension de beaucoup, en particulier des médias, face aux principes de l’informatique. Mais cela pose un problème de taille : penser ainsi l’algorithme, c’est nier la responsabilité des créateurs et des exécutants de l’algorithme qui sont des humains. Un algorithme n’a pas une vie propre, il n’est que la colonne vertébrale d’un code source écrit et pensé par un humain et dont l’objectif est fini. La responsabilité de la création de l’algorithme en revient donc à son programmeur et de son exécution à la personne ou l’organisation qui en assure l’exploitation au sein de son application et non à l’algorithme lui-même. Il n’existe donc pas une éthique de l’algorithme mais de l’organisation qui le met en oeuvre. Il est alors nécessaire d’appréhender le fonctionnement et les conséquences d’utilisation d’un algorithme pour voir s’il est en adéquation avec la stratégie et/ou l’éthique de l’organisation.

Pour illustrer mon propos, prenons l’exemple de la recommandation de contenus. L’objectif de tous ces algorithmes est grosso modo le même : augmenter la sérendipité pour faire en sorte que l’utilisateur poursuive sa navigation dans le site Web et que l’achat soit converti dans le cas des sites de E-commerce.

Il existe deux stratégies :

  • analyse du comportement (clics, historique de navigation, avis…) de l’utilisateur et comparaison statistique avec le comportement des autres utilisateurs du site, c’est ainsi que fonctionnent les systèmes de recommandation dits « sociaux » qui ont fait la réputation des sites comme Amazon ou Netflix ;
  • analyse des contenus et comparaison entre les contenus pour proposer un contenu proche comme le propose par exemple YouTube.

Techniquement, les premiers s’appuient, selon les principes du machine learning, sur un modèle mis au point à partir de motifs récurrents, auquel sont soumises les nouvelles données, tandis que les seconds s’appuient, en particulier, sur une comparaison de la répartition et la fréquence des mots.

Au delà des aspects techniques, la principale différence entre ces deux stratégies réside dans leurs conséquences. Les premiers qu’on qualifie de “prédictifs” privilégient les contenus qui ont déjà été consultés et a fortiori ceux qui sont le plus consulté. Ils se traduisent par la mise en place d’un effet de longue traîne : seule une petite partie des contenus sont les plus vus, tous les autres sont assez peu voire jamais consultés. Dans le cas où vous disposez d’un corpus où le nombre de ressources est très important, vous allez vous retrouver avec de très nombreux contenus qui ne proposeront pas de recommandations, car ils n’ont jamais été consulté ou alors si peu que la distribution statistique ne se révèle pas pertinente. Les seconds reposent uniquement sur l’analyse du contenu lui-même ou plutôt de ses métadonnées. Tous les contenus disposent de rebonds, sauf cas très exceptionnel et, de plus, il ne va pas privilégier les contenus en fonction des statistiques de consultation. C’est pourquoi je qualifierais ces algorithmes de “prescriptifs”.

Alors, prédictifs ou prescriptifs ? Faut-il privilégier la diversité et la masse avec les algorithmes prescriptifs ou ne valoriser que le contenu consommé par le plus grand nombre avec les algorithmes prédictifs ? Il n’est pas question de juger si un type d’algorithme est meilleur ou plus éthique que l’autre. Il s’agit d’avoir conscience des différences et du fait que le choix de l’algorithme devient le reflet de la stratégie d’une organisation. Il s'agit donc bien d'une question éthique qui engage sa responsabilité. A titre personnel, j’avoue me poser cette question avec d’autant plus d’acuité que je travaille pour une institution publique à vocation patrimoniale. Ce choix est alors tout sauf innocent….

En guise de conclusion, je vous propose un extrait de l'épisode 11 de la saison 2 de Mr Robot dans lequel un des personnages secondaires dialogue avec son assistant personnel intelligent type Siri et montre bien que les intelligences artificielles ne répondent qu'aux questions pour lesquelles elles ont été programmées... (Vu la nature de la vidéo, il est fort probable qu'elle ne fasse pas long feu sur DailyMotion, désolé, si elle n'apparaît plus...)


Mr Robot - S02E11
Causeries Indexation