On ne parle que de cela ! Quand on ne s’agite pas à juste titre sur les résultats des dernières élections européennes, on se bouscule pour ajouter un mot de plus au débat sur les trottinettes. « Elles nous polluent ! », « Elles nous envahissent ! », « Elles se garent n’importe où ! ». Ces phrases nombreuses laisseraient penser que la trottinette est un être autonome qui agirait de son propre chef. Ce schéma n’est pas sans rappeler le discours assourdissant et obscurant sur les algorithmes : « Les algorithmes sont sexistes et racistes ! » « Les algorithmes nous observent ! » ou encore « Les algorithmes sont puissants ! ». À l’instar des trottinettes, l’algorithme serait seul à agir. Étrange coïncidence qui permet en réalité de souligner une forme de déresponsabilisation des êtres humains face à certaines erreurs. Cela peut sembler drôle, mais tout compte fait les algorithmes sont des trottinettes comme les autres !

On ne le dira jamais assez, les trottinettes ne roulent pas toutes seules, elles sont conçues, construites et utilisées par des humains. Leur accorder une mise en accusation permanente ne fait que déplacer maladroitement le cœur du débat qui doit au contraire se recentrer sur les conducteurs de ces deux roues. Les trottinettes ne sont pas le problème, mais bien leurs utilisateurs. Même si la comparaison avec les algorithmes est osée, elle vaut la peine d’être faite, car les origines du phénomène sont les mêmes : notre désengagement face aux responsabilités. Nous accusons avec audace les algorithmes de chaque erreur générée par la machine, allant jusqu’à attribuer des caractéristiques anthropomorphiques fortes à ces amas d’opérations logiques. En décembre 2018, certains médias ont même prétendu que les machines devenaient folles, à la suite d’un incident dans une usine chinoise où un employé a été empalé accidentellement avec des clous par un robot buggé.

À quelques pas d’un massacre intellectuel

Les algorithmes sont conçus par des humains. Les critères algorithmiques, les conditions ou encore les hypothèses, sont explicitement définis par les concepteurs de ces outils. Dans le cas du machine learning, même si les critères restent implicites, la donnée sur laquelle les algorithmes apprennent est souvent explicitement choisie par les créateurs. Certains utilisateurs ont également des comportements malveillants avec ces outils comme la manipulation d’opinion par l’usage ingénieux, mais machiavélique, des réseaux sociaux. Même si une certaine méconnaissance du fonctionnement des algorithmes peut expliquer cette vision déformée sur leur prétendue culpabilité, le cas des trottinettes justifie à lui seul l’existence d’une cause supplémentaire. Après tout, nous savons pertinemment comment ces trottinettes fonctionnent, il suffit de regarder autour de soi, et pourtant nous évoquons les trottinettes comme le premier coupable. Mais alors comment expliquer un tel raisonnement ? Difficile à dire, mais la réponse est certainement aussi dans les sciences cognitives et pas seulement dans les mathématiques !

Quoi qu’on en pense, il faut sortir d’une culpabilisation systématique des trottinettes et des algorithmes. Avec cette dynamique faussée, nous sommes à quelques pas – très risqués – de construire une personnalité juridique pour la trottinette et l’algorithme. Pire, ils auraient des droits ! Un massacre intellectuel qui nous protège d’une mise en accusation individuelle et collective. Une chose est certaine, à la prochaine accusation des algorithmes il n’est pas idiot d’évoquer le cas des trottinettes pour espérer changer l’opinion publique !


Publié dans Le Point

Docteur en sciences de formation et entrepreneuse, elle navigue depuis plus de 10 ans dans les sciences numériques entre les États-Unis et la France. Aurélie a utilisé ses compétences en mathématiques et programmation informatique dans de nombreuses disciplines telles que l’ingénierie, la médecine, l’éducation, l’économie, la finance ou encore le journalisme. Aurélie s’engage plus généralement à développer un monde technologique inclusif en luttant contre les biais algorithmiques et en communiquant régulièrement et auprès du plus grand nombre sur les technologies numériques et l’intelligence artificielle.

Laisser un commentaire