L’influence de l’intelligence artificielle sur l’organisation et la gestion des entreprises est souvent désignée par les termes de « management algorithmique » ou encore de « management par algorithme ».
L’OIT précise qu’il s’agit de contextes de travail où « des emplois humains sont attribués, optimisés et évalués par l’intermédiaire d’algorithmes et de données suivies ». Ainsi le travail des plateformes soulève des inquiétudes sur la place des algorithmes dans l’organisation du travail, concernant la répartition des commandes et des évaluations notamment.
L’utilisation de l’intelligence artificielle facilite la rencontre entre clients et travailleurs dans les conditions fixées par la plateforme. Ainsi, dans cette économie numérique, les plateformes collectent des données à la fois sur les clients et sur les travailleurs et procèdent à un traitement des données fin et poussé sur l’ensemble des parties prenantes, en les croisant et en appliquant l’auto-apprentissage automatique.
Le management par algorithme se traduit par deux éléments notables : une surveillance renforcée et quotidienne de l’activité des travailleurs et une évaluation quotidienne de leurs performances (à travers les évaluations effectuées par les clients) et les taux d’acceptation ou rejets des tâches mesurés par la plateforme.
Ces évaluations prennent place dans un contexte d’interactions humaines limitées pour les travailleurs (peu de contact avec les employés des plateformes puisque tout se fait via l’interface en ligne).
De même, il y a une grande opacité dans l’organisation du travail. Les algorithmes peuvent par exemple servir à inciter les travailleurs à rester connectés plus longtemps : que ce soit par un système de notification lors des heures de pointe, ou par la possibilité de fixer des objectifs monétaires pour chaque journée de travail qui sont rappelés en fin de journée.
En d’autres termes, le management algorithmique se caractérise également par l’utilisation de « nudge » et sanctions pour stimuler le comportement.
Dans l’ensemble, le recours à l’intelligence artificielle tend à déshumaniser les relations commerciales des travailleurs, avec l’entreprise et les clients. Par exemple, les plateformes proposent des incitations monétaires à travailler les jours de pluie pour les coursiers. Or, travailler lorsque les conditions météorologiques sont dégradées peut aboutir à une prise de risque excessive de la part des travailleurs.
Par ailleurs, il y a un danger de « ludification » de l’environnement de travail, comme le relève le Conseil National français du Numérique. La plateforme AMT (Amazon Mechanical Turk), par exemple, limite les interactions entre les travailleurs et entre les travailleurs et les clients : elle rend la négociation impossible pour le travailleur.
De plus, cette collecte quotidienne de data se fait par des processus complexes, qui génèrent une grande quantité de données et permettent un contrôle constant de l’activité des travailleurs. Elle s’assimile à une intrusion profonde voire excessive dans la vie des travailleurs, qui est inconnue à ce degré dans l’économie. L’enjeu de protection et d’accessibilité des données pour les travailleurs est donc ici posé.
De plus, la lutte contre les discriminations en garantissant la neutralité des algorithmes est un élément important. Les algorithmes étant créés par l’intelligence humaine et comportant de nombreux biais qui peuvent avoir des effets délétères.
Dès lors, le management par algorithme doit démontrer qu’il assure à la fois la protection des données des travailleurs des plateformes et qu’il prévoit des critères permettant de garantir la non-discrimination. En d’autres termes, le management algorithmique doit être fiable et inspirer une forme de confiance dans les outils numériques utilisés par la transparence et des contrôles possibles.
Les algorithmes sont le cœur de l’innovation apportée par l’économie des plateformes. Assurer leur transparence est un enjeu fondamental dans l’équilibre des rapports entre les travailleurs et les plateformes numériques. Ces dernières doivent porter la responsabilité de réfléchir sur le management algorithmique de la relation.
Les systèmes algorithmiques développés par les plateformes numériques constituent l’épicentre de leurs principes architecturaux au sens technique et fonctionnel. En effet, ils sous-tendent toute l’articulation logicielle des plateformes, ils en sont les fondations « rationnelles ». L’infrastructure logique sur laquelle le « raisonnement et la décision artificielle » sont bâtis et déployés.
L’implémentation et l’usage d’une multitude d’algorithmes en font à la fois la complexité et la particularité : chacune des plateformes, possède et utilise ses propres librairies d’algorithmes, au même titre que les données qu’elles collectent, enrichissent, transforment tout au long des processus de traitement de l’information en temps réel.
Ces algorithmes dits « auto-apprenants » améliorent les réponses et les performances des systèmes de fixation des prix, les notations, en continu…
L’automatisation algorithmique détermine ainsi les principes d’allocations des ressources (chauffeurs, coursiers…), conditionne la gestion des horaires, des tarifs…
La question de la neutralité des algorithmes
La question de la neutralité des algorithmes est centrale et épineuse. Elle n’a pas de réponse tranchée et simple à date. En effet, la programmation des algorithmes et des paramètres de décision sont déterminés par des « humains » et induisent nécessairement des biais cognitifs multiples.
De la même façon, il serait vain et erroné de croire que le raisonnement humain pourrait se préserver et être exempt de biais, les neurosciences nous l’enseignent depuis de nombreuses années avec études empiriques à l’appui.
Tout raisonnement fondé sur des critères, des hypothèses requiert sa part d’incertitude, d’inexactitude parfois et mêmes d’erreurs possibles.
En revanche, la volonté d’ouvrir les « boites noires algorithmiques » est une nécessité et sans aucun doute un remède probable à la compréhension des biais algorithmiques, les critères de choix discriminants, s’ils sont faussés ou biaisés peuvent être découverts et mis en lumière au cours de l’analyse d’une chaine d’un traitement et peuvent faire l’objet d’un audit complet et précis ; mais là encore, les processus sont complexes et le diagnostic n’implique pas toujours la bonne thérapie, ou solution corrective, tant les schèmes de décision sont enchevêtrés et imbriqués entre eux.
La neutralité algorithmique est sans doute un vœux pieux, difficilement réalisable, une fois le système déployé, on peut remonter les processus de décisions et définir l’arbitraire, ou constater les biais de décision mais c’est une tout autre affaire que de les corriger sans refondre, repenser l’architectonique d’un système, où données, paramètres, critères, pondération, réponses sont intriqués… certaines plateformes numériques spécialisées dans le traitement « haute fréquence » par exemple (dans le domaine du trading) montrent parfois des variations erratiques, insoupçonnées et insoupçonnables qui conduisent à des désastres qui se produisent à la nanoseconde (aucun cerveau humain ne sait décider à cette vitesse et n’est capable d’expliquer ces « signaux faibles », ces « cygnes noirs »…).
Transparence des processus algorithmiques et détermination des conditions de travail et de rémunération des travailleurs des plateformes
Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme de rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.
Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.
Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle ») le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité.
C’est pourquoi il importe, dans l’attente de la structuration de la réflexion en la matière, de soutenir le développement des outils et méthodologies de prévention des biais discriminatoires. Le tout, selon une logique de « fair learning » (apprentissage équitable), c’est-à-dire avec la conception d’algorithmes répondant, non pas seulement à une logique de performance, mais à des objectifs d’égalité et d’explicabilité.
Les besoins pour les entreprises qui intègrent des plateformes embarquant de l’IA sont de plusieurs natures.
Si l’on accepte de déléguer des tâches à un système « intelligent » ont doit être capable à tout moment de l’auditer, de le questionner sur l’origine des résultats ou sur les choix préconisés.
Un système d’IA auditable (idéal) est en mesure de répondre aux questions clés de l’explicabilité :
– Pourquoi fais-tu cela ?
– Pourquoi ne pas appliquer une autre méthode ?
– Quand ta méthode fonctionne-t-elle ?
– Quand échoue-t-elle ?
– Quand puis-je te faire confiance ?
– Comment corriger une erreur ?
Ce n’est pas encore le cas pour la majorité des solutions embarquant de l’IA. Cela dépend en fait fortement des solutions algorithmiques mises en œuvre : moteurs de règles, systèmes experts revisités, apprentissage supervisé ou non, simple régression, Foret d’arbres décisionnels (Random Forest) qui permettent de l’auditabilité à un bon niveau. Tout dépend de la technologie se cachant derrière le terme générique IA.
Concrètement, tous les domaines d’application sont concernés par ce besoin d’explicabilité de l’IA :
Le transport (semi-autonome, autonome)
La sécurité des données : traçabilité, intégrité, certification
La médecine : choix d’un process thérapeutique plutôt qu’un autre, validation à postériori par une expertise humaine.
La finance : en particulier le trading haute et moyenne fréquence > nécessité de traçabilité et d’explicabilité dans le choix d’une stratégie de trading, qu’elle soit positive ou négative pour celui qui la met en place.
Le juridique : dans l’aide à la décision et l’analyse automatique des grands volumes documentaires juridiques.
Le secteur militaire – défense : robotique militaire et aide à la décision. Autonomie des systèmes armés : comment déléguer l’ordre au système sans être capable de répondre aux 6 questions primordiales ?
Comment réguler le management algorithmique des travailleurs des plateformes ?
Le Sénat a examiné une proposition de loi plaidant pour une assimilation des travailleurs des plateformes à des salariés, en mai 2020. Elle a été rejetée lors de l’examen en commission. Considérant que les plateformes recueillent le fruit du travail tout en se dégageant de leurs responsabilités sociales et en faisant supporter les risques, économiques, mais pas seulement aux travailleurs, la proposition de Loi salue les avançées proposées par les Lois Travail et LOM mais déplore la timidité du législateur.
Elle estime que dans les conditions actuelles, la loi ne garantit pas des droits importants pour les travailleurs, tels le droit à la négociation collective, ainsi que l’obligation pour les plateformes de motiver la rupture du contrat commercial, ni le droit au chômage ou la couverture contre les accidents du travail.
C’est pourquoi, elle promeut l’assimilation des travailleurs des plateformes à des salariés, avec des aménagements qui permettraient de garantir l’indépendance. Les travailleurs des plateformes seraient, par exemple, soumis aux règles sur la durée maximale quotidienne et hebdomadaire de travail, mais en dehors de ces exceptions, ne seraient pas soumis aux règles relatives au temps de travail. Dans le même temps, les travailleurs seraient affiliés au régime général de la sécurité sociale.
Enfin, il était proposé d’approfondir la responsabilité sociale des plateformes, à travers un mécanisme de couverture pour les maladies professionnelles.
Ainsi, nous considérons que la France a malheureusement entériné des avancées dans la protection sociale intéressantes, tout en renforçant le statut d’indépendant des travailleurs des plateformes.
Image par Gordon Johnson de Pixabay