A propos du management par les algorithmes (premier volet)

Par Stephen Bouquin // Le travail se numérise de manière fulgurante. Depuis le début de la pandémie, cette numérisation s’est amplifiée au point où elle envahit désormais toutes les sphères de la vie sociale. Dans cet article, nous proposons d’analyser en profondeur les effets de cette numérisation. L’enjeu est de taille : soit nos sociétés glissent toujours plus vers un futur dystopique digne de 1984 ou de Brave New World soit un sursaut démocratique et social fait que notre avenir restera digne d’être vécu.

L’usage du numérique a commencé bien avant l’arrivée des ordinateurs et d’internet. En effet, les premières machines à commande numérique étaient calibrées à l’aide d’algorithmes et sont apparus dans l’industrie à la fin des années 1940. C’est seulement dans les années 1970, lorsque certaines contraintes techniques furent dépassées, que la première vague de robotisation se développa. Dans les années 1990, les constructeurs du secteur automobile ont imposé aux opérateurs d’apposer une « signature » à leur travail. Ainsi, les opérations de travail devenaient traçables, facilitant un contrôle de qualité intégré au process productif. Au cours des années 2000, le numérique a fait son apparition du côté des chauffeurs-livreurs, dotés de systèmes de navigation embarquée et s’est étendu du côté des préparateurs de commandes dans les dépôts de logistique, des postiers ou encore des techniciens et cadres contraints de fonctionner avec des progiciels. Aujourd’hui, la numérisation s’amplifie avec le télétravail et la mise en réseau des activités de production et de service. Les services publics se numérisent tandis que dans l’éducation nationale, les élèves et les enseignants sont sommés d’intégrer des espaces numériques d’apprentissage.

Partout où il se manifeste, le numérique facilite la mesure comparative de la performance, non seulement du côté des salariés mais également des fournisseurs, prestataires ou sous-traitants. Il s’agit bel et bien d’une révolution technologique de premier ordre. Reste à savoir comment l’appréhender et comment y résister, si tant est qu’il faut le faire…

Pour élucider cette question, il faut avant tout commencer par briser le secret du « code source », à savoir comprendre la nature de la « révolution numérique ». Pour concrétiser cela, je propose de procéder en deux temps : primo, il faut commencer par déchiffrer ce qu’est le numérique dans sa réalité la plus concret et pratique ; secundo, il faut conceptualiser de manière adéquate l’innovation technologique en général, numérique en particulier. Le numérique mobilise des informations fragmentaires sur lesquelles s’opèrent des opérations logiques. L’informatique traite ces informations sur un mode binaire, en mobilisant des langages qui organisent le classement de ces informations de manière complexe. C’est ici que l’algorithme fait son apparition. Pour Gérard Berry, chercheur en science informatique, un algorithme c’est :« tout une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose . Il se trouve que beaucoup d’actions mécaniques, toutes probablement, se prêtent bien à une telle décortication. Le but est d’évacuer la pensée du calcul, afin de le rendre exécutable par un automate numérique. On ne travaille donc qu’avec un reflet numérique du système réel avec qui l’algorithme interagit. »

Il ne s’agit donc pas seulement d’un raisonnement mais aussi d’une action, au vrai sens du terme . Le script codé est chargé d’une finalité concrète à savoir résoudre un problème [1] donné. Un algorithme n’est donc rien d’autre qu’une suite finie et non ambiguë d’opérations et d’instructions qui permettent de résoudre une classe de « problèmes ». Ceci permet à son tour de mobiliser de manière standardisée l’évaluation de l’effectivité [2] .

L’usage des algorithmes dans la programmation de tâches automatisées ne date pas de hier. Après la seconde guerre mondiale, les machines à commande numérique ont fait leur entrée dans l’industrie. Là aussi, un algorithme dictait à la machine ce qu’il fallait faire, comme par exemple arrêter l’usinage d’une pièce dès qu’une « tolérance critique » fut atteinte. L’algorithme a donc besoin d’informations et d’instruments de mesure, de capteurs fiables, faute de quoi le codage algorithmique devient caduc et dysfonctionnel. Dans ses développement récents, rendus possibles par l’interconnectivité apportée par internet, ces informations sont extraites à partir de l’activité de ceux qui utilisent ces machines.

Aujourd’hui, les algorithmes sont une composante essentielle du fonctionnement des réseaux et de « l’intelligence artificielle » qui correspond en réalité à une sorte d’intelligence programmée qui reste dépendante de cette dernière. Avec internet et la constitution de larges bases de données (les big data), les algorithmes se sont démultipliés à tous les niveaux. Chaque année, plusieurs centaines de milliers d’étudiants voulant s’inscrire à l’université sont orientés par l’algorithme de « Parcoursup ». Les échanges sur les réseaux sociaux sont organisés par des algorithmes. La navigation sur internet alimente les centres de données et sont traités par des algorithmes. Les caméras de surveillance font le tri dans les images à l’aide d’algorithmes. Inutile de poursuivre la liste des exemples, les algorithmes sont effectivement partout [3].

Les philosophes Thomas Berns et Antoinette Rouvroy ont identifié l’émergence de cette réalité comme une « gouvernementalité algorithmique » [4]. En effet, les algorithmes permettent de classer les comportements hétérogènes, ce qui permet de brasser un océan de données, pour les traiter, les trier, les personnaliser et les insérer dans des instructions de commandement. Le code source de l’informationnel algorithmique contient donc une puissance de « faire faire », ce qui, dans un environnement où le pouvoir est inégalement distribué, en fait une arme redoutable…

Mais il ne suffit pas de briser le secret du « code source » algorithmique, il tout aussi essentiel de conceptualiser de manière adéquate l’instance technologique. Bien souvent, l’analyse sociologique tend à considérer le numérique comme un dispositif technique, comme une « chose », certes abstraite, mais une chose quand-même. Une telle approche nous fait voir que le dispositif tout en laissant hors champ les rapports sociaux de production, de propriété, de pouvoir et surtout les contradictions qui les travaillent. Pour ma part, je préfère résister à la tentation du « fétichisme numérique » [5], avatar d’un déterminisme technologique que les sociologues ou économistes reproduisent encore souvent. La raison est simple, ce fétichisme numérique fausse notre compréhension et nous oriente soit vers l’optimisme béat (l’émancipation par le numérique) soit vers un catastrophisme paralysant (l’humanité sera dominée par les robots). Or, notre avenir ne sera ni l’un ni l’autre mais seulement ce qu’on nos actions sociales réussiront à empêcher et à faire advenir…

La technologie numérique n’est donc pas une sorte de force autonome mais seulement un dispositif d’agencement des rapports sociaux de production. Les informations numériques sont à la fois force productive et marchandise, tout comme la force de travail au demeurant. Loin d’être neutres, elles répondent à un double objectif : maximiser la profitabilité et minimiser les risques (la concurrence, la rétention de productivité par le travail vivant). Le numérique algorithmique n’est donc rien d’autre qu’un rapport social dédoublé, qui aussi assujettissant qu’il puisse être, engage toujours le travail vivant et demeure donc dépendant de ce dernier. Ce qui signifie que le pouvoir du numérique algorithmique demeure contingent, tout autant que celui du capital sur le travail. Dit autrement, dans l’antagonisme qui oppose capital et travail, il faut comprendre pourquoi on est perdant et comment on ne l’est pas forcément tout le temps… Par conséquent, si la technologie n’est pas neutre mais une relation socio-technique sous contrôle du management (ou de l’entreprise-plateforme), elle devient en même temps un terrain contesté, de luttes et d’oppositions.

L’algorithme comme puissance de « faire faire »

Dans le contexte actuel, il est certain que les algorithmes créent de nouvelles possibilités pour contrôler et diriger l’activité de travail. Cette puissance algorithmique s’exerce de plusieurs manières qu’on peut distinguer facilement. Les algorithmes permettent de recommander, de restreindre, d’enregistrer, d’évaluer, de remplacer et de récompenser. L’ensemble de ces actions viennent renforcer les modalités de contrôle dont le management dispose déjà et qui s’organisent autour du contrôle technique et bureaucratique [7] .

La recommandation renvoie à l’usage de scripts offrant des suggestions destinées à inciter un opérateur à prendre les décisions préférées de l’architecte de choix [8] . Cependant, contrairement aux régimes de contrôle technique et bureaucratique-rationnel, la recommandation algorithmique guide les décisions des travailleurs en identifiant des récurrences, grâce aux schémas d’apprentissage automatisés (machine learning). Le travailleur est donc invité à se conformer à un scénario fixé par le programme.

En général, ces recommandations prennent la forme du nudging [9] – une sorte d’incitation subtile et paternaliste – que l’on peut difficilement ignorer. Par exemple, Uber s’est engagé dans un processus de nudging individualisé en temps réel pour inciter les chauffeurs à rentrer chez eux lorsque trois passagers consécutifs signalaient qu’ils ne se sentaient pas en sécurité [10]. Un autre exemple : Uber s’est appuyé sur des données personnalisées telles que la vitesse de freinage et d’accélération, pour analyser si les chauffeurs conduisaient de manière erratique pour recommander de manière algorithmique le moment où ils pourraient avoir besoin de se reposer [11]. Signalons aussi que les helpdesks utilisent des systèmes qui trient les messages écrits suivant leur degré d’agressivité.

La plupart des enquêtes convergent pour dire que recommandations algorithmiques ont des effets négatifs sur les conditions de travail [12] . Dans la logistique des entrepôts, les systèmes de recommandation algorithmiques s’appuient sur des catégorisations opaques. Par exemple, le système de recommandation d’Amazon approvisionne ses entrepôts à l’aide d’un algorithme de stockage chaotique, qui attribue des marchandises sur les étagères en fonction de l’espace et de la disponibilité. Comme la logique algorithmique reste opaque, les travailleurs ne peuvent plus se fier à leur propre cognition pour trouver des articles et n’ont aucun moyen de trouver des articles lorsque le serveur tombe en panne… [13] . Dans le domaine de la santé, où la recommandation par algorithme est appliquée au niveau des diagnostics en ligne, les enquêtes indiquent que ce mode opératoire augmente le doute et l’incertitude parmi les professionnels en termes de décisions à prendre [14] .

Pour les travailleurs, les recommandations algorithmiques ne sont pas forcément intelligibles, ce qui peut provoquer des frustrations et nourrir des sentiments de dépossession et d’aliénation. Forcément, le dirigisme algorithmique va mettre sous tension la coopération dans le travail puisque celle-ci s’organise autour de process automatisés.

La restriction est un deuxième mécanisme de contrôle qui passe par l’utilisation d’algorithmes qui déterminent l’affichage sélectif d’informations afin d’induire des comportements spécifiques et d’en empêcher d’autres. La plateforme de recrutement Upwork a utilisé des chatbots (robots de dialogues) pour signaler aux téléopérateurs leur engagement de ne pas travailler en dehors de la plateforme, et ce dès qu’ils utilisent certains mots tels que Skype, Smartphone ou courriel dans leurs conversations avec les clients. La restriction se fonde également sur la rétention d’information. Ainsi, Uber n’indique pas le lieu où se trouve le passager à transporter, ce qui empêche le chauffeur de mesurer la « profitabilité » d’un trajet avant d’accepter la course. Uber et Lyft utilisent également l’algorithme forward dispatch qui attribue la course suivante avant la fin de la course en cours. Les chauffeurs peuvent mettre en pause cette fonction, mais dès qu’ils acceptaient leur prochaine course, la fonction est réactivée. On comprend que l’algorithme fonctionne ici comme un dispositif de subordination des chauffeurs et que leur acceptation de la course n’est qu’un alibi pour leur imposer un statut de chauffeur indépendant. La restriction algorithmique permet aussi de limiter les possibilités de « prise de parole » de la part des travailleurs. Les systèmes de feedback en ligne combinent de manière interactive les expériences et les évaluations des travailleurs en ne sélectionnant que les expressions positives [15].

La restriction algorithmique tend à renforcer la précarité. Les plateformes à médiation algorithmique peuvent fragmenter les efforts de plusieurs travailleurs interconnectés sans qu’ils le sachent. Le travail fragmenté se fait avant tout avec des travailleurs indépendants, « utilisateurs » de ces plateformes, plutôt que comme des employés salariés. L’usage de l’algorithme permet de remplacer le rapport de subordination – variablement présent dans le rapport salarial – par une sorte de subordination à la puissance algorithmique. L’activité décomposée en micro-tâches permet alors d’atomiser le collectif de travail pour ensuite le réassembler de manière opaque.

L’évaluation algorithmique est une autre modalité de contrôle. L’examen de l’activité des travailleurs permet de corriger les erreurs, d’évaluer la performance et d’identifier les « canards boiteux ». Mais cette évaluation exige un enregistrement permanant de l’activité ce qui permet d’identifier les groupes informels qui interagissent fréquemment, de relier ces groupes informels à la productivité et d’identifier les liaisons et les isolats de communication, et bien sûr aussi de repérer les orientations oppositionnelles [16].

Dans l’industrie du transport de marchandises, les employeurs ont perfectionné leurs systèmes de gestion de flotte pour intégrer un large éventail de données concernant les chauffeurs, y compris l’efficacité énergétique du conducteur, le temps de marche au ralenti, la géolocalisation, la fréquence des sorties de voie, les schémas de freinage et d’accélération, le statut de la cargaison et les informations sur l’entretien du véhicule[17]. En organisant sur une base algorithmique la livraison de colis, la société UPS applique l’adage « petites quantités de temps = grandes quantités d’argent », calculant qu’en économisant une minute par jour par chauffeur-livreur, elle pourrait générer une économie près de 15 millions de dollars par an [18] . Au vue de tels chiffres, on peut se demander pourquoi le management se gênerait en effet

Tout comme pour le contrôle bureaucratique, le management utilise l’enregistrement algorithmique pour informer les travailleurs à propos de leur évaluation. Ce qui est une manière de mettre les personnes sur la défensive, comme étant toujours insuffisamment performants. Mais contrairement au contrôle bureaucratique, l’enregistrement algorithmique utilise ces procédures pour fournir un retour en temps réel. Lorsque l’activité est enregistrée en permanence, ce qui est de plus en plus le cas, les travailleurs reçoivent ces informations en temps réel, indiquant qu’ils sont « en retard » dans la réalisation de leur volume d’activité. Lorsque le score est systématiquement trop bas, une alerte se déclenche et le superviseur robotisé signalera la nécessité de réorienter le travailleur…

Dans le monde de la gig economy, les évaluations algorithmiques se focalisent sur la valeur « réputationnelle ». Du covoiturage aux plateformes de travail, les bonnes évaluations assurent la visibilité de la prestation de travail ou du service, ce qui détermine le potentiel de valorisation. Par exemple, sur la plateforme de services de soin Care.com, les notations algorithmiques sont utilisées pour créer différentes catégories de travailleurs. Le label Care-Pros ne mentionnera que les soignant.e.s avec une note élevée, répondant à 75 % des appels dans les 24 heures. Une telle valorisation des « champion.ne.s » se retrouve sur l’ensemble des sites d’intermédiation qui visibilisent les plus performants. Mais comme l’a rappelé Antonio Casilli, sur les sites comme Mechanical Turk d’Amazon comme ailleurs, les champions sont aussi des brokers, des micro-employeurs qui mobilisent des « petites mains » afin de maintenir leur sur-visibilité. En même temps, sur les plateformes de micro-services, ce type de notations conduisent les prestataires à fausser les données. Si les algorithmes poussent les micro-travailleurs à l’auto-exploitation afin d’augmenter leurs chances d’obtenir une commande future, cette conduite nourrit aussi une prise de conscience qui peut donner lieu à un comportement opportuniste, déloyal ou encore oppositionnel.

Plus globalement, les algorithmes fonctionnent comme des dispositifs disciplinaires qui sanctionnent et récompensent. Dans le cas d’un contrôle organisationnel par la technique, la loyauté des salariés est assurée par le recrutement d’une armée de travailleurs secondaires (intérim ou CDD) prêts à remplacer les travailleurs primaires en CDI qui ne coopèrent pas suffisamment avec l’employeur. Dans le cas d’un contrôle bureaucratique, la discipline est obtenue par des mesures incitatives et des sanctions. Les travailleurs ayant le comportement souhaité seront récompensés par des promotions, des salaires plus élevés, des postes à plus grande responsabilité ou des tâches plus intéressantes, tandis que ceux qui n’ont pas le comportement souhaité sont exposés aux brimades et au harcèlement.

Les plateformes peuvent très bien « bannir » un travailleur non coopératif ou insuffisamment performant [19]. Sur des plateformes comme Mechanical Turk d’Amazon, les travailleurs qui ne se conforment pas aux consignes seront soit bannis de la plateforme, soit sanctionnés en rendant leur profil difficile à trouver. Dans la gestion des ressources humaines « guidé » par algorithme, les profils instables, susceptibles de quitter l’entreprise sont tout de suite identifiés [20]. Les agences intérimaires ont déployé des algorithmes pour analyser le parcours et le développement d’une carrière et identifier les profils à « haut potentiel » versus des profils « stagnants » ou « paresseux ». La récompense algorithmique forme un mécanisme de contrôle interactif et dynamique qui soutient les travailleurs les plus performants en leur offrant davantage d’opportunités, une rémunération ou des promotions.

Du côté des plates-formes d’usage partagé, tout est fait pour garder les algorithmes de notation et de récompense secrets afin de décourager la manipulation et l’inflation des notes. Dans le marché du travail en ligne hautement qualifié, les plateformes sont passés d’un système d’étoiles transparent à un système opaque. Ne sachant plus ce sur quoi l’évaluation se fait, ni de la manière dont les évaluations sont utilisées, ni des raisons pour laquelle des propositions sont rejetées, le sentiment d’aliénation explose, ce qui nourrit la méfiance et l’esprit critique.

Si les algorithmes fournit un nouvel arsenal de contrôle au management, la puissance de ce « faire faire » n’annule pas la possibilité de s’y opposer ; elle ne fait que déplacer le domaine du conflit et de la lutte. Comme je l’ai développé dans mes recherches, je pense qu’il est essentiel de comprendre que les innovations technologiques font partie intégrante d’une sorte de « luttes des classes » telle qu’elle est menée par « en-haut », c’est-à-dire par l’employeur ou le management et qu’elle ne peut donc annuler celle-ci. Tôt ou tard, des résistances sociales, individuelles ou collectives, réapparaissent. Il est donc essentiel d’intégrer cette dimension conflictuelle dans l’analyse des algorithmes au travail, tant pour comprendre leur raison d’être que les limites de leur efficacité.

Ceci est d’autant plus vrai que le management algorithmique affecte profondément la subjectivité des travailleurs. On pourrait penser que cette surveillance conduit les travailleurs à contrôler leur propre comportement afin de se conformer aux attentes de la structure, de sorte qu’ils en viennent à se voir eux-mêmes de la manière dont ils sont définis par la surveillance [21]. C’est le pari du management et c’est aussi la narration des sociologies domino-centrées qui, tout en se présentant comme « critiques », n’appréhendent qu’une seule dimension d’une réalité pourtant contradictoire. Mais une telle sociologie ne fait que rabattre la réalité sur elle-même, en masquant les tensions et les contradictions qui la traversent, ce qui interdit aussi de voir les possibles évolutions sous-jacentes.

C’est pourquoi on peut émettre l’hypothèse que le management algorithmique conduit à pousser la relation de travail jusqu’à un point de rupture, tant sur un plan subjectif qu’objectif. Comment peut-on encore obtenir une collaboration loyale alors que la méfiance et la surveillance deviennent la norme ? Que des cadres (encadrants) gagnant au-delà de 4000 euros par mois consentent à collaborer loyalement est plus que compréhensible, mais peut-on s’attendre à la même chose avec ceux qui gagnent 1,5 le salaire minimum ? Sachant le durcissement des inégalités, la dégradation des conditions de travail et l’omniprésence d’un chantage affectif à la performance (à partir de l’injonction amoureuse du travail), on peut se dire que la surveillance et le management algorithmique s’exposent à une usure rapide, produisant une perte de motivation et des turnovers élevés. A cela se rajoute les effets dysfonctionnels d’un management qui, en chassant les temps morts, casse aussi les dynamiques collaboratives et produit une érosion de la productivité [22] .

L’hypothèse d’une contestation larvée et silencieuse des systèmes algorithmiques est non seulement pertinente mais se vérifie d’ores et déjà ce qui conforte l’idée que, même sous la férule d’un panoptique informatisé, le travail vivant « se rebiffe » et qu’il tente de déjouer la puissance algorithmique, ne serait-ce que pour retrouver une marge d’autonomie indispensable à sa survie psychique.

(à suivre)

[ article publié dans Travailler au Futur n° 6]

 

[1] La notion de problème doit être vue dans un sens large : il peut s’agir d’une tâche à effectuer, comme trier des objets, assigner des ressources, transmettre des informations, traduire un texte, etc. Il reçoit des données ou entrées – par exemple les objets à trier, la description des ressources à assigner, des besoins à couvrir, un texte à traduire, les informations à transmettre et l’adresse du destinataire, etc. –  et fournit éventuellement des données, les sorties, par exemple les objets triés, les associations ressource-besoin, un compte-rendu de transmission, la traduction du texte, etc.

[2] Voir à ce sujet Cathy O’Neil (2016), Weapons of Math Destruction.

[3] Shoshana Zuboff « Automate/Automate: The two faces of intelligent technology », in Organizational Dynamics, Volume 14, Issue 2, Automne 1985, pp. 5-18.

[4] Thomas Berns et Antoinette Rouvroy (2013), « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Réseaux n°177, p. 163-196.

[5] Le fétichisme numérique développe une compréhension fantasmée, imaginaire qui ne « voit » que le fétiche, alors qu’il s’agit de comprendre combien il organise les rapports sociaux comme un rapport de choses entre elles. Or, le numérique, internet ou l’IA sont avant tout des formes sociales de production qui organisent la médiation, la communication et l’échange d’informations.

[6]  Je prolonge ici l’approche développée par Richard Edwards (1979) qui appréhende les transformations du travail de manière dialectique, en y intégrant une dimension conflictuelle.

[7] Le contrôle technique passe par les dispositifs mécaniques comme par exemple le convoyeur qui détermine la cadence du travail tandis que le contrôle bureaucratique s’exerce via la supervision, l’évaluation etc.

[8] Kellogg, K. (2018), Employment recontracting for mutually beneficial role realignment around a new technology in a professional organization. Paper presented at the Oxford Professional Services Conference. Oxford.

[9] Pour une rapide présentation, voir https://www.franceculture.fr/emissions/hashtag/connaissez-vous-le-nudge

[10] Scheiber, N. (2017), How Uber uses psychological tricks to push its drivers’ buttons. New York Times (2 avril 2017) ; https://www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html

[11] Rosenblat, A., & Stark, L. (2016). « Algorithmic labor and information asymmetries: A case study of Uber’s drivers », in International Journal of Communication, 10:3758–3784.

[12] Voir l’enquête menée à la Poste par Nicolas Jounin (2020) Le caché de la Poste. Enquête sur l’organisation du travail des facteurs, La Découverte ; voir également Gaborieau, David. « Quand l’ouvrier devient robot. Représentations et pratiques ouvrières face aux stigmates de la déqualification », in L’Homme & la Société, vol. 205, n° 3, 2017, pp. 245-268.

[13] Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation, in Philosophy & Technology, 29(3): 245–268.

[14] Lebovitz, S., Lifshitz-Assaf, H., & Levina, N. (2019), Doubting the diagnosis: How artificial intelligence increases ambiguity during professional decision making, New York University.

[15] Askay, D. A. (2015), « Silence in the crowd: The spiral of silence contributing to the positive bias of opinions in an online review system », in New Media & Society, 17(11): 1811–1829.

[16] Leonardi, P., & Contractor, N. (2018), “Better people analytics measure who they know, not just who they are”, in Harvard Business Review, 96(6): 70–81.

[17] Levy, K. E. (2015), The contexts of control: Information, power, and truck-driving work. The Information Society, 31(2): 160–174 (p. 164).

[18] Davidson, A. (2016), Planet money. In J. Goldstein (Ed.), The future Of work looks like a UPS truck. National Public Radio. Voir  https://www.npr.org/sections/money/2014/05/02/308640135/episode-536-the-future-of-work-looks-like-a-ups-truck  .

[19] Rosenblat, A., & Stark, L. (2016), « Algorithmic labor and information asymmetries: A case study of Uber’s drivers », in International Journal of Communication, n° 10: 3758–3784.

[20] King, K. G. (2016), « Data analytics in human resources: A Case study and critical review », Human Resource Development Review, 15(4): 487–495.

[21] Sewell, G. (1998), « The discipline of teams: The control of team-based industrial work through electronic and peer surveillance », in Administrative Science Quarterly, 43(2): 397–428.

[22] Du côté des informaticiens, on peut constater que le management par l’algorithme chasse non seulement les temps morts mais supprime aussi les temps libres qui sont souvent des temps d’apprentissage.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *