L’Intelligence Artificielle au service de la santé et sécurité au travail : enjeux et perspectives à l’horizon 2035

Compte rendu de la journée de prospective de l’INRS // Par Jennifer Clerté et Marc Malenfer  (INRS) //

Le 18 novembre 2022 l’Institut national de recherche et de sécurité (INRS) organisait une journée de prospective consacrée aux usages possibles de l’intelligence artificielle en santé et sécurité au travail à l’horizon de 2035. Cette journée visait à restituer les résultats d’un exercice conduit par un groupe de travail animé par la mission veille et prospective de l’Institut et à inviter un certain nombre d’experts à en discuter.

Le sujet avait été retenu par le conseil d’administration de l’INRS en début d’année 2021 au regard de la forte croissance des investissements dans les technologies d’intelligence artificielle, le champ de la santé et la sécurité au travail apparaissant comme un potentiel marché en développement, comme le soulignaient certaines publications scientifiques [1]. Le sujet a continué à prendre de l’ampleur durant la conduite de ces travaux, comme en témoigne la proposition de directive « AI Act », émise par la Commission européenne en avril 2021 et visant à encadrer le développement l’IA.

L’objectif du groupe de travail était d’explorer les opportunités que pouvaient représenter ces nouvelles technologies pour le domaine de la prévention des risques professionnels en identifiant les atouts et les points de vigilance liés à ce développement et de parvenir in fine à des pistes d’actions pour que ce développement s’avère bénéfique à la prévention. Dès le début de l’exercice, trois domaines d’usage spécifiques ont été ciblés : l’analyse de données massives via des systèmes d’IA pouvant être utilisées dans le cadre d’études épidémiologiques ou d’accidentologie ; la sécurisation des environnements de travail par le biais de capteurs ou de systèmes de vidéo-surveillance embarquant de l’IA et enfin la robotique avancée permettant de substituer la machine à l’humain, ou la collaboration entre les deux, pour la réalisation de tâches pénibles voire dangereuses.

L’exercice a été conduit suivant la méthode de l’analyse morphologique, qui permet de construire plusieurs scénarios en croisant un ensemble de variables (démographique, politique, sociale, économique, …) susceptibles d’évoluer dans le temps [2]. Pour conduire cette réflexion, un groupe associant experts de l’IA, acteurs de l’entreprise et spécialistes de la santé et sécurité au travail a été constitué. Sur la base des scénarios construits, une réflexion a ensuite été menée sur les enjeux soulevés par ces évolutions possibles en matière de santé et sécurité au travail et de prévention.

Une nécessaire étape de définition

La journée a débuté par une introduction ayant pour but d’éclairer l’auditoire sur les définitions de l’intelligence artificielle. Bertrand Braunschweig, coordinateur du projet « Confiance.ai » et membre du groupe de travail [3], a proposé deux définitions parmi une quinzaine jugées les plus pertinentes émises depuis les années 50. La première est celle émise durant la conférence de Dartmuth en 1956[4] qui définit l’intelligence artificielle comme la capacité à décrire les caractéristiques de l’intelligence humaine et les aspects de l’apprentissage de façon à pouvoir fabriquer une machine en mesure de les simuler. La seconde est celle de l’académie des technologies de 2018[5] qui décrit cette technologie comme un ensemble de cinq grandes disciplines qui contribuent à l’intelligence artificielle : le raisonnement logique, le représentation des connaissances, la planification automatique, le traitement des langues naturelles et la perception. Sans rentrer dans des détails trop techniques, M. Braunschweig a précisé qu’on distingue à ce jour deux modèles d’IA : un modèle d’IA symbolique élaboré par des experts, explicables mais coûteux et un modèle d’apprentissage automatiquement généré à partir de données, appelé aussi IA numérique, qui s’apparente le plus souvent à une boîte noire.  Nazim Fates, ingénieur et diplômé en histoire et philosophie des sciences et chercheur en informatique au Loria [6], s’est pour sa part attaché à donner une définition basée sur une analyse étymologique et philosophique de l’expression intelligence artificielle. Il s’appuie principalement sur les travaux conduits par Alan Turing durant les années 1930, établissant que tout algorithme – c’est-à-dire une suite d’opérations effectuées avec un ensemble d’éléments simples – peut être réalisé par une machine séquentielle à ruban infini. Si les domaines d’application de l’IA sont désormais très étendus, allant de la délivrance de crédit à la détection de cyberattaques, Bertrand Braunschweig signale que ce développement pourrait connaître un « nouvel hiver », il pointe « cinq murs » pouvant devenir des obstacles à la poursuite de cette croissance :

  • la confiance, pourrait faire défaut si on ne peut pas expliquer et justifier leurs décisions de ces systèmes ;
  • la dépense énergétique nécessaire aux technologies d’apprentissage profond pourrait s’avérer trop coûteuse ;
  • la sécurité de ces technologies pourrait être remise en cause si elles sont détournés de leurs objectifs à des fins malveillantes ;
  • les interactions Humains – machines pourraient s’avérer insatisfaisantes voire dangereuses si elles ne font pas l’objet d’une compréhension réciproque ;
  • l’inhumanité de la machine, le fait qu’elle n’est pas le sens commun peut également devenir un frein à certains de ces usages.

Présentations des scénarios

La journée s’est poursuivie par une présentation des différents scénarios construits durant l’exercice. Au nombre de quatre, ils présentent des futurs possibles du recours à l’IA dans le monde du travail. Afin de permettre au public de cette journée de mieux se projeter dans ces évolutions, les scénarios ont été illustrés sous la forme d’actualités traitées lors de matinales radio fictives diffusées en 2035. Cette séquence peut être réécoutée ici : (lien Youtube)

Scénario 1 : Les géants du numérique imposent leurs solutions et leur vision

Dans ce premier scénario, l’exubérance technologique que nous connaissons actuellement se poursuit dans un cadre de compétition pour la maîtrise de l’intelligence artificielle. Les acteurs principaux en sont les géants du numérique, essentiellement chinois et américains. Le monde du travail et le grand public se satisfont de cette situation dans laquelle les géants du numérique se conforment à des règles ou principes qu’ils ont largement définis. L’automatisation se développe fortement dans tous les secteurs, poussée par les Big Tech et encouragée par les États. La France se réindustrialise en recourant aux avancées technologiques, l’industrie 5.0 bénéficie des gains de productivité importants. Mais elle est de plus en plus intégrée et dépendante de quelques grands opérateurs internationaux, les seuls capables financièrement et technologiquement d’offrir des services compétitifs en matière d’intelligence artificielle. L’économie des plateformes, dopée par les géants du numérique, poursuit son essor et s’étend aux cols blancs. Les emplois moyennement qualifiés sont particulièrement exposés aux délocalisations et à l’automatisation, induisent une tendance au déclassement de ces travailleurs. Les espaces virtuels (metavers) se développent : après leur succès populaire dans les activités sociales et commerciales, ils deviennent des outils essentiels pour les télétravailleurs qui peuvent y effectuer une part croissante de leurs activités. Les systèmes d’IA y trouvent une place naturelle.   Dans ce contexte, la surveillance s’installe comme outil privilégié de la sécurité au travail. Celle-ci justifie un contrôle des activités de chacun dans un contexte de collaboration étroite entre les hommes et les machines.

Scénario 2 : Les Etats garantissent un cadre pour l’intégration de l’IA

Le développement de l’IA sans maîtrise a poussé les Etats européens à travailler sur un règlement commun afin de pouvoir en encadrer l’écosystème et les principes éthiques. Au cours de la période, la multiplication des problèmes entrainant des préjudices pour les citoyens, les entreprises et les travailleurs les a poussés à durcir cet encadrement dans un contexte de montée des préoccupations environnementales. Les Etats, afin d’orienter l’allocation des ressources, ont décidé de ne développer que des systèmes d’IA sobres, répondant à des critères élevés (notamment autour du principe d’intérêt général), sur des secteurs non critiques et sous supervision humaine. Cela passe par un meilleur contrôle des fabricants, par le développement de pôles d’expertises européens et nationaux, mais également par des expérimentations qui permettent de démontrer l’innocuité de l’IA et des mesures de contrôle et d’audit. Cela est particulièrement vrai dans le monde du travail, dans lequel sont créés des comités de suivi et d’éthique de l’implémentation des innovations technologiques en entreprise, qui regroupent à la fois des spécialistes issus des pôles d’expertise, mais aussi tous les corps intermédiaires habituels, notamment les partenaires sociaux. La santé et la sécurité au travail est un élément déterminant pour ces comités qui veillent à bloquer les développements des dispositifs réputés néfastes, à documenter les dangers potentiels des innovations et à encourager l’implantation des dispositifs dont l’intérêt en prévention a été démontré.  L’IA au travail, qu’il s’agisse de robotisation, de monitoring, de logiciels de pilotage de l’activité engendre une nécessaire montée en compétence au sein des entreprises, créant de nouveaux métiers et expertises pour encadrer cette utilisation : supervision obligatoire, nécessité d’explicabilité d’une décision automatique, etc.

Scénario 3 : Développement démocratique

Dans ce scénario, les années 2020 voient se mettre en place des processus de contrôle démocratique par les travailleurs et citoyens, nécessaires au bon développement des IA et à leur expansion encadrée dans la vie civile et professionnelle. Dans un contexte de croissance économique mondiale, générant de l’emploi dans l’industrie et les services, et permettant d’investir dans la formation, les conditions sont réunies pour que les systèmes d’IA se déploient largement dans le monde du travail, et concourent au façonnage progressif d’une maîtrise collective de ces projets technologiques. Le recours aux dispositifs d’IA est facilité via l’essor des outils open source et le développement de solutions très accessibles (low code, nocode). De plus, les recherches en IA lancées depuis les années 2010 finissent par aboutir dans les années 2030 à la conception de systèmes d’IA hybrides combinant la puissance de l’apprentissage automatique à la transparence des systèmes de raisonnement logique. En restaurant le principe éthique d’explicabilité comme clef d’appropriation, ces résultats contribuent à construire la confiance collective dans l’IA et à la mettre au service de la performance, de la santé et de la sécurité dans les organisations du travail.

Scénario 4 : Déclin de l’IA

En début de période, les usages des systèmes d’intelligence artificielle se développent dans tous les domaines professionnels. Poussé par les progrès technologiques, la numérisation généralisée de la société et les nouvelles organisations de travail, l’IA est majoritairement bien acceptée dans le monde du travail. Depuis 2022 elle est considérée comme un atout pour les employeurs (automatisation, productivité, qualité, etc.) et pour les travailleurs (pénibilité, sécurité, etc.). Cette considération est principalement basée sur les promesses que les systèmes d’IA apportent. Cependant, cette croissance s’érode progressivement à la fin de la décennie. Les instabilités économiques et démographiques créent des tensions sur le marché de l’emploi. En recherche permanente de compétitivité, les employeurs favorisent les systèmes d’IA à différents niveaux de la chaîne de création de valeur. Avec le développement du télétravail, les outils d’IA suivent les employés chez eux et deviennent progressivement intrusifs. En même temps, certains acteurs peu scrupuleux n’hésitent plus à utiliser les données récoltées pour tracer l’activité des employés de manière systématique et sans consentement. Les organisations syndicales et les politiques prennent la menace au sérieux. Les tensions au sein des entreprises et les propositions de lois limitatives se multiplient. Pour améliorer les couvertures d’assurances des salariés et négocier des primes à la baisse, les données récoltées sont partagées avec les assureurs (notamment la Sécurité Sociale) afin de tenir compte de la prévention des risques dans la tarification, voir la personnalisation de certaines garanties. Les organisations du travail ont des positionnements différents, selon les pays et selon les branches d’activités. L’absence de réglementation harmonisée entraine des inégalités statutaires entre secteurs et les divergences en matière d’éthique entre les grandes zones économiques conduisent à une augmentation des contentieux en matière du droit des salariés.  Ainsi, la défiance vis-à-vis de l’IA grandit au sein des entreprises et notamment en matière de S&ST. A partir de 2030, ce rejet amène à un déclin de cette technologie et de ses usages professionnels.

Présentation de quelques cas d’usage

Les présentations des scénarios ont été suivies par un exposé des trois cas d’usage possibles de l’IA dans le domaine de la santé et sécurité au travail. Dans le cadre de l’exercice mené par l’INRS, ces trois types d’applications ont été confrontés aux futurs possibles décrits dans les scénarios. Ce travail avait été conduit sous la forme d’ateliers rassemblant des membres du groupe de travail et des experts en santé et sécurité au travail n’ayant pas participé à la phase initiale. Pour chacun de ces usages des opportunités, points de vigilances et implications pour les acteurs de la S&ST ont été identifiés.

Le traitement intelligent de données massives

Les capacités de calculs et de traitement de l’information de l’intelligence artificielle offrent des opportunités nouvelles en matière d’épidémiologie ou d’accidentologie, en permettant par exemple de croiser un grand nombre d’indicateurs différents (indicateurs de santé, trajectoires professionnelles, données de mesures individuelles ou d’ambiance). Les outils de traitement automatique du langage permettant de procéder à l’analyse textuelle de masses de documents (certificats de décès, déclarations d’accidents du travail, …) peuvent permettre d’identifier des causes d’accidents ou de maladies en recherchant des similarités ou des liens de causalités dans les données textuelles. Cependant pour faire en sorte que ces outils puissent être utilisés de façon bénéfique et en toute confiance par les différents acteurs de la prévention, il conviendra de porter une attention particulière à la sécurisation de ces données et à la transparence sur les usages qui en seront fait. Par ailleurs une telle approche de la S&ST centrée sur l’analyse de la donnée personnelle comporte le risque d’une individualisation du suivi du travailleur qui pourrait nuire au principe d’une approche collective de la prévention. Pour les acteurs de la S&ST, le recours à ces solutions implique nécessairement une montée en compétence pour être en mesure de comprendre leur fonctionnement, mais également de garder à l’esprit le risque de biais induits par ces technologies, notamment par la confusion possible entre lien de corrélation et lien de causalité. Il leur faudra enfin veiller à ce que leur pratique de la prévention ne soit pas centrée sur l’usage de ces outils qui ne permettent pas de capter l’ensemble des facteurs de risque (notamment pas les risques organisationnelles) et dont l’administration peut nécessiter beaucoup de temps au détriment d’autres tâches utiles (consultations des salariés, analyse de situation de travail sur site, etc..).

La sécurisation des environnements de travail

Le second cas d’usage concerne les technologies de sécurisation des environnements de travail par le biais de capteurs ou de caméras embarquant des systèmes d’intelligence artificielle. Deux types de dispositifs sont ici distingués : des systèmes visant à surveiller l’environnement de travail et capables d’actionner une alerte avant la survenue d’un phénomène dangereux (émission d’un produit toxique, proximité d’un équipement en mouvement) et d’autres visant à surveiller le travailleur lui-même. Il pourra s’agir d’un EPI (équipement de protection individuelle) connecté ou d’un équipement de travail effectuant des mesures régulières de données biométriques. Ces solutions peuvent permettre d’assurer une meilleure prévention pour les populations peu ou pas sensibilisées aux risques présents sur le site des entreprises et d’identifier les situations de presqu’accidents afin de mettre en place de nouvelles mesures de prévention ou de planifier des actions de formation. Cependant encore une fois, l’usage de ces solutions peut conduire à omettre les risques pour lesquels aucun indicateur n’est mesuré, ce qui est notamment le cas des risques organisationnels (comme la charge de travail, les problèmes de tensions relationnels ou de planification des activités etc…). Malgré toutes les opportunités offertes par ces solutions, il s’agira pour les préventeurs d’alerter les entreprises sur le fait qu’elles ne s’apparentent pas à des systèmes de sécurité, et qu’elles ne les exonèrent pas de l’évaluation des risques et de la mise en œuvre d’actions de prévention collective.

La robotique avancée

Dans le domaine de la robotique avancée, deux cas d’usage ont été étudiés : celui de la télé-opération qui permet d’éloigner l’opérateur d’environnement dangereux en embarquant dans le robot un système d’IA lui conférant certaines capacités de l’opérateur humain, comme la vue stéréoscopique, le déplacement dans des environnements faits pour des humains ou la préhension d’objets ; et celui de robots collaboratifs qui permettent aux opérateurs d’être secondés ou aidés dans leurs tâches. L’atout principal de ces technologies est de pouvoir supprimer l’exposition au danger de l’opérateur. Elles présentent aussi l’avantage de pouvoir réduire les tâches pénibles ou rébarbatives ou encore d’aider au maintien ou au retour en emploi de travailleurs vieillissants ou convalescents. Il faudra néanmoins être vigilant sur le fait que l’intégration de telles solutions ne participe pas à une intensification de la charge de travail (notamment dans l’idée de rentabiliser l’investissement réalisé dans cette machine) ou sur les possibles accidents générés par des comportements inattendus du robot. Pour les acteurs de la S&ST l’intégration de cette nouvelle génération de robots va nécessiter d’être formés à leur usage et de développer des méthodes de définition de leur besoin et d’évaluation de la pertinence de ces solutions pour y répondre ainsi que de suivi de cette intégration et de son acceptation par les travailleurs. Enfin, la robustesse et l’innocuité de ces systèmes devront faire l’objet de nouvelles recherches afin d’établir dans quelle mesure ils peuvent être utilisés en sécurité.

Messages clés

Pour achever la restitution de ces travaux, le groupe de travail a présenté quelques messages clés à retenir. Le premier confirme que les technologies de détection basées sur l’analyse de données du terrain ont fait une avancée spectaculaire. Le potentiel de développement de dispositifs et d’applications de sécurisation des environnements de travail parait important. Par ailleurs l’automatisation de certaines tâches rendue possible par ces technologies pourra permettre de soustraire, à l’avenir, des travailleurs à certains risques. Cependant, il y a un enjeu à accompagner un développement de ces dispositifs qui soit compatible avec les valeurs essentielles de la santé et sécurité au travail défendues par l’Europe et par la France. Ces technologies devant encore faire leur preuve, il parait également essentiel de ne pas baser tous les développements en santé et sécurité au travail sur ces technologies. Au-delà des différents atouts qui ont été mis en avant au travers des trois cas d’usage, l’un des principaux risques serait de positionner ces technologies au centre de l’organisation du travail avec pour conséquence la mise au second plan du travail humain. En tout état de cause, l’humain doit rester au premier plan de l’organisation du travail. Il faut enfin garder en tête que les accidents du travail surviennent souvent dans le cadre de situations atypiques (situations dégradées, pannes, opérations de maintenance, etc.) qui ne pourront pas être anticipés par les systèmes d’IA et constituent une limite à leurs promesses.

Le groupe de travail a émis pour finir un certain nombre de pistes d’actions : étant données la technicité et l’opacité de ces systèmes d’IA le premier effort d’investissement devrait porter sur la formation des différents acteurs, afin qu’ils puissent acquérir une bonne compréhension du mode de fonctionnement de ces systèmes, mais aussi des enjeux éthiques qu’ils soulèvent, du cadre juridique dans lequel ils s’inscrivent et des risques qu’ils peuvent engendrer. Cet effort de formation devrait également concerner plus en amont les développeurs et concepteurs de ces systèmes. Une formation à la santé et sécurité au travail serait nécessaire pour les sensibiliser aux risques associés à ces technologies et les amener à intégrer le respect des principes de prévention dans leurs solutions. Parallèlement à la formation, une attention particulière devrait être portée à la définition des normes et réglementations encadrant les technologies d’IA, de façon à ce que ces nouveaux cadres prennent en compte systématiquement les principes de santé et sécurité au travail et contribuent au développement d’outils sûrs. Enfin, une vigilance particulière doit être portée à l’usage des données nécessaires au fonctionnement de ces systèmes, qui doit se faire dans le respect de la vie privée des travailleurs. Pour conclure, si les avancées de l’IA offrent des perspectives de progrès pour la prévention des risques professionnels, elles entraînent aussi, comme toute modification, certains risques, qui nécessitent que les organismes de prévention travaillent dès aujourd’hui à développer et à diffuser des outils méthodologiques permettant de guider les acteurs face à ces innovations.

Discussions autour des enjeux de l’IA avec Jean-Gabriel Ganascia et Raja Chatila

A la suite de ces présentations, Jean-Gabriel Ganascia, Professeur d’informatique et Raja Chatila, Professeur émérite de robotique et d‘intelligence artificielle, officiant tous deux à Sorbonne Université, ont été invités à discuter sur les enjeux soulevés par ces technologies. M. Chatila a commencé par alerter sur le risque de personnifier l’IA et croire en sa capacité de prise de décision et de compréhension puis a rappelé la nécessité de la considérer comme un outil extrêmement perfectionné mais devant rester sous supervision humaine. Comme pour tout programme informatique, la preuve de son bon fonctionnement doit être apportée, avec l’IA ce n’est pas toujours possible, des limitations à son utilisation doivent alors être définies. M. Ganasacia a pour sa part rappelé que ces systèmes d’IA ne sont pas si différents des autres technologies, qui comme toute forme de systèmes sociaux-techniques doivent être pensés au regard de l’ensemble de l’organisation du travail. Il a également relativisé l’impact possible sur l’emploi de l’émergence de ces technologies tout en insistant sur l’importance de préparer les organisations à ces transformations notamment par le biais de la formation. En définitive, les deux experts ont l’un comme l’autre pointé la nécessité d’instaurer des évaluations régulières de ces technologies et des retours d’usage pour assurer leur amélioration en continue, en gardant à l’esprit qu’elles s’apparentent à une forme « d’expérimentation permanente » du fait de leur constante évolutivité.

Séminaire de l’INRS a la Maison de la RATP sur L’IA au service de la Santé Sécurité au Travail. Jean-Gabriel Ganascia (gauche) et Raja Chatila (à droite) sont tous deux professeurs à Sorbonne Université // Crédit photo: Gaël Kerbaol (INRS)

Une après-midi dédiée à la mise en perspective et aux échanges

L’après-midi a débuté par une mise en scène d’un test de Turing impliquant une fausse machine d’intelligence artificielle capable de répondre à des questions d’assistance en matière de santé et sécurité au travail. Cette séquence d’ordre ludique visait aussi à illustrer les limites de ce type de machine en termes de fiabilité et de possibles détournements des données collectées (la présentation est à voir ici : https://www.youtube.com/watch?v=lMrFkjT5n1U ).

Trois tables rondes ont ensuite donné l’occasion aux différents acteurs de la prévention d’échanger sur le sujet. La première visait à faire discuter quatre représentants d’acteurs institutionnels sur les résultats de cet exercice (l’INRS ; LaborIA; l’ETUI et Eurofound). La deuxième a permis de mettre en lumière une initiative de la CARSAT Midi Pyrénée conduite en partenariat avec l’Icam (école d’ingénieurs de Toulouse) et visant à former des partenaires sociaux issus de petites entreprises au dialogue social autour de la mise en place d’un projet d’IA. Enfin, la dernière table ronde a amené trois représentants de partenaires sociaux à discuter de la nécessité d’un débat sur le sujet des implications de l’IA dans le monde du travail pour permettre son acceptabilité, élément essentiel de son développement.

Les vidéos de cette journée peuvent être visionnées sur le site de l’INRS au sein de la rubrique Actes et comptes-rendus :  https://www.inrs.fr/footer/actes-evenements/prospective-IA.html. Le rapport de ce travail de prospective  est pour sa part consultable dans la rubrique Prospective du site de l’INRS : https://www.inrs.fr/inrs/prospective-quel-travail-demain.html

(3 janvier 2023)

_________

Pour contacter les auteurs:  jennifer.clerte@inrs.fr  et  marc.malenfer@inrs.fr 

Pour en savoir plus, lire le rapport L’intelligence artificielle pour la gestion des travailleurs: incidences sur la santé et la sécurité au travail, accessible sur le site de la Fondation Européenne pour l’amélioration des conditions de travail 

 

Notes

[1] https://www.mdpi.com/1660-4601/18/13/6705

[2] https://www.futuribles.com/la-prospective/etapes-de-la-demarche/scenarios/

[3] https://www.confiance.ai/

[4] http://raysolomonoff.com/dartmouth/boxa/dart56more5th6thweeks.pdf

[5] http://academie-technologies-prod.s3.amazonaws.com/2018/06/01/14/25/31/28/IA_Web.pdf

[6] Laboratoire lorrain de recherche en informatique et ses applications de l’INRIA