L' intelligence artificielle en droit du travail

L’intelligence artificielle désigne l’ensemble des techniques et des systèmes informatiques capables de simuler certaines fonctions cognitives humaines, comme le raisonnement, l’apprentissage, la perception et la prise de décision. L’IA repose sur des algorithmes et des modèles, souvent basés sur l’apprentissage automatique (machine learning), pour analyser des données et accomplir des tâches complexes de manière autonome ou semi-autonome.
L’IA générative est une branche spécifique de l’intelligence artificielle qui permet de créer du contenu original sous différentes formes (texte, images, musique, vidéo, code, etc.). Elle est utilisée dans de nombreux domaines comme la création de contenu, la programmation, le design, la recherche et l’automatisation. Elle soulève aussi des enjeux éthiques et juridiques, notamment en matière de propriété intellectuelle et de droit du travail.
Assurément, l’IA redéfinit le cadre du travail et les équilibres entre employeurs et employés. Son usage devra être éthique, maîtrisé et encadré pour garantir une transformation profitable à tous.
Recevoir les
dernières actualités

Panorama d'application de l'IA dans les services RH
L’IA est de plus en plus utilisée dans les services RH, notamment dans les domaines suivants :
- Recrutement : tri automatique des CV, chatbots pour répondre aux candidats.
- Gestion des talents et formation : recommandations de formations personnalisées et identification des talents.
- Automatisation des processus RH : traitement des demandes administratives et gestion des plannings.
- Analyse du climat social : outils de sondage pour analyser le ressenti des salariés.
L’IA permet de rédiger rapidement des descriptions de poste adaptées et de trier les candidatures en fonction de critères spécifiques, améliorant ainsi le recrutement. Cependant, son utilisation introduit des enjeux juridiques, notamment le risque de discrimination. L’exemple de l’affaire dite « Amazon » en 2018 illustre ce danger : ce géant du web avait eu recours à l’IA dans le traitement des CV en utilisant ceux collectés au cours de la décennie précédente.
Or, il s’est avéré qu’il n’avait pas été tenu compte du fait que la plupart de ces derniers provenaient d’hommes, et la gestion des recrutements est apparue discriminatoire à l’égard des femmes.
Les entreprises doivent donc être vigilantes et transparentes, s’assurant que l’IA est utilisée de manière objective et conforme à la législation, sous peine de voir leur responsabilité engagée en cas de discrimination. Un encadrement strict est nécessaire pour éviter les dérives.
Présentation de l' IA Act
Le Règlement (UE) 2024/1689, appelé AI Act, entré en vigueur le 2 août 2024 constitue la première réglementation mondiale complète sur l’intelligence artificielle. Il adopte une approche fondée sur les risques et vise à harmoniser le cadre juridique au sein de l’UE, conciliant innovation et protection des droits fondamentaux.
Le règlement distingue quatre niveaux de risque pour les systèmes d'IA :
- Systèmes interdits : huit pratiques sont interdites, comme la notation sociale par les gouvernements ou entreprises.
- Systèmes à risque élevé : par exemple, les IA utilisées pour le recrutement, qui doivent respecter des exigences strictes, comme la mise en place d’un contrôle humain.
- Systèmes à risque spécifique en matière de transparence : des obligations de transparence pour les fournisseurs et déployeurs, notamment pour les systèmes interactifs comme les chatbots.
- Systèmes à risque minime : aucune obligation spécifique, bien qu’il soit recommandé d’adopter des codes de conduite supplémentaires (ex. : filtres anti-spam).
Les subtilités du réglement de l'IA Act
L’article 99 de l’IA Act prévoit des sanctions pour non-conformité, pouvant atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, selon la gravité de la violation. Ces sanctions visent à dissuader les acteurs de négliger leurs obligations et à assurer une application stricte du nouveau cadre légal.
Le règlement impose aux organisations d’analyser les risques des outils IA utilisés, avec des obligations spécifiques en fonction du niveau de risque. Une analyse d’impact relative à la protection des données est obligatoire pour certains usages, comme la formation et le recrutement, et peut être nécessaire pour d’autres applications RH.
Les entreprises doivent aussi examiner les conditions générales et la sécurité des outils IA, notamment en cas de développement interne ou de recours à des modèles tiers, en respectant les exigences de cybersécurité.
La mise en œuvre progressive de l’IA Act permettra aux organisations de s’adapter aux nouvelles exigences tout en équilibrant régulation et compétitivité technologique.
Impact de l' IA Act sur le droit du travail
L’IA Act n’impacte pas directement l’emploi, la politique sociale ou le droit du travail. Les lois nationales, comme le Code du travail français, continuent de s’appliquer.
Le rôle du CSE
L’introduction de nouvelles technologies doit être soumise à la consultation préalable du CSE si elle modifie les conditions de travail, la santé ou la sécurité des salariés ou l’équilibre entre vie professionnelle et personnelle. Bien que la notion de « nouvelles technologies » ne soit pas définie par le Code du travail, selon la circulaire DRT n° 12 du 30 novembre 1984, ce concept doit être entendu largement : l’intelligence artificielle pourrait donc être considérée comme étant une nouvelle technologie. Il est alors nécessaire de faire une appréciation du projet in concreto pour savoir si la technologie mise en place a – ou non – un caractère novateur par rapport à celle utilisée précédemment dans l’entreprise (Cass. soc., 27 nov. 2024, n° 23-13.806).
Le CSE pourra également être consulté sur des sujets relatifs à l’IA lors de la consultation récurrente qui concerne les orientations stratégiques (l’IA peut profondément influencer les choix stratégiques de l’entreprise), la situation économique de l’entreprise (l’IA peut impliquer des investissements significatifs), et la politique sociale (les outils d’IA peuvent permettre d’automatiser certaines tâches et, dès lors, impacter l’effectif de l’entreprise ou nécessiter une adaptation de la politique de la gestion prévisionnelle pour permettre aux salariés de s’adapter aux évolutions technologiques).
L’introduction de l’IA peut aussi toucher l’environnement, ce qui nécessite une consultation sur les impacts écologiques, comme la consommation d’énergie. En effet, depuis la loi du 22 août 2021 portant lutte contre le dérèglement climatique et renforcement de la résilience face à ses effets, le CSE doit être informé et consulté sur les conséquences environnementales des projets que l’entreprise entend mettre en place.
Le droit d’alerte dont dispose le CSE peut également constituer un outil majeur pour anticiper et encadrer les risques pouvant découler de l’IA, tout en permettant, le cas échéant, de remédier aux éventuelles dérives (surveillance excessive ou les discriminations algorithmiques).
IA et document unique d’évaluation des risques professionnels
L’introduction de l’IA doit également être intégrée au DUERP (document unique d’évaluation des risques professionnels), en évaluant les risques psychosociaux, la perte d’autonomie, et l’intensification du travail. En effet, les outils d’IA, en particulier lorsque ces derniers remplacent ou encadrent des tâches humaines, peuvent engendrer des tensions, des frustrations ou un sentiment de déshumanisation au travail.
La CNIL
La CNIL s’est penchée sur la protection des données personnelles dans les systèmes d’IA, rappelant que ces systèmes traitent souvent des données sensibles. Elle a formulé des recommandations pour adapter le RGPD aux spécificités de l’IA, soulignant les défis liés à l’impossibilité d’identifier toutes les finalités dès la phase de développement de l’IA.
Responsabilité de l’ employeur due à l’utilisation de l’IA dans l’entreprise
L’employeur est responsable de l’utilisation des outils d’IA dans l’entreprise, y compris de la conformité de ceux-ci. En cas d’utilisation incorrecte de l’IA par un salarié (ex. : non-respect des standards de confidentialité), l’employeur pourrait être tenu responsable, même si les décisions sont automatisées.
Formation des salariés
L’introduction de l’IA dans l’entreprise impose de former les salariés, notamment sur les aspects juridiques (IA Act), les nouvelles compétences requises et les évolutions dans l’organisation du travail. Concrètement, cela nécessite :
- D’identifier les lacunes techniques et les compétences manquantes grâce à un diagnostic approfondi.
- De concevoir des modules pour combler ces écarts et aider les salariés à s’adapter aux nouvelles technologies.
- De suivre les évolutions technologiques et juridiques pour garantir que les salariés possèdent les connaissances les plus récentes.
Les entreprises doivent prévoir des budgets et des calendriers spécifiques pour ces formations, et informer les représentants du personnel sur l’utilisation de systèmes d’IA à haut risque. L’article 26, § 7, de l’AI Act précise en effet que « ces informations sont fournies, le cas échéant, conformément aux règles et procédures prévues par le droit de l’Union et le droit national et aux pratiques en matière d’information des travailleurs et de leurs représentants. »
Droit d'auteur et IA générative
Les créations des salariés sont protégées par le droit d’auteur, sous réserve de leur originalité. En cas de création via l’IA générative, l’auteur (salarié ou employeur) peut être titulaire des droits si sa contribution est significative. Toutefois, l’IA générative seule ne suffit pas à établir un droit d’auteur, et l’apport humain doit être prouvé par des éléments comme des brouillons ou des croquis.
L’employeur doit également respecter des obligations de transparence concernant l’usage de l’IA, notamment pour les outils interactifs comme les chatbots, et s’assurer que toute création générée soit identifiable comme telle.
Dans l’attente des évolutions législatives et des positions jurisprudentielles à venir, les employeurs devraient idéalement, pour chaque création et/ou invention de salarié obtenue avec l’aide d’une IA générative :
- Conserver la documentation du processus de création pour prouver la contribution humaine en cas de litige.
- Vérifier les politiques d’utilisation de l’IA, notamment les droits d’auteur sur les créations générées et l’utilisation des données d’entraînement.
- Encadrer l’usage de l’IA par des formations sur la propriété intellectuelle, des politiques internes claires, et des audits réguliers.
- Effectuer des recherches d’antériorités pour éviter de violer les droits de tiers, et procéder à des dépôts de titres de propriété industrielle si nécessaire.
- Protéger contre les fuites de données sensibles via l’utilisation d’outils d’IA non protégés, en prenant des mesures pour éviter l’exploitation indue des données par les sociétés qui fournissent ces outils.
Au-delà de la propriété intellectuelle, l’employeur et les salariés doivent être particulièrement vigilant vis-à-vis des risques en termes de fuite de données sensibles et confidentielles de l’entreprise causées par des salariés qui utiliseraient des outils d’IA générative publiques et non protégées pour générer des contenus sans s’interroger sur l’usage qui pourra ensuite être fait de ces données entrantes par la société qui met à disposition l’outil d’IA générative en question.
Impact des mutations technologiques sur le licenciement économique
Si l’introduction de l’IA au sein d’une entreprise ne constitue pas nécessairement et automatiquement un motif économique, il n’est pas exclu qu’elle puisse, à elle seule ou non, constituer un motif de licenciement économique, tel que visé par le législateur.
Par principe, les mutations technologiques constituent un motif économique autonome (Cass. soc., 15 mars 2012, n° 10-25.996) et sont de nature à justifier, à elles seules, un licenciement pour motif économique (Cass. soc., 29 mai 2002, n° 99-45.897), peu important l’absence de menace sur la compétitivité de l’entreprise (Cass. soc., 9 oct. 2002, n° 00-44.069) ou encore l’absence de difficultés économiques (Cass. soc., 2 juin 1993, n° 90-44.956).
La mutation technologique ne se confond pas avec un simple renouvellement de matériel et doit constituer une véritable innovation pour l’entreprise.
Si le motif des mutations technologiques a déjà pu être mobilisé, il est probable que celui-ci soit amené à se développer au cours des prochaines années eu égard au développement de l’IA. Pour autant, la simple introduction d’une intelligence artificielle ne constituera pas nécessairement une mutation technologique. Encore faudra-t-il que celle-ci constitue une réelle innovation au sein de l’entreprise et qu’elle ait des incidences sur l’emploi.
Certains arrêts ont déjà reconnu l’existence d’un motif économique, tiré des difficultés économiques, du fait de l’émergence de nouvelles technologies.
Tel a été le cas d’une société confrontée à un bouleversement du marché de la vente de destructeurs de documents et de machines à relier du fait de la digitalisation, ayant entraîné une baisse continue de ses indicateurs économiques (CA Paris, 13 juin 2024, n° 20/06531).
L’introduction de l’IA pourrait toucher à la fois des emplois peu qualifiés et qualifiés, notamment ceux impliquant des tâches répétitives. Pour limiter les effets de cette mutation, certaines voix appellent à une « taxe sur les robots », bien que cette approche puisse freiner l’avancement de la France par rapport à d’autres pays.
Découvrez notre fiche pratique sur le sujet !
Un document résumant l’ensemble de cet article sur l’IA en droit du travail.

Partager cet article