Page d’accueil Connaissances Ressources humaines Droit du travail L’IA dans le monde du travail : aperçu juridique

L’IA dans le monde du travail : aperçu juridique

L’IA est utilisée dans le quotidien professionnel et dans le recrutement, mais elle n’évolue pas dans un vide juridique. De la protection des données à la discrimination, en passant par le secret commercial : voici ce que les entreprises doivent prendre en considération.

L’intelligence artificielle (IA) fait désormais partie intégrante de notre quotidien. Bien qu’il n’existe actuellement aucune législation spécifique à l’IA en Suisse (un projet de loi à ce sujet devrait être présenté à la fin de l’année), l’utilisation de l’IA n’est en aucun cas soustraite à tout cadre juridique. En effet, de nombreuses lois existantes s’appliquent à l’utilisation de l’IA, notamment la loi sur la protection des données (LPD), la loi sur le droit d’auteur (LDA) et le code des obligations (CO).

Dans le monde du travail, l’IA est souvent utilisĂ©e dans le domaine du recrutement. Elle est Ă©galement utilisĂ©e par les collaborateurs et les collaboratrices comme outil de travail, par exemple pour rĂ©diger des rĂ©sumĂ©s, Ă©tablir des Ă©valuations ou effectuer des traductions, ainsi que pour gĂ©nĂ©rer des textes et des images. 

Lorsque l’on utilise l’IA, diffĂ©rents domaines juridiques peuvent entrer en jeu :

  • Exigences en matière de protection des donnĂ©es :

    Le traitement des donnĂ©es personnelles doit respecter les principes de la loi sur la protection des donnĂ©es (lĂ©galitĂ©, transparence, proportionnalitĂ©, principe de finalitĂ©). Les donnĂ©es personnelles sont toutes les informations qui se rapportent Ă  une personne physique identifiĂ©e ou identifiable. Le traitement dĂ©signe toute opĂ©ration relative Ă  des donnĂ©es personnelles, notamment leur collecte, leur enregistrement, leur utilisation ou leur divulgation. 

    Il est important que les rĂ´les et les responsabilitĂ©s soient clairement dĂ©finis et rĂ©glementĂ©s lors du traitement des donnĂ©es personnelles. Si une entreprise confie le traitement des donnĂ©es Ă  un tiers (p. ex. un prestataire de services d’IA), elle doit s’assurer que celui-ci traite les donnĂ©es avec le mĂŞme soin et dans le mĂŞme respect de la loi qu’elle-mĂŞme. Ă€ cette fin, un contrat de sous-traitance ou « Data Processing Agreement (DPA) Â» est conclu. Celui-ci rĂ©git les droits et obligations rĂ©ciproques, en particulier les droits de contrĂ´le du donneur d’ordre. Cela permet de garantir que le responsable du traitement des donnĂ©es n’utilise pas les donnĂ©es Ă  des fins personnelles (p. ex. pour entraĂ®ner l’IA) ou ne les transfère pas vers des pays ne disposant pas d’une protection adĂ©quate des donnĂ©es. En l’absence d’un tel contrat, rien ne garantit que les donnĂ©es seront traitĂ©es conformĂ©ment Ă  la protection des donnĂ©es.

  • Secrets commerciaux et de fabrication :

    Il existe un risque que des secrets commerciaux et de fabrication soient divulguĂ©s involontairement, par exemple lorsqu’un collaborateur charge un document interne relatif Ă  un nouveau procĂ©dĂ© de production dans un outil d’IA afin d’en obtenir un rĂ©sumĂ© ou une traduction. Cela peut avoir des consĂ©quences en matière de droit du travail (violation du devoir de fidĂ©litĂ© selon l’art. 321a CO) ainsi que des consĂ©quences pĂ©nales (art. 162 et 273 du Code pĂ©nal CP).

  • Droits d’auteur :

    Si des textes et des images tiers sont saisis dans un outil d’IA qui les utilise pour entraĂ®ner l’IA, cela peut constituer une violation des droits d’auteur. En effet, le titulaire des droits a le droit exclusif de dĂ©terminer si et dans quelles conditions son Ĺ“uvre peut ĂŞtre utilisĂ©e. De mĂŞme, les Ĺ“uvres gĂ©nĂ©rĂ©es par l’IA qui prĂ©sentent une forte similitude avec des textes ou des images existants peuvent poser des problèmes en matière de droit d’auteur (plagiat ou modification non autorisĂ©e). 

  • Droits de participation des travailleurs et des travailleuses : 

    En vertu des droits de participation (art. 10 de la loi sur la participation et art. 48 de la loi sur le travail), les travailleurs et les travailleuses doivent ĂŞtre consultĂ©s sur les questions relatives Ă  la protection de la santĂ© ou Ă  l’organisation du temps de travail. Cela vaut Ă©galement lorsque des systèmes d’IA sont utilisĂ©s Ă  cette fin.

  • Surveillance sur le lieu de travail :

    L’utilisation de systèmes d’IA pour surveiller et contrĂ´ler les travailleurs et les travailleuses sur leur lieu de travail n’est pas autorisĂ©e en vertu de l’art. 26 de l’ordonnance 3 relative Ă  la loi sur le travail (OLT 3). Si des systèmes de surveillance ou de contrĂ´le sont nĂ©cessaires pour d’autres raisons, ils doivent ĂŞtre conçus de manière Ă  ne pas nuire Ă  la santĂ© et Ă  la libertĂ© de mouvement des travailleurs et des travailleuses. Selon le Tribunal fĂ©dĂ©ral, les systèmes de surveillance et de contrĂ´le destinĂ©s Ă  surveiller le comportement des travailleurs et des travailleuses sur leur lieu de travail ne sont pas interdits en soi, mais seulement s’ils ne nuisent pas Ă  leur santĂ© ou Ă  leur bien-ĂŞtre. 

  • Risques de discrimination :

    La loi sur l’égalitĂ© (LEg) interdit toute discrimination fondĂ©e sur le sexe. NĂ©anmoins, les systèmes d’IA ne sont pas neutres : comme ils reposent sur des donnĂ©es existantes, ils peuvent reproduire les prĂ©jugĂ©s ou stĂ©rĂ©otypes existants – par exemple lors de l’évaluation de CV, lorsqu’un système algorithmique considère, sur la base d’analyses, qu’une carrière ininterrompue ou des emplois Ă  temps plein constituent la norme. Or cela dĂ©savantage (indirectement) les femmes, car elles interrompent plus souvent leur carrière ou travaillent Ă  temps partiel. C’est pourquoi les outils d’IA ne devraient ĂŞtre utilisĂ©s qu’à titre d’aide et ne devraient jamais prendre de dĂ©cisions eux-mĂŞmes. 

Conclusion


Compte tenu des multiples domaines d’application et des répercussions possibles de l’IA, les entreprises devraient se pencher suffisamment tôt sur son introduction. Cela comprend l’élaboration de directives internes claires et la formation des collaborateurs et des collaboratrices à l’utilisation responsable des systèmes d’IA.

Les entreprises doivent notamment accorder une attention particulière aux services d’IA utilisĂ©s et veiller Ă  conclure un contrat de sous-traitance. 

Andrea Voser, cheffe de secteur à la division Politique patronale (a.vosernoSpam@swissmem.ch), se tient à la disposition des entreprises membres de Swissmem pour tout renseignement complémentaire.

Ces articles peuvent vous intéresser

Dernière mise à jour: 16.02.2026