L’intelligence artificielle (IA) fait désormais partie intégrante de notre quotidien. Bien qu’il n’existe actuellement aucune législation spécifique à l’IA en Suisse (un projet de loi à ce sujet devrait être présenté à la fin de l’année), l’utilisation de l’IA n’est en aucun cas soustraite à tout cadre juridique. En effet, de nombreuses lois existantes s’appliquent à l’utilisation de l’IA, notamment la loi sur la protection des données (LPD), la loi sur le droit d’auteur (LDA) et le code des obligations (CO).
Dans le monde du travail, l’IA est souvent utilisée dans le domaine du recrutement. Elle est également utilisée par les collaborateurs et les collaboratrices comme outil de travail, par exemple pour rédiger des résumés, établir des évaluations ou effectuer des traductions, ainsi que pour générer des textes et des images.
Lorsque l’on utilise l’IA, différents domaines juridiques peuvent entrer en jeu :
Exigences en matière de protection des données :
Le traitement des données personnelles doit respecter les principes de la loi sur la protection des données (légalité, transparence, proportionnalité, principe de finalité). Les données personnelles sont toutes les informations qui se rapportent à une personne physique identifiée ou identifiable. Le traitement désigne toute opération relative à des données personnelles, notamment leur collecte, leur enregistrement, leur utilisation ou leur divulgation.
Il est important que les rôles et les responsabilités soient clairement définis et réglementés lors du traitement des données personnelles. Si une entreprise confie le traitement des données à un tiers (p. ex. un prestataire de services d’IA), elle doit s’assurer que celui-ci traite les données avec le même soin et dans le même respect de la loi qu’elle-même. À cette fin, un contrat de sous-traitance ou « Data Processing Agreement (DPA) » est conclu. Celui-ci régit les droits et obligations réciproques, en particulier les droits de contrôle du donneur d’ordre. Cela permet de garantir que le responsable du traitement des données n’utilise pas les données à des fins personnelles (p. ex. pour entraîner l’IA) ou ne les transfère pas vers des pays ne disposant pas d’une protection adéquate des données. En l’absence d’un tel contrat, rien ne garantit que les données seront traitées conformément à la protection des données.
Secrets commerciaux et de fabrication :
Il existe un risque que des secrets commerciaux et de fabrication soient divulgués involontairement, par exemple lorsqu’un collaborateur charge un document interne relatif à un nouveau procédé de production dans un outil d’IA afin d’en obtenir un résumé ou une traduction. Cela peut avoir des conséquences en matière de droit du travail (violation du devoir de fidélité selon l’art. 321a CO) ainsi que des conséquences pénales (art. 162 et 273 du Code pénal CP).
Droits d’auteur :
Si des textes et des images tiers sont saisis dans un outil d’IA qui les utilise pour entraîner l’IA, cela peut constituer une violation des droits d’auteur. En effet, le titulaire des droits a le droit exclusif de déterminer si et dans quelles conditions son œuvre peut être utilisée. De même, les œuvres générées par l’IA qui présentent une forte similitude avec des textes ou des images existants peuvent poser des problèmes en matière de droit d’auteur (plagiat ou modification non autorisée).
Droits de participation des travailleurs et des travailleuses :
En vertu des droits de participation (art. 10 de la loi sur la participation et art. 48 de la loi sur le travail), les travailleurs et les travailleuses doivent être consultés sur les questions relatives à la protection de la santé ou à l’organisation du temps de travail. Cela vaut également lorsque des systèmes d’IA sont utilisés à cette fin.
Surveillance sur le lieu de travail :
L’utilisation de systèmes d’IA pour surveiller et contrôler les travailleurs et les travailleuses sur leur lieu de travail n’est pas autorisée en vertu de l’art. 26 de l’ordonnance 3 relative à la loi sur le travail (OLT 3). Si des systèmes de surveillance ou de contrôle sont nécessaires pour d’autres raisons, ils doivent être conçus de manière à ne pas nuire à la santé et à la liberté de mouvement des travailleurs et des travailleuses. Selon le Tribunal fédéral, les systèmes de surveillance et de contrôle destinés à surveiller le comportement des travailleurs et des travailleuses sur leur lieu de travail ne sont pas interdits en soi, mais seulement s’ils ne nuisent pas à leur santé ou à leur bien-être.
Risques de discrimination :
La loi sur l’égalité (LEg) interdit toute discrimination fondée sur le sexe. Néanmoins, les systèmes d’IA ne sont pas neutres : comme ils reposent sur des données existantes, ils peuvent reproduire les préjugés ou stéréotypes existants – par exemple lors de l’évaluation de CV, lorsqu’un système algorithmique considère, sur la base d’analyses, qu’une carrière ininterrompue ou des emplois à temps plein constituent la norme. Or cela désavantage (indirectement) les femmes, car elles interrompent plus souvent leur carrière ou travaillent à temps partiel. C’est pourquoi les outils d’IA ne devraient être utilisés qu’à titre d’aide et ne devraient jamais prendre de décisions eux-mêmes.
Compte tenu des multiples domaines d’application et des répercussions possibles de l’IA, les entreprises devraient se pencher suffisamment tôt sur son introduction. Cela comprend l’élaboration de directives internes claires et la formation des collaborateurs et des collaboratrices à l’utilisation responsable des systèmes d’IA.
Les entreprises doivent notamment accorder une attention particulière aux services d’IA utilisés et veiller à conclure un contrat de sous-traitance.
Andrea Voser, cheffe de secteur à la division Politique patronale (a.vosernoSpam@swissmem.ch), se tient à la disposition des entreprises membres de Swissmem pour tout renseignement complémentaire.