Page d’accueil Outils d’IA / ChatGPT - Faut-il des règles d’application dans l’entreprise?
Interlocuteur  Claudio Haufgartner Claudio Haufgartner
Chef de secteur
+41 44 384 42 26 +41 44 384 42 26 c.haufgartnernoSpam@swissmem.ch
Partager

Outils d’IA / ChatGPT - Faut-il des règles d’application dans l’entreprise?

Aujourd’hui, la numérisation est présente dans tous les domaines du monde du travail. Les collaborateurs commencent à utiliser des systèmes d’IA tels que ChatGPT pour leur travail. Comment l’employeur doit-il gérer cette situation ?

Les systèmes d’IA tels que ChatGPT sont toujours plus utilisés dans le monde du travail. Pour éviter ou réduire les risques juridiques en rapport avec l’utilisation de systèmes d’IA tels que ChatGPT, il est important que les entreprises se préoccupent très tôt de ce sujet et qu’elles introduisent des directives appropriées.

Ignorer le sujet n’est pas une solution. Les collaborateurs utiliseront les outils d’IA, que l’entreprise l’approuve ou non. Il se peut donc que l’utilisation « incontrôlée » se fasse sans tenir compte des contenus qui sont ainsi divulgués. Des directives appropriées pour gérer l’utilisation de ChatGPT aident les collaborateurs à respecter les réglementations légales - ou celles propres à l’entreprise.

Une réglementation possible serait d’interdire les outils d’IA dans l’entreprise. Or, le fait d’interdire l’utilisation par exemple de ChatGPT, voire de l’empêcher à l’aide de mesures techniques, conduit souvent les collaborateurs à recourir à de tels services sur leur smartphone ou ordinateur privé et contournent ainsi l’interdiction, du moins sur le plan technique.

Il me semble plus judicieux d’autoriser les collaborateurs à les utiliser, mais de fixer à cet effet des règles claires qui définissent ce qui est autorisé et ce qui est interdit. Pour que ces règles soient « vécues » et appliquées, il est nécessaire de former et de sensibiliser les collaborateurs à la manière dont les informations doivent être traitées dans l’entreprise, qu’elles soient confidentielles ou non.

Dans le contexte de l’élaboration des politiques d’entreprise appropriĂ©es pour ChatGPT, il convient de prendre en considĂ©ration les points suivants : 

  1. Description des modes d’utilisation
    Il est recommandé de décrire à quelles fins ChatGPT et/ou tout autre outil d’IA autorisé peut être utilisé.
     
  2. Limitation de l’utilisation à des fins professionnelles
    L’utilisation et l’exploitation de ChatGPT dans l’entreprise doivent être expressément limitées à des fins professionnelles.
     
  3. Interdiction de saisir des données personnelles
    Il est extrêmement important de souligner qu’il est interdit de traiter des données personnelles en utilisant ChatGPT (p. ex. données de clients ou de collaborateurs).
     
  4. Interdiction de saisir des secrets de fabrication et commerciaux
    Il en va de mĂŞme pour la saisie de donnĂ©es qui doivent ĂŞtre considĂ©rĂ©es comme des informations confidentielles ou des secrets de fabrication ou commerciaux. 
     
  5. Vérification de l’exactitude des informations générées avant toute autre utilisation
    Les collaborateurs doivent être informés que, dans tous les cas, l’exactitude et l’exhaustivité des informations générées doivent être vérifiées avant toute autre utilisation. Les collaborateurs restent responsables du contenu des textes et des résultats générés par l’IA (par ex. en cas de communication aux clients ou sur le site web).
     
  6. Respect des conditions d’utilisation et des directives d’utilisation
    Les collaborateurs doivent également connaître les conditions d’utilisation des outils d’IA utilisés. Ils doivent notamment savoir comment le service peut être utilisé et quelles sont les utilisations et saisies interdites.
     
  7. Pas de violation des droits de tiers
    Les risques de violation des droits de tiers varient selon les systèmes d’IA utilisés (p. ex. droit d’auteur et droit des marques ou droit à l’image). L’utilisation de ChatGPT peut également présenter un risque concernant l’utilisation de textes protégés par des droits d’auteur. Il convient donc d’examiner s’il faut inclure dans la directive des indications visant à diminuer les risques de violation des droits d’auteur.

Conclusion

Si l’utilisation de ChatGPT n’est pas totalement interdite dans une entreprise, il est important de définir des directives claires pour l’utilisation et l’exploitation des outils d’IA. Les collaborateurs devraient être sensibilisés et formés aux risques et aux obligations de diligence à respecter.

 

Cet article, vaut-il la peine d'ĂŞtre lu ?

Ces articles peuvent vous intéresser

Dernière mise à jour: 14.09.2023