Der Einsatz von KI-Systemen wie zum Beispiel ChatGPT nimmt auch in der Arbeitswelt stetig zu. Um rechtliche Risiken beim Einsatz von KI-Systemen wie ChatGPT zu vermeiden respektive zu reduzieren, sollten sich Unternehmen frĂĽhzeitig mit der Thematik auseinandersetzen und geeignete Richtlinien einfĂĽhren.
Das Thema zu ignorieren, ist keine Lösung. Denn die Mitarbeitenden werden KI-Tools nutzen, unabhängig davon, ob das Unternehmen dies gutheisst oder nicht. Diese «unkontrollierte» Nutzung geschieht dann unter Umständen ohne Rücksicht auf die Inhalte, die damit bekannt gegeben werden. Geeignete Richtlinien für den Umgang mit ChatGPT unterstützen die Mitarbeitenden darin, die gesetzlichen – oder unternehmenseigenen – Regelungen einzuhalten.
Eine mögliche Regelung wäre, KI-Tools im Unternehmen zu verbieten. Ein Verbot der Verwendung von z.B. ChatGPT oder gar die Verhinderung durch technische Massnahmen führt jedoch oftmals dazu, dass solche Dienste auf dem privaten Smartphone oder Computer verwendet werden und damit das Verbot zumindest technisch umgangen wird.
Sinnvoller erscheint mir, den Mitarbeitenden die Nutzung zu erlauben, hierzu jedoch klare Regeln festzuhalten, die definieren, was erlaubt und was verboten ist. Damit diese Regeln auch «gelebt» und umgesetzt werden, ist es notwendig, die Mitarbeitenden zu schulen und zu sensibilisieren. Es gilt, das Bewusstsein zu schärfen, wie mit Informationen im Unternehmen umgegangen werden muss – unabhängig davon, ob es sich um vertrauliche Informationen handelt oder nicht.
Bei der Ausgestaltung entsprechender Unternehmensrichtlinien fĂĽr ChatGPT sollten insbesondere folgende Punkte berĂĽcksichtigt werden:
- Beschreibung der Einsatzzwecke
Es empfiehlt sich, zu beschreiben, zu welchen Zwecken ChatGPT und/oder etwaige andere zugelassene KI-Tools verwendet werden können.
- Beschränkung der Nutzung auf geschäftliche Zwecke
Die Verwendung und Nutzung von ChatGPT im Unternehmen sollte ausdrücklich auf geschäftliche Zwecke beschränkt werden.
- Keine Eingabe personenbezogener Daten
Ă„usserst wichtig ist, dass bei der Verwendung von ChatGPT keine personenbezogenen Daten (z.B. Kunden- oder Mitarbeiterdaten) verarbeitet werden dĂĽrfen.
- Keine Eingabe von Betriebs- und Geschäftsgeheimnissen
Das Gleiche gilt auch für die Eingabe von Daten, welche als vertrauliche Informationen oder Betriebs- oder Geschäftsgeheimnisse zu betrachten sind.
- PrĂĽfung der Richtigkeit der Ausgaben vor weitergehender Nutzung
Die Mitarbeitenden sind darauf hinzuweisen, dass in jedem Fall die Ergebnisse vor einer weiteren Verwendung auf ihre Richtigkeit und Vollständigkeit geprüft werden müssen. Die Mitarbeitenden bleiben auch bei durch die KI-generierten Texte und Resultate (z.B. bei einer Kommunikation an Kunden oder auf der Webseite) für den Inhalt verantwortlich.
- Beachtung der Nutzungsbedingungen und der Nutzungsrichtlinien
Ebenso haben die Mitarbeitenden die Nutzungsbedingungen der verwendeten KI-Tools zu kennen. Insbesondere sollten sie wissen, wie der Dienst genutzt werden darf und welche Einsatzzwecke und Eingaben verboten sind.
- Keine Verletzung von Rechten Dritter
Je nachdem welche KI-Systeme eingesetzt werden, bestehen unterschiedliche Risiken der Verletzung von Rechten Dritter (z.B. Urheber- und Markenrecht bzw. Recht am eigenen Bild). Beim Einsatz von ChatGPT kann zudem ein Risiko bezĂĽglich der Nutzung urheberrechtlich geschĂĽtzter Texte bestehen. Es ist deshalb zu prĂĽfen, ob in der Richtlinie Hinweise aufgenommen werden sollen, welche die Risiken von Urheberrechtverletzungen reduzieren.
Fazit
Wird in einem Unternehmen der Einsatz von ChatGPT nicht gänzlich verboten, ist es wichtig, klare Richtlinien für die Verwendung und den Einsatz von KI-Tools zu definieren. Die Mitarbeitenden sollten in Bezug auf die Risiken und zu beachtenden Sorgfaltspflichten sensibilisiert und geschult werden.