Der Einsatz von generativen Anwendungen der Künstlichen Intelligenz (KI) wie ChatGPT bietet neue Möglichkeiten – geht aber auch mit Herausforderungen und Risiken einher. Als „generative KI“ bezeichnet man Systeme, die auf der Grundlage vorhandener Daten neue Inhalte wie Texte, Bilder, Audio oder Codes erstellen. Die derzeit wohl bekannteste Anwendung ist ChatGPT, daneben existieren aber viele weitere. Was aus Unternehmenssicht bei der Nutzung von generativen KI-Tools zu berücksichtigen ist, hat die Deutsche Industrie- und Handelskammer (DIHK) in zehn Aspekten zusammengefasst:

Datenschutz: Die Datenverarbeitung von ChatGPT ist bislang recht intransparent. Es ist nicht klar, auf welcher Rechtsgrundlage personenbezogene Daten in die USA übermittelt werden. Ebenso wenig gibt es eine Rechtsgrundlage für die Verarbeitung und Speicherung personenbezogener Daten auf Servern in den USA. Aus diesem Grund sollte beim Einsatz generativer KI-Systeme stets geprüft werden, wo die Datenverarbeitung stattfindet. Auf die Eingabe und Nutzung von personenbezogenen und auch anderen sensiblen beziehungsweise vertraulichen Daten sollte bei der Anwendung generativer KI-Systeme generell verzichtet werden. Das Gleiche gilt für Daten Dritter, die in anderen Zusammenhängen bezogen und/oder verarbeitet wurden. Insgesamt ist den Nutzern von ChatGPT zu empfehlen, sorgfältig abzuwägen, welche Informationen sie in die Systeme einspeisen. Denn sie können dazu verwendet werden, um die KI zu trainieren und dadurch zu verbessern. Seit Kurzem können ChatGPT-Nutzer über eine Opting-out-Funktion entscheiden, dass ihre Daten nicht mehr zum Trainieren der KI eingesetzt werden.

Datenqualität: Die Arbeitsergebnisse von KI-Tools hängen stark von der Qualität, der Quantität und der Gewichtung der einzelnen Datensätze ab, mit denen sie trainiert werden. Generative KI kann möglicherweise ungenaue, irreführende oder nicht aktuelle Aussagen generieren. Bei vielen generativen KI-Systemen ist nicht transparent, welche Datenquellen genutzt werden und welcher Meinungsschwerpunkt dabei repräsentiert wird. Inhalte und Antworten können einem sogenannten Bias unterliegen – also verzerrt sein und ein falsches Bild ergeben. Die Zuverlässigkeit und Objektivität des Outputs zum aktuellen Zeitpunkt sollten daher stets hinterfragt werden.

geistiges Eigentum: Daten, mit denen die KI gefüttert wurde, können urheberrechtlich geschützt sein – zum Beispiel Textbausteine, Begriffe oder Bilder. Dadurch stellt der KI-generierte Output unter Umständen eine Urheberrechtsverletzung dar. Die Vervielfältigung kann strafbar sein. Insofern ist bei Inhalten, die von KI generiert werden, Vorsicht geboten. Die Verwendung dieses Outputs für die Kommunikation nach außen ist deshalb besonders riskant.

Transparenz: Den Unternehmen wird empfohlen, ihren Einsatz von generativen KI-Modellen transparent zu machen – einschließlich der Information, in welchen Abläufen sie zum Einsatz kommen. Dies kann dazu beitragen, Vertrauen bei Kunden, Mitarbeitern und anderen Stakeholdern zu stärken.

Haftung und Risikomanagement: Die Unternehmen sollten berücksichtigen, dass es rechtliche und finanzielle Risiken im Zusammenhang mit dem Einsatz von generativer KI geben kann. Deshalb sollte auch die Haftungsfrage für den Fall geklärt werden, dass es zu Fehlern oder Schäden durch die Nutzung der KI kommt.

Überprüfung durch Menschen: Die Unternehmen sollten sicherstellen, dass KI-generierte Inhalte von einem Menschen überprüft werden – insbesondere in Situationen, in denen eine Fehlaussage schwerwiegende Folgen haben könnte.

Mitarbeiterinnen und Mitarbeiter schulen: Die Mitarbeiter müssen sensibilisiert werden, wie generative KI-Anwendungen funktionieren und wie sie sich in die Arbeit integrieren lassen. Dabei sollten auch rechtliche Themen (z. B. Datenschutz) und ethische Aspekte diskutiert werden. Wichtiger Aspekt: Die KI-Technologien entwickeln sich rasant weiter, deshalb müssen die Schulungen regelmäßig aktualisiert werden, um die Mitarbeiter auf dem neuesten Stand zu halten.

ethische Überlegungen: Beim Einsatz von ChatGPT und anderer KI-Anwendungen muss berücksichtigt werden, welche möglichen Auswirkungen sich für verschiedene Stakeholder (Kunden, Mitarbeiter, Gesellschaft etc.) ergeben können. Es sollte sichergestellt werden, dass die Nutzung im Einklang mit den ethischen Prinzipien des Unternehmens steht.

Coding: Falls Unternehmen generative KI im Bereich Programmierung und Coding einsetzen, sollten sie sich zuvor mit der Syntax und den Befehlen des Tools vertraut machen und die Erklärungen gründlich lesen. Fehler im Code können sich auf die Performance, Funktionalität und Sicherheit der Anwendungen auswirken.

Plugins: Seit Anfang April ermöglicht das hinter ChatGPT stehende Unternehmen OpenAI, dass sich ChatGPT über neue Plugins direkt in Unternehmenssysteme einbinden lässt. So können beispielsweise (Echtzeit-)Datensätze von Unternehmen über Schnittstellen gezielt durchsucht werden oder Aufgaben von der KI wahrgenommen werden, zum Beispiel die Buchung von Reisen. Zwar sind die Plugin-Features aktuell noch sehr begrenzt, KI-Experten rechnen jedoch damit, dass mittelfristig ein eigenes Ökosystem ähnlich dem App-Store von Apple entstehen könnte. Wenn Unternehmen solche Plugins nutzen wollen, sollten sie sich unbedingt intensiv mit Fragen zu Datenschutz, Urheberrecht und Datensicherheit auseinandersetzen.

Quelle: WiM – Wirtschaft in Mittelfranken, Ausgabe 10|2023