Rechtskonforme KI-Nutzung in der DACH-Region sichern

Autor: Roman Mayr

Rechtskonforme KI-Nutzung in der DACH-Region sichern

Responsible AI & Compliance ·

Die Integration von Künstlicher Intelligenz (KI) in Geschäftsprozesse bringt viele Vorteile mit sich, die jedoch mit der Verantwortung einhergehen, sowohl ethische als auch gesetzliche Anforderungen zu erfüllen. In der DACH-Region sind Unternehmen dazu verpflichtet, spezifische Vorgaben aus Datenschutzgesetzen, wie der DSGVO, einzuhalten. Doch trotz der klaren Richtlinien kommt es häufig zu Fehlern, die vermieden werden können.

Typische Fehler bei der Erfüllung von DACH-relevanten Vorgaben

Ein häufiger Fehler besteht darin, die Datenschutzfolgenabschätzung (DSFA) nicht korrekt durchzuführen. Unternehmen verkennen oft, dass sie dazu verpflichtet sind, eine DSFA durchzuführen, bevor sie KI-Systeme einführen, welche die Privatsphäre erheblich beeinträchtigen könnten. Der Korrekturansatz besteht darin, bereits in den Planungsstadien von KI-Projekten eine umfassende Analyse potenzieller Risiken und geeigneter Schutzmassnahmen durchzuführen. Diese sollten dokumentiert und regelmässig aktualisiert werden.

Ein weiterer Fehler liegt in der Vernachlässigung der Transparenzpflichten. Viele Unternehmen versäumen es, klar und deutlich über den Einsatz von KI-Technologien zu informieren und die Entscheidungsprozesse dieser Systeme nachvollziehbar zu machen. Korrigiert werden kann dies durch die Etablierung einer Kultur der Offenheit, in der Nutzer und Kunden aktiv über den Einsatz von KI informiert werden. Dazu gehört auch, den Mechanismus von Algorithmen verständlich zu erläutern, insbesondere in Bereichen, welche personenbezogene Daten betreffen.

Schliesslich unterschätzen Unternehmen häufig die Notwendigkeit einer kontinuierlichen Überwachung und Anpassung ihrer KI-Systeme, um stets den gesetzlichen Anforderungen gerecht zu bleiben. Die Einführung von Kontrollmechanismen und regelmässigen Überprüfungsprozessen kann hier Abhilfe schaffen.

Handlungsanleitung für die nächsten 14–30 Tage


  1. Initiale Bestandsaufnahme: Innerhalb der ersten Woche sollte eine umfassende Bestandsaufnahme aller eingesetzten KI-Systeme und deren datenschutzrelevante Prozesse erfolgen. Dies beinhaltet die Identifizierung von Bereichen, die einer DSFA unterliegen könnten.
  2. Durchführung einer Datenschutzfolgenabschätzung (DSFA): In der zweiten Woche sollten Unternehmen, die dies noch nicht getan haben, eine DSFA für alle relevanten Systeme durchführen. Dabei sollen Risiken identifiziert und dokumentiert, sowie Schutzmassnahmen vorgeschlagen werden.
  3. Transparenzkonzept entwickeln: Parallel dazu, bis Ende der dritten Woche, sollte ein Konzept erarbeitet werden, das die Transparenz gegenüber betroffenen Personen sicherstellt. Dieses Konzept sollte Kommunikationswege und -inhalte definieren, um Kunden und Nutzer klar über den Einsatz von KI-Technologie zu informieren.
  4. Einführung von Kontrollmechanismen: Ab der vierten Woche sollten Überwachungs- und Anpassungsmechanismen implementiert werden, die sicherstellen, dass alle KI-Systeme fortlaufend rechtlichen Anforderungen entsprechen und an neue gesetzliche Entwicklungen angepasst werden können. Hierbei sollte auch das Möglichkeit eines Feedback-Mechanismus in Betracht gezogen werden, um kontinuierliche Verbesserungen zu gewährleisten.

Durch eine konsequente Umsetzung dieser Schritte schaffen Unternehmen die Grundlage für den rechtssicheren Einsatz von Künstlicher Intelligenz in der DACH-Region. Dies gewährleistet nicht nur die Einhaltung gesetzlicher Vorgaben, sondern trägt auch massgeblich zu einem verantwortungsvollen Umgang mit Technologie bei.