Künstliche Intelligenz im Aufsichtsrat: Potenziale nutzen, Verantwortung behalten
Die Digitalisierung erreicht zunehmend auch die Gremien der Unternehmensaufsicht. Künstliche Intelligenz (KI) kann die Arbeit im Aufsichtsrat und insbesondere im Prüfungsausschuss erleichtern – die rechtliche Verantwortung bleibt jedoch klar beim Menschen.
In deutschen Unternehmen beginnt KI punktuell unterstützend eingesetzt zu werden – etwa zur Datenanalyse in der Internen Revision oder zur Erkennung von Abweichungen in Transaktionsdaten. Eine automatisierte Aufbereitung von Quartals- oder Jahresabschlüssen durch KI im Prüfungsausschuss ist in der deutschen Praxis bislang jedoch nicht verbreitet und rechtlich nicht entlastend. Die Verantwortung für Plausibilisierung, Prüfung und Dokumentation liegt weiterhin beim Gremium bzw. seinen Mitgliedern.
Rechtlicher Rahmen: § 107 Abs. 3 AktG bleibt Maßstab
Gemäß § 107 Abs. 3 AktG ist der Prüfungsausschuss zuständig für die Überwachung des Rechnungslegungsprozesses, der Wirksamkeit des internen Kontrollsystems, des Risikomanagementsystems und der Abschlussprüfung. Die gesetzlichen Pflichten erfassen damit Kernbereiche in der Unternehmensorganisation, in denen KI unterstützend wirken könnte – etwa durch die Auswertung großer Datenmengen oder das Aufdecken von Unregelmäßigkeiten.
Dennoch gilt: Auch wenn KI-gestützte Tools zur Anwendung kommen, bleiben die Verantwortung und Sorgfaltspflicht gemäß § 93 Abs. 1, 116 Satz 1 AktG der Aufsichtsratsmitglieder uneingeschränkt bestehen. Eine Delegation der inhaltlichen Verantwortung an technische Systeme findet nicht statt und wäre auch nicht zulässig. Der Prüfungsausschuss muss die eingesetzten Werkzeuge verstehen, deren Ergebnisse kritisch hinterfragen und die von ihm darauf basierenden getroffenen Entscheidungen nachvollziehbar dokumentieren.
EU-AI Act: Neue Anforderungen an Governance und Transparenz
Mit dem EU-AI Act (Verordnung [EU] 2024/1681), der seit 1. August 2024 in Kraft ist und ab 2026 vollumfänglich gilt, kommen zusätzliche Pflichten auf Unternehmen zu. Auch wenn sich der AI Act primär an Anbieter und Betreiber von KI-Systemen richtet, betrifft er mittelbar auch deren Nutzer – darunter insbesondere Mitglieder von Aufsichtsräten, wenn sie Informationen aus solchen Systemen für ihre Entscheidungsfindung heranziehen.
Zu den wesentlichen Aspekten zählen: • Transparenzpflichten bei der Nutzung von KI • Nachvollziehbarkeit von Entscheidungsgrundlagen • Risikoklassifizierungen von Hochrisiko-KI-Systemen • Schulungspflichten für betroffene Funktionen im Unternehmen
Aufsichtsratsmitglieder müssen sich daher künftig mit den Grundsätzen der KI-Governance vertraut machen, insbesondere wenn KI in Bereichen wie Compliance, Nachhaltigkeitsberichterstattung (CSRD) oder Transaktionsanalyse eingesetzt wird.
Fazit: Technik als Hilfsmittel – keine Haftungsverschiebung Künstliche Intelligenz kann die Arbeit von Aufsichtsräten effizienter machen – insbesondere bei der Informationsaufbereitung und der Analyse großer Datenmengen. Doch sie verändert zugleich die Anforderungen an die Kontrolle. Der Prüfungsausschuss muss die Systeme verstehen, kritisch begleiten und ihre Ergebnisse selbstverantwortlich in die Entscheidungsfindung einbeziehen.
Die Digitalisierung bietet Chancen – aber keine generelle Entlastung von der Sorgfaltspflicht. KI kann unterstützen, aber nicht entscheiden.
🔎 Auch wenn die Stimmen zur KI sehr unterschiedlich klingen – zwischen Euphorie und Zurückhaltung – bleibt für Aufsichtsräte eines zentral: den Überblick zu bewahren, die Entwicklungen aufmerksam zu verfolgen und Verantwortung bewusst wahrzunehmen.
Dr.Viktoria Kickinger
Aufsichsrätin, GF Directors Academy

