Warum es bei Agentic AI nicht nur auf technologische Fortschritte, sondern vor allem auf klare Verantwortlichkeiten, bewusste Entscheidungen und strukturelle Souveränität ankommt, erklärt Anita Klingel von der IPAI Foundation. Sie fordert mehr Transparenz und eine klarere Abgrenzung zu klassischen Automatisierungslösungen.
Frau Klingel, was treibt Sie im Zusammenhang mit Agentic AI besonders um? Wir reden viel über Agentic AI, aber was mir aktuell fehlt, ist eine gemeinsame Definition, was wir darunter verstehen. Und vor allem: was nicht. Für mich liegt die Besonderheit in der Tiefe der Entscheidungsfindung durch die Maschine – also in der Anzahl und Art der Zwischenschritte, die sie eigenständig vollzieht. Aber: Nicht jeder Use Case braucht gleich Agentic AI. Auch mit einer klassischen Robotic Process Automation (RPA) können Unternehmen Prozesse wie zum Beispiel das E-Mail-Management automatisieren. Es geht darum, gezielt zu prüfen, was wirklich Sinn macht – und auch gegebenenfalls den Mut zu haben, dem Hype zu widerstehen. Eine gute Strategie bedeutet auch, Dinge bewusst nicht zu tun.
Wie lässt sich sicherstellen, dass KI zielführend in den richtigen Bereichen eingesetzt wird? Zentral ist aus meiner Sicht, dass klare Verantwortlichkeiten definiert werden: Wer darf entscheiden, welcher Use Case wann umgesetzt wird? Es kann sinnvoll sein, die Mitarbeitenden bei der Ideenfindung einzubinden, um Anwendungsfälle nutzerzentriert aufzubauen. Die eigentliche Entscheidung muss dann aber auf einer fundierten Basis getroffen werden, die mehrere Perspektiven zusammenführt: zum Beispiel technische Machbarkeit, rechtliche Rahmenbedingungen, fachliche Relevanz und wirtschaftlicher Mehrwert. Die Entscheidung, wie Use Cases priorisiert werden, sollte daher nie eine Person allein tragen, sondern eher eine Art Gremium. Ein gut strukturiertes Bewertungsverfahren hilft dabei, strategische Faktoren wie Ressourcenbedarf oder Opportunitätskosten angemessen zu berücksichtigen. So lässt sich gewährleisten, dass die richtigen Projekte priorisiert werden. Die Frage nach der Verantwortung betrifft nicht nur die Priorisierung der Use Cases.
Was heißt das konkret? Ein banales Beispiel: Wenn bei einem KI-gestützten Bilderkennungssystem in der Produktion plötzlich die Kamera ausfällt – wer ist dann für die Reparatur zuständig? Solche Fragen müssen im Vorfeld geklärt sein. Wenn Unternehmen neue KI-Prozesse aufbauen, reicht es nicht, die Technologie einzuführen – es braucht ein Verantwortungsmodell für den gesamten Workflow. Wie sehen die Zuständigkeiten aus – auch jenseits der KI? Für mich liegt das größte Risiko nicht in der KI selbst, sondern in schlechter menschlicher Kontrolle. Je autonomer ein System agiert, desto wichtiger ist es, dass jemand da ist, der die Entscheidungen überprüft. Nehmen wir etwa einen KI-Agenten, der Vertriebsaufträge verteilt: Wer prüft, ob die Verteilung wirklich chancengleich für alle Mitarbeitenden läuft? Fehler müssen entdeckt und behoben werden können – das bedeutet auch, dass Ressourcen für die Identifikation und Korrektur bereitgestellt werden müssen. Vielleicht werden wir bald für KI-Agenten ähnliche Kriterien zur Leistungsbeurteilung wie für Menschen mitdenken.
Das ganze Interview mit Anita Klingel gibt’s in unserem Whitepaper „Road to Agentic AI. Faszination Automatisierung“.