Im Rahmen der WiKKI26-Konferenz an der Technischen Hochschule Wildau durfte ich in diesem Jahr gleich zu zwei Themen sprechen, die aktuell immer stärker zusammengehören: Datenarchitekturen für vertrauenswürdige KI und die Frage, wie KI-Entscheidungen langfristig nachvollziehbar und auditierbar bleiben können.
Unter den Titeln „AI-Governance by Design: Datenarchitekturen für vertrauenswürdige KI“ und „DLT als Audit- und Vertrauensschicht für KI-Entscheidungen“ ging es letztlich um eine zentrale Frage, die sich wie ein roter Faden durch viele Diskussionen der Konferenz zog:
Wie entsteht Vertrauen in KI-Systeme?
Nicht durch größere Modelle.
Nicht durch mehr Rechenleistung.
Sondern durch Architektur!
Eine KI-Konferenz zwischen Forschung, Praxis und Anwendung
Die WiKKI26 brachte rund 150 Teilnehmerinnen und Teilnehmer aus Forschung, Wirtschaft und öffentlichen Institutionen nach Wildau. Organisiert wurde die Veranstaltung von der Technischen Hochschule Wildau gemeinsam mit Partnern aus dem regionalen Innovationsökosystem, darunter NET4AI, das Mittelstand-Digital Zentrum Spreeland, das Zukunftszentrum Brandenburg, der SIBB Digitalverband Berlin-Brandenburg sowie EDIH pro_digital.

Schon in der Eröffnung durch Prof. Dr. Jörg Reiff-Stephan, Direktor des iCPPS und Sprecher von NET4AI, sowie Prof. Dr. Ulrike Tippe, Präsidentin der TH Wildau, wurde deutlich, worum es bei dieser Konferenz eigentlich ging:
Künstliche Intelligenz entwickelt sich immer stärker von einer Forschungstechnologie zu einer systemischen Infrastrukturfrage für Wirtschaft und Gesellschaft.
Die Veranstaltung war entsprechend interdisziplinär angelegt. Wissenschaftliche Beiträge trafen auf industrielle Anwendungen, Forschungsprojekte auf konkrete Implementierungen. Dadurch entstand eine Diskussion, die weit über Modellarchitekturen hinausging und sich stärker mit der Frage beschäftigte, wie KI in realen Organisationen funktioniert.
KI als Querschnittstechnologie
Ein Blick auf die Poster-Sessions machte deutlich, wie breit das Feld inzwischen geworden ist.
Von intelligenten Werkstückträgern für Produktionssimulationen über KI-Sensorik für zukünftige Messsysteme bis hin zu LLM-basierten Codeanalysen oder synthetischen Trainingsdaten für die Erkennung von Graffiti an Zügen. Die Beiträge zeigten, wie unterschiedlich KI inzwischen eingesetzt wird.

Parallel dazu gab es spannende Projekte aus den Life Sciences, etwa zur automatischen Erkennung von Parasiten in mikroskopischen Bildern oder zur Modellierung von Krankheitsverläufen mit maschinellem Lernen.
Was sich hier sehr deutlich zeigte: KI entwickelt sich zunehmend zu einer Querschnittstechnologie, die immer mehr Fachdomänen miteinander verbindet.
Wenn Algorithmen ganze Geschäftsmodelle verändern
Einen besonders spannenden Blick auf wirtschaftliche Auswirkungen von KI bot der Vortrag von Robert Henker von der XU Exponential University in Potsdam.
Unter dem Titel „Algorithmic Entrepreneurship“ zeigte er anhand eines realen Unternehmensbeispiels, wie stark algorithmische Automatisierung Geschäftsmodelle verändern kann.

Während klassische Organisationen ihre Leistungsfähigkeit häufig über Mitarbeiterzahlen skalieren, entstehen hier Strukturen, in denen extrem hohe Transaktionsvolumina mit vergleichsweise kleinen Teams bewältigt werden können.
Algorithmen übernehmen dabei zunehmend Aufgaben, die früher menschliche Arbeitsschritte erforderten - von der Analyse über die Bewertung bis hin zur operativen Entscheidungsunterstützung. Dadurch entstehen Organisationsformen, die weniger durch Hierarchien und stärker durch algorithmische Prozesse geprägt sind.
Proof of Cognition: when AI agents take over the reins of blockchain
Read More →Dieser Blick auf unternehmerische Strukturen ergänzte die eher technischen Diskussionen der Konferenz sehr gut. Denn er zeigt, dass KI nicht nur Prozesse optimiert, sondern ganze Wertschöpfungsmodelle verändern kann.
Wenn Mensch und KI gemeinsam Wertschöpfung organisieren
Eine weitere spannende Perspektive brachten Anja Beuster (NET4AI) und Svetlana Meissner vom Mittelstand-Digital Zentrum Spreeland in die Diskussion ein.

In ihrem Vortrag über „Mensch-KI-Kollaboration und Agentic Business Orchestration“ ging es um einen Paradigmenwechsel in der Organisation von Arbeit und Wertschöpfung.
Der zentrale Gedanke: In Zukunft werden viele Prozesse nicht mehr ausschließlich von Menschen oder Maschinen gesteuert, sondern von Joint Cognitive Systems, also Systemen, in denen menschliche Expertise und algorithmische Entscheidungslogik eng miteinander verzahnt sind.
KI-Systeme übernehmen dabei zunehmend Aufgaben wie:
- Analyse komplexer Datenstrukturen
- Vorbereitung von Entscheidungen
- Koordination von Prozessschritten
Der Mensch bleibt jedoch zentral für Kontext, Bewertung und Verantwortung. Wertschöpfung entsteht damit zunehmend durch das Zusammenspiel von menschlicher Erfahrung und algorithmischer Intelligenz.
Gerade im Mittelstand eröffnet dieser Ansatz interessante Perspektiven. Denn KI muss hier nicht zwangsläufig vollständige Automatisierung bedeuten, sondern kann als kognitive Erweiterung von Organisationen verstanden werden.
Governance wird zur Schlüsselkompetenz
Parallel zu diesen technologischen Entwicklungen spielte auch das Thema Governance eine wichtige Rolle auf der Konferenz.
Mehrere Beiträge beschäftigten sich mit Fragen rund um Responsible AI, regulatorische Rahmenbedingungen oder Governance-Modelle für datengetriebene Energiesysteme.
Diese Diskussionen zeigen eine Entwicklung, die derzeit in vielen Organisationen sichtbar wird: KI wird zunehmend weniger als reine Softwarefrage verstanden und stärker als Governance- und Organisationsfrage.
Mein Beitrag: Vertrauen beginnt bei der Datenarchitektur
Vor diesem Hintergrund habe ich zwei Perspektiven vorgestellt, die häufig getrennt diskutiert werden, in der Praxis jedoch eng zusammengehören.
Im ersten Vortrag ging es um eine Beobachtung, die sich in vielen Projekten bestätigt: Viele KI-Initiativen scheitern nicht an den Modellen, sondern an der Datenstruktur.
Fragmentierte Datenlandschaften, Datensilos und unklare Informationsbedarfe erschweren den Aufbau stabiler KI-Systeme erheblich.
Deshalb lautete eine zentrale These meines Vortrags:
Gute KI beginnt nicht mit Modellen - sie beginnt mit Fragen.
Erst wenn klar ist, welche Informationen tatsächlich benötigt werden, lassen sich tragfähige Datenmodelle entwickeln. In diesem Zusammenhang gewinnen semantische Modelle, Ontologien und Wissensgraphen wieder an Bedeutung, weil sie helfen, Beziehungen zwischen Fachbegriffen explizit zu modellieren.
Daten werden erst dann wirklich nutzbar, wenn sie Kontext und Bedeutung erhalten.

KI-Entscheidungen müssen nachvollziehbar bleiben
Der zweite Vortrag knüpfte genau an dieser Stelle an. Denn selbst wenn Datenstrukturen sauber aufgebaut sind, bleibt eine zentrale Herausforderung bestehen:
Wie lassen sich KI-Entscheidungen langfristig nachvollziehen?
In vielen Organisationen liegen alle relevanten Informationen in internen Systemen, etwa in Logs, Datenbanken oder Machine-Learning-Pipelines. Diese Informationen verändern sich jedoch im Laufe der Zeit. Modelle werden aktualisiert, Daten überschrieben und Parameter angepasst.
Irgendwann lässt sich nicht mehr eindeutig rekonstruieren, welche Datenbasis zu einer bestimmten Entscheidung geführt hat.
Gerade in regulierten Bereichen wird das zu einer zentralen Herausforderung.
Eine Vertrauensschicht für KI-Systeme
Eine mögliche Lösung besteht darin, eine zusätzliche Audit- und Vertrauensschicht einzuführen. Hier können Distributed-Ledger-Technologien eine Rolle spielen.
Dabei geht es nicht darum, Daten auf einer Blockchain zu speichern. Sensible Informationen bleiben weiterhin in den bestehenden Systemen. Auf dem Ledger werden lediglich kryptographische Fingerabdrücke, Zeitstempel und Modellversionen gespeichert.

Man könnte sagen: Die Daten bleiben im Tresor - auf der Blockchain liegt nur der Fingerabdruck.
So entsteht eine unveränderliche Audit-Spur, ohne sensible Informationen offenzulegen.
Architektur statt Modellfetischismus
Die Diskussionen in Wildau haben insgesamt eine Entwicklung bestätigt, die derzeit in vielen Organisationen sichtbar wird.
Der Fokus verschiebt sich. Während früher einzelne Modelle im Mittelpunkt standen, wird heute immer klarer, dass Vertrauen nur im Zusammenspiel des gesamten Systems entstehen kann.
Daten, Modelle, Prozesse, Governance und institutionelle Verantwortung bilden gemeinsam die Architektur eines KI-Systems.
Mein Fazit zur WiKKI26
Die Zukunft der KI entscheidet sich nicht nur in Forschungslaboren oder bei Modellanbietern.
Sie entscheidet sich in Organisationen, in ihren Datenstrukturen, ihrer Governance und ihrer technischen Architektur.
Die entscheidende Frage lautet daher nicht:
Welches Modell setzen wir ein?
Die entscheidende Frage lautet:
Wie bauen wir Systeme, denen wir langfristig vertrauen können?
KI ist deshalb nicht nur eine Technologiefrage.
Sie ist eine Architektur- und Governance-entscheidung.
Und genau deshalb steckt in diesem Feld noch enormes Potenzial für die kommenden Jahre.



