Darum zerstört KI Ihr IT-Betriebsmodell (am Beispiel Dashboarding)

Mar 18
Die Probleme heutiger Datenorganisationen manifestieren sich in jedem einzelnen Dashboard. Wer in Zukunft als Unternehmen noch relevant sein will, muss mehr als die Art und Weise, wie er Dashboards erstellt, hinterfragen.

Eine Trennung in Menschen, die Daten aufbereiten, in solche die Datenanalysen entwickeln, und Menschen, die diese nutzen, hat in der Vergangenheit durchaus Sinn ergeben. Programmieren war schwierig, das Verständnis über Datenmodelle und deren Interpretation geheimes Spezialwissen. Doch die Schwelle, mit Daten zu interagieren, sinkt seit Jahren kontinuierlich und spätestens seit ChatGPT exponentiell. Das wird auch die Art und Weise, wie wir mit Daten arbeiten fundamental verändern.

Wer jetzt noch in Strukturen investiert, die die funktionale Entwicklung von Dashboards vorantreiben, investiert in ein Auslaufmodell.

Um zu erfahren, warum wir überzeugt sind, dass hochspezialisierte Analysetools in Zukunft keine Rolle mehr spielen werden und was das für Ihr IT Betriebsmodell bedeutet, lesen Sie weiter!

Ein handfestes Dilemma!

Angesichts der Vorzüge und Schwächen von Dashboards sowie die Stärken und Grenzen von Excel stehen Unternehmen tatsächlich vor einem Dilemma. Auf der einen Seite bieten Dashboards eine strukturierte und sichere Möglichkeit, Daten zu präsentieren und zu analysieren, aber ihre Erstellung und Wartung kann aufwändig sein. Sie bieten oft nicht die Flexibilität, die Geschäftsanwender für schnelle, ad-hoc Analysen und individuelle Berichte benötigen. Auf der anderen Seite bietet Excel mit seiner Benutzerfreundlichkeit und Anpassbarkeit genau diese Flexibilität, aber es fehlt an der Struktur, Sicherheit und Skalierbarkeit, die für eine verlässliche Unternehmensdatenanalyse erforderlich sind.

In den letzten Jahren hatte sich ein Trend hin zu Dashboards abgezeichnet, und Excel hat in einigen Unternehmenskontexten an Stellenwert verloren. Dashboardwerkzeuge wie Microsoft Power BI oder Tableau konnten mit einer, gegenüber früheren Werkzeugen wesentlich intuitiveren Oberfläche und zum Teil beeindruckenden visuellen Aufbereitungen überzeugen.  Letztlich ist dies der Tendenz zur Annäherung der Funktionen und Benutzererfahrungen zwischen traditionellen Spreadsheet-Tools und modernen Dashboard-Lösungen geschuldet. Datenanalysewerkzeuge haben mittlerweile auch in der Breite eine durchaus beeindruckende Marktreife erreicht. 

Das eigentliche Unterscheidungsmerkmal liegt immer weniger in den individuellen Funktionen von Werkzeugen, als vielmehr in den zugrunde liegenden Betriebsmodellen. Excel folgt dem Prinzip der vollen Datenkontrolle durch den Endnutzer, was maximale Flexibilität ermöglicht, aber auch Herausforderungen in Bezug auf Datenkonsistenz, -sicherheit und -governance mit sich bringt. Dashboards hingegen basieren auf einem Modell, das strukturierte Datensätze und festgelegte Analysepfade bietet, um Konsistenz und Sicherheit zu gewährleisten, was jedoch oft auf Kosten der individuellen Anpassbarkeit geht.

Dies ist eine ganz wichtige Erkenntnis und eine gute Nachricht! Denn dies bedeutet nichts anderes, als dass die Wahl des Werkzeugs einen viel geringeren Unterschied ausmacht, als ihr typischerweise zugeschrieben wird. Governance, Data Management, Leadership und die Datenorganisation sind heute viel wesentlichere Faktoren, um das volle Potenzial der Daten in Organisationen zu erschließen. 

Zum Hintergrund

Wenn Ihnen die Zielsetzung, Vor- und Nachteile von Dashboards bereits geläufig sind, können Sie den Abschnitt "zum Hintergrund" überspringen, um schneller zur Kernaussage zu gelangen.

Das Betriebsmodell macht den Unterschied

Sie haben es vermutlich schon bemerkt. Excel und Dashboardwerkzeuge stehen in diesem Beitrag sinnbildlich für zwei recht gegensätzliche Ansätze eines Betriebsmodells von Datenwerkzeugen.

Das Betriebsmodell hinter Excel basiert auf dem Prinzip der individuellen Autonomie: "Gib mir alle Daten, die du hast, und ich kümmere mich selbst um den Rest." Diese Autonomie ist ein Schlüsselfaktor für die Beliebtheit von Excel, da sie den Benutzern die volle Kontrolle über ihre Datenanalysen gibt, von der Auswahl der Daten bis hin zur Art und Weise ihrer Auswertung und Präsentation. Benutzer schätzen die Möglichkeit, ihre Daten nach Belieben zu manipulieren, eigene Berechnungen anzustellen und persönliche Berichte zu erstellen, ohne Einschränkungen durch vordefinierte Strukturen oder die Notwendigkeit, auf die IT-Abteilung zurückgreifen zu müssen.

Im Gegensatz dazu ist das Betriebsmodell von Dashboards in der Regel komplexer und strukturierter. Dashboards werden oft von IT- oder Datenanalysten-Teams entwickelt, die Datengrundlagen und Analyseframeworks für Business-Anwender vorbereiten. Während dieses Ansatzes sichere, konsistente und qualitätsgesicherte Daten gewährleistet, beschränkt er auch die Flexibilität der Endbenutzer. Sie können sich in Dashboards nur innerhalb des vordefinierten Rahmens bewegen, was bedeutet, dass ihre Fähigkeit, eigene Analysen durchzuführen, Ad-hoc-Fragen zu beantworten oder Daten außerhalb des vorgesehenen Umfangs zu erkunden, begrenzt ist.

Das ideale Betriebsmodell für Datenanalyse und -berichterstattung in Unternehmen müsste daher einen Mittelweg finden, der sowohl die Struktur und Sicherheit von Dashboards als auch die Flexibilität und Benutzerkontrolle von Excel integriert. 

Kann KI uns nicht retten?

Künstliche Intelligenz verspricht, die Art und Weise, wie wir mit Daten interagieren grundlegend zu verändern. KI-gestützte Systeme können uns ad hoc genau die Informationen und Einsichten liefern, die wir gerade benötigen. Statt Dashboards zu öffnen und vorgegebene Navigationspfade zu folgen, können sie uns ad hoc eine maßgeschneiderte Sicht auf unsere Daten bieten und dabei kontextbezogene, entscheidungsrelevante Informationen anbieten.

Welche Rolle spielen dann noch Werkzeuge zur Modellierung von Benutzeroberfläche, wenn uns die KI Ad-Hoc jederzeit eine passende Sicht generieren kann? Wie
wichtig sind statische Dashboards überhaupt noch, wenn uns die KI Auffälligkeiten in einem bestimmten Kontext ganz ohne menschliches Zutun zusammenstellen und präsentieren kann?  

Jensen Huang, Gründer und CEO von Nvidia geht davon aus, dass es in naher Zukunft nicht mehr notwendig sein wird programmieren zu können. 

Write your awesome label here.
Over the course of the last 10 years, 15 years, almost everybody who sits on a stage like this would tell you that it is vital that your children learn computer science. [That] everybody should learn how to program. And in fact, it’s almost exactly the opposite.
It is our job to create computing technology such that nobody has to program and that the programming language is human. 

Everybody in the world is now a programmer. This is the miracle of artificial intelligence.

Jensen Huang, Nvidia
Anfang 2023 bestand ChatGPT die Google-Prüfung für hochqualifizierte Softwareentwickler. Später im Jahr 2023 meldet GitHub, dass 46 % des Codes in allen Programmiersprachen mit Copilot, dem KI-gestützten Entwicklerwerkzeug des Unternehmens, erstellt wird. Bei einem Vergleich mit über 5.000 menschlichen Teilnehmern schlug DeepMinds AlphaCode bei seinem Debüt 45 % der erfahrenen Programmierer.

Wenn man bedenkt, dass all diese Entwicklungen innerhalb des ersten Jahres nach der Veröffentlichung von ChatGPT stattgefunden haben, stellt sich die Frage, was in den nächsten zwei oder drei Jahren passieren wird, wenn die Technologie noch weiter fortschreitet.

Wie wahrscheinlich ist es also, dass wir in Zukunft noch Dashboards (manuell) erstellen?

Folgen für das IT Betriebsmodell

ChatGPT hat für eine breite Bevölkerungsschicht erlebbar gemacht, dass Aufgaben, die normalerweise von einem Team von Menschen über mehrere Wochen hinweg erledigt werden, von der KI in nur wenigen Minuten erledigt werden können.
Natürlich sind wir noch nicht in vielen Bereichen so weit, aber wir befinden uns auf einem rasanten Weg. Alles was wir im technischen Bereich als gegeben angenommen haben, Vorgehensweisen die wir seit vielen Jahren nicht in Frage gestellt haben, könnten innerhalb weniger Jahre über den Haufen geworfen werden.

Bei Datareus sind wir überzeugt, dass wir am Vorabend einer Revolution in der Datenanalyse stehen. Eine Revolution, die nicht nur die Werkzeuge, die wir verwenden, sondern auch unsere Herangehensweise an Daten und Entscheidungsfindung grundlegend verändern wird.

Nicht nur das heute übliche Dashboard-Betriebsmodell, sondern in der Konsequenz das ganze IT Betriebsmodell wird in seiner aktuellen Form schon sehr bald nicht mehr Bestand haben können.

Wenn aber das heutige Betriebsmodell ein Auslaufmodell ist, stellt sich die Frage, wie ein zukünftiges Modell aussehen könnte. Denn eins ist klar, Unternehmen die proaktiv handeln und sich auf diese Veränderungen vorbereiten, könnten einen signifikanten Wettbewerbsvorteil erlangen.

Grenzen der KI

Obwohl KI und maschinelles Lernen in der Lage sind, viele Aspekte der Datenanalyse zu automatisieren und zu optimieren, hängt ihr Erfolg stark von der Qualität und Struktur der zugrunde liegenden Daten ab. Ohne gut vorbereitete und organisierte Daten könnten KI-Systeme Schwierigkeiten haben, präzise und nützliche Erkenntnisse zu generieren.

In der Zukunft könnten fortschrittliche KI-Systeme zwar in der Lage sein, bestimmte Aufgaben im Zusammenhang mit der Datenvorbereitung und -optimierung zu übernehmen, wie beispielsweise die Identifizierung und Bereinigung fehlerhafter Daten oder die automatische Kategorisierung und Tagging von Daten. Dennoch ist es unwahrscheinlich, dass KI die Notwendigkeit einer sorgfältigen Planung und Strukturierung von Daten durch menschliche Experten vollständig ersetzen kann. Der wesentliche und sehr häufig übersehene Aspekt ist, dass Daten in komplexen Szenarien, ganz zwangsläufig nie alle relevanten Aspekte eines Problems erfassen können. Die Rolle des Menschen bei der Definition von Geschäftslogik, Kontext und Bedeutung der Daten wird weiterhin von zentraler Bedeutung sein.

Daraus folgt, dass die Zukunft der menschlichen Arbeit in spezifischen Fachgebieten - in der Wissenschaft, der Fertigung, der Landwirtschaft, dem Bauwesen, der Bildung, dem Ingenieurwesen und so weiter liegen wird.
Denn die künstliche Intelligenz kann zwar jede Menge Ideen vorbringen, aber über die Informationen, die Sie ihr zur Verfügung stellen, hinaus kann sie nicht viel über die Realität Ihrer Arbeit wissen. Deshalb ist tiefes Fachwissen künftig so wichtig, damit Sie die richtigen Fragen stellen können und die KI Ihnen die bestmöglichen Antworten geben kann.

So richten Sie Ihr Betriebsmodell auf die Zukunft aus

Die Vorbereitung von Unternehmen auf eine Zukunft, in der KI eine zentrale Rolle in der Datenanalyse spielt, erfordert einen strategischen Ansatz zur Entwicklung und Verwaltung von Daten in dem fachliches Know-How mit Datenmanagement in Einklang gebracht wird. Der derzeit populärste Ansatz dieses Ziel zu erreichen sind so genannte Datenprodukte. Diese in sich geschlossene Einheiten, stellen Daten in einer strukturierten, nutzbaren und wertorientierten Weise bereit. Sie ermöglichen es, Daten als Ressource zu behandeln, die entwickelt, gemanagt und optimiert werden kann, ähnlich wie Softwareprodukte. Dieser Ansatz fördert die Verständlichkeit, Zugänglichkeit und Qualität der Daten und erleichtert somit die Analyse und Nutzung durch Endanwender sowie durch automatisierte Systeme. Die Ausrichtung der Datenzusammenarbeit auf Datenprodukte ist ein umfassender Prozess, der nicht nur eine technische Neuausrichtung, sondern auch eine Anpassung der Organisationsstruktur und -kultur.

Die Einführung von Datenprodukten erfordert eine klare Definition und Abgrenzung von Domänen innerhalb der Organisation. Jede Domäne sollte einen spezifischen Geschäftsbereich oder eine spezifische Funktion abdecken und über ein Team verfügen, das sowohl über das notwendige fachliche als auch über das technische Know-How verfügt, um Datenprodukte zu entwickeln und zu verwalten. Diese Teams sind für die Qualität, Verfügbarkeit und Sicherheit der Daten in ihrer Domäne verantwortlich und fungieren als Schnittstelle zwischen den Datenquellen und den Endnutzern.

Neben der Definition von Domänen ist die Ausrichtung der Datenstrategie auf Wertströme innerhalb der Organisation von entscheidender Bedeutung. Wertströme beziehen sich auf die Prozesse, die Wert für den Kunden generieren, von der Idee bis zur Auslieferung. Durch die Ausrichtung der Datenprodukte auf diese Wertströme können Unternehmen sicherstellen, dass die Datenanalyse eng mit den Geschäftszielen verknüpft ist und konkrete geschäftliche Herausforderungen adressiert.

Um die Ausrichtung auf Wertströme zu unterstützen und die effektive Nutzung von Datenprodukten innerhalb der Organisation zu fördern, ist eine starke Zusammenarbeit und Kommunikation zwischen den Domänen-Teams, den Endnutzern der Daten und den IT-Teams notwendig. Dies kann durch regelmäßige Abstimmungstreffen, gemeinsame Workshops und die Einrichtung von Cross-Functional Teams unterstützt werden, die an spezifischen Projekten oder Initiativen arbeiten, welche mehrere Domänen überspannen. 

Durch die Kombination dieser organisatorischen Anpassungen mit der technologischen Implementierung von Datenprodukten können Unternehmen eine solide Grundlage für die Zukunft der Datenanalyse schaffen, die sowohl die Möglichkeiten der KI als auch das tiefe Verständnis der Geschäftsprozesse und -bedürfnisse integriert.

Sieben Punkte Plan

Diese Vision stellt eine umfassende Transformation dar, die tiefgreifende Veränderungen in der Unternehmenskultur, den Fähigkeiten der Mitarbeiter und den Organisationsstrukturen erfordert. Unternehmen, die diesen Wandel erfolgreich vollziehen, werden in der Lage sein, Daten effektiver zu nutzen, agiler auf Veränderungen zu reagieren und letztlich wettbewerbsfähiger zu sein. Wir haben Ihnen in den folgenden sieben Punkte die wesentlichen Maßnahmen zusammen gefasst, die Sie auf diesem Weg berücksichtigen sollten:

1.) Datenkultur für Menschen 
Die erfolgreiche Umsetzung eines datengetriebenen Ansatzes erfordert die Schulung der Mitarbeitenden in den relevanten Domänen und Wertströmen. Dazu gehört meist weniger die Vermittlung von technischen Fähigkeiten im Umgang mit Daten und Analysetools, sondern viel mehr das Verständnis für die Integration von Daten in Geschäftsprozesse und -ziele, die mit Datenprodukten unterstützt werden sollen.

2.) Entwicklung standardisierter Datenprodukte 
Domänenverantwortliche spielen eine Schlüsselrolle bei der Entwicklung standardisierter Datenprodukte, die den Bedürfnissen ihrer spezifischen Bereiche entsprechen. Diese Datenprodukte müssen sorgfältig verwaltet, kontinuierlich verbessert und effektiv intern vermarktet werden, um ihre Nutzung und ihren Einfluss im gesamten Unternehmen zu maximieren. Datenproduktmanagement wird zu einer zentralen Disziplin, die über den Erfolg von datengetriebenen Initiativen entscheidet.

3.) Verantwortung der Datenproduktverantwortlichen 
Die Verantwortung für die Generierung sinnvoller und relevanter Daten liegt bei den Verantwortlichen für die Datenprodukte. Sie müssen sicherstellen, dass die Algorithmen und Datenmodelle, die diesen Produkten zugrunde liegen, korrekt, transparent und ethisch sind. Dies erfordert ein tiefes Verständnis der Daten, der zugrundeliegenden Geschäftsprozesse und der potenziellen Auswirkungen der Datenanalyse. Im föderalen System übernehmen Sie die Rolle der Exekutive.

4.) Auflösung traditioneller Rollen 
Die Unterscheidung zwischen denjenigen, die Datenanalysen entwickeln, und denjenigen, die sie nutzen, wird zunehmend obsolet. In der zukünftigen Arbeitswelt ist Datenkompetenz eine Grundvoraussetzung für alle Mitarbeiter, unabhängig von ihrer Rolle oder Position. Dies bedeutet, dass jeder im Unternehmen in der Lage sein muss, Daten zu interpretieren, Schlussfolgerungen zu ziehen und auf dieser Grundlage Entscheidungen zu treffen. Unternehmen müssen daher in die datenbezogene Bildung und Entwicklung aller Mitarbeiter investieren, um eine umfassende Datenkompetenz zu gewährleisten.

5.) Transformation der CDO-Organisationen 
Chief Data Officer (CDO)-Organisationen entwickeln sich zur internen Managementberatungen, die die Anwender in allen Phasen der datengetriebenen Prozessoptimierung unterstützen. Sie bieten Expertise, Methoden und Werkzeuge, um datengetriebene Entscheidungsfindung zu fördern und helfen dabei, Geschäftsprozesse kundenorientiert und effizient zu gestalten. Sie übernimmt die Rolle der Legislative.

6.) Rolle der IT-Abteilung als Plattformteam 
Die IT-Abteilung wandelt sich von einer Einheit, die primär für die Wartung und Entwicklung von IT-Systemen verantwortlich ist, zu einem Plattformteam, das eine skalierbare, kosteneffiziente und leistungsfähige Dateninfrastruktur bereitstellt und als Executive für die Einhaltung der Governance sorgt. Diese Plattform ermöglicht es den Geschäftsnutzern, Daten effektiv zu nutzen und datengetriebene Lösungen zu entwickeln. Dieser Wandel führt dazu, dass IT-Abteilungen in großen Unternehmen kleiner und fokussierter sein werden, da viele der traditionellen IT-Aufgaben zunehmend von Softwareanbietern übernommen werden.  

7.) Ad-hoc-Erstellung von Dashboards und Datenlösungen 
Die Notwendigkeit, Dashboards und andere datenbasierte Lösungen im Voraus zu planen und zu entwickeln, weicht einem Ansatz, bei dem solche Tools ad-hoc und bedarfsorientiert erstellt werden. Dies erfordert flexible und leistungsfähige Dateninfrastrukturen, die es ermöglichen, schnell auf neue Anforderungen zu reagieren und datengetriebene Lösungen zu entwickeln, die spezifische Entscheidungen oder Problemstellungen unterstützen.

Vielleicht haben Sie bemerkt, dass kein Punkt auf der Liste sich mit der Notwendigkeit besonderer Technologie beschäftigt. Das liegt daran, dass Technologie heute keinen wesentlichen Engpass mehr darstellt. Fast alles was Sie heute noch nicht haben, lässt sich unkompliziert als Software as a Service beziehen. Software ist Commodity geworden, wie Butter oder Tomaten. Konzentrieren Sie sich auf die zuvor genannten Aspekte und der ganze technische Rest wird ein Kinderspiel.