Darum zerstört KI Ihr IT-Betriebsmodell (am Beispiel Dashboarding)
Mar 18
Die Probleme heutiger Datenorganisationen manifestieren sich in jedem einzelnen Dashboard. Wer in Zukunft als Unternehmen noch relevant sein will, muss mehr als die Art und Weise, wie er Dashboards erstellt, hinterfragen.
Eine Trennung in Menschen, die Daten aufbereiten, in solche die Datenanalysen entwickeln, und Menschen, die diese nutzen, hat in der Vergangenheit durchaus Sinn ergeben. Programmieren war schwierig, das Verständnis über Datenmodelle und deren Interpretation geheimes Spezialwissen. Doch die Schwelle, mit Daten zu interagieren, sinkt seit Jahren kontinuierlich und spätestens seit ChatGPT exponentiell. Das wird auch die Art und Weise, wie wir mit Daten arbeiten fundamental verändern.
Wer jetzt noch in Strukturen investiert, die die funktionale Entwicklung von Dashboards vorantreiben, investiert in ein Auslaufmodell.
Um zu erfahren, warum wir überzeugt sind, dass hochspezialisierte Analysetools in Zukunft keine Rolle mehr spielen werden und was das für Ihr IT Betriebsmodell bedeutet, lesen Sie weiter!
Eine Trennung in Menschen, die Daten aufbereiten, in solche die Datenanalysen entwickeln, und Menschen, die diese nutzen, hat in der Vergangenheit durchaus Sinn ergeben. Programmieren war schwierig, das Verständnis über Datenmodelle und deren Interpretation geheimes Spezialwissen. Doch die Schwelle, mit Daten zu interagieren, sinkt seit Jahren kontinuierlich und spätestens seit ChatGPT exponentiell. Das wird auch die Art und Weise, wie wir mit Daten arbeiten fundamental verändern.
Wer jetzt noch in Strukturen investiert, die die funktionale Entwicklung von Dashboards vorantreiben, investiert in ein Auslaufmodell.
Um zu erfahren, warum wir überzeugt sind, dass hochspezialisierte Analysetools in Zukunft keine Rolle mehr spielen werden und was das für Ihr IT Betriebsmodell bedeutet, lesen Sie weiter!
Ein handfestes Dilemma!
Angesichts der Vorzüge und Schwächen von Dashboards sowie die Stärken und Grenzen von Excel stehen Unternehmen tatsächlich vor einem Dilemma. Auf der einen Seite bieten Dashboards eine strukturierte und sichere Möglichkeit, Daten zu präsentieren und zu analysieren, aber ihre Erstellung und Wartung kann aufwändig sein. Sie bieten oft nicht die Flexibilität, die Geschäftsanwender für schnelle, ad-hoc Analysen und individuelle Berichte benötigen. Auf der anderen Seite bietet Excel mit seiner Benutzerfreundlichkeit und Anpassbarkeit genau diese Flexibilität, aber es fehlt an der Struktur, Sicherheit und Skalierbarkeit, die für eine verlässliche Unternehmensdatenanalyse erforderlich sind.
In den letzten Jahren hatte sich ein Trend hin zu Dashboards abgezeichnet, und Excel hat in einigen Unternehmenskontexten an Stellenwert verloren. Dashboardwerkzeuge wie Microsoft Power BI oder Tableau konnten mit einer, gegenüber früheren Werkzeugen wesentlich intuitiveren Oberfläche und zum Teil beeindruckenden visuellen Aufbereitungen überzeugen. Letztlich ist dies der Tendenz zur Annäherung der Funktionen und Benutzererfahrungen zwischen traditionellen Spreadsheet-Tools und modernen Dashboard-Lösungen geschuldet. Datenanalysewerkzeuge haben mittlerweile auch in der Breite eine durchaus beeindruckende Marktreife erreicht.
Das eigentliche Unterscheidungsmerkmal liegt immer weniger in den individuellen Funktionen von Werkzeugen, als vielmehr in den zugrunde liegenden Betriebsmodellen. Excel folgt dem Prinzip der vollen Datenkontrolle durch den Endnutzer, was maximale Flexibilität ermöglicht, aber auch Herausforderungen in Bezug auf Datenkonsistenz, -sicherheit und -governance mit sich bringt. Dashboards hingegen basieren auf einem Modell, das strukturierte Datensätze und festgelegte Analysepfade bietet, um Konsistenz und Sicherheit zu gewährleisten, was jedoch oft auf Kosten der individuellen Anpassbarkeit geht.
Dies ist eine ganz wichtige Erkenntnis und eine gute Nachricht! Denn dies bedeutet nichts anderes, als dass die Wahl des Werkzeugs einen viel geringeren Unterschied ausmacht, als ihr typischerweise zugeschrieben wird. Governance, Data Management, Leadership und die Datenorganisation sind heute viel wesentlichere Faktoren, um das volle Potenzial der Daten in Organisationen zu erschließen.
Zum Hintergrund
Wenn Ihnen die Zielsetzung, Vor- und Nachteile von Dashboards bereits geläufig sind, können Sie den Abschnitt "zum Hintergrund" überspringen, um schneller zur Kernaussage zu gelangen.
Ursprung der Dashboard Idee
Hinter dem Lenkrad der meisten Autos werden kritische Informationen wie Geschwindigkeit, Tankfüllstand und Navigationshinweise in einem klaren, intuitiv verständlichen Format präsentiert. Ein solches Dashboard ermöglicht es dem Fahrer, auf einen Blick den Zustand des Fahrzeugs zu erfassen und entsprechend zu handeln. Es gibt nur wenige, aber entscheidende Interaktionsmöglichkeiten, die den Fahrer unterstützen, ohne ihn zu überfordern.
Diese Art der Informationspräsentation hat ihren Weg auch in die Unternehmenswelt gefunden. Dashboards dienen als Instrumente, um komplexe Datenmengen auf die wesentlichen Kennzahlen zu reduzieren und so Entscheidungsträgern einen schnellen Überblick zu verschaffen. Gegipfelt hat diese Idee vielleicht in der Vision des "Digital Boardrooms", eine 360-Grad-Sicht auf die Unternehmensleistung. Entscheidungsträgern in Unternehmen – insbesondere in Vorstandsetagen – sollte so ein umfassender, interaktiver Echtzeit-Zugriff auf geschäftsrelevante Daten und Analysen ermöglicht werden.
Die Dashboard-Realität in Unternehmen
Anders als im Fahrzeug hatte man im Unternehmen immer den Wunsch vom großen Ganzen bis in das kleinste Detail vordringen zu können. In der Vision des "Digital Boardrooms" bedeutet dies nicht weniger, als von den Top-10 Kennzahlen eines Multinationalen Konzerns mit Milliarden-Umsätzen und tausenden von Mitarbeitern, hinweg über Tochterunternehmen, Zulieferern und Partner bis hin zur einzelnen Schraube in einem der weltweiten Lager, dem einzelnen Produkt irgendwo auf dem Transportweg und jedem einzelnen Kunden...
Das ist sicherlich ein extremes Beispiel und es ist wohl auch kein Zufall, dass kein mir bekanntes Unternehmen heute über solche Möglichkeiten verfügt. Denn schon in weniger komplexen Anwendungsfällen, werden, nicht selten hunderte von Stunden Arbeit versenkt. Damit meine ich wohl gemerkt, nicht die Arbeit im Hintergrund in der Daten gesammelt bereinigt, harmonisiert und aufbereitet werden. Ich spreche nur von der eigentlichen Arbeit an den Dashboards. Wie kann das sein, versprechen doch alle Anbieter mehr oder weniger Ergebnisse im Handumdrehen?
Wie mit vielen Werkzeugen ist man auch in gängigen Dashboard Tools schnell bei den berühmten 80%. Bis zur praktischen Nutzung stößt man in der Realität dann aber auf erhebliche Herausforderungen. Weil Dashboards wie ein Schweizer Messer für alle Wünsche der Anwender gerüstet sein müssen, sind Unternehmen darauf bedacht unzählige Eventualitäten zu berücksichtigen. Es müssen Nutzer verschiedener Fachrichtungen und mit unterschiedlichem technischen Hintergrund die Dashboards gleichermaßen effektiv nutzen können. Die richtige Balance zwischen Funktionalität und Einfachheit zu finden, um komplexe Daten übersichtlich und zugänglich zu machen, ist eine große Herausforderung. Wer darf mit wem welche Zahlen teilen? Wer mit wem kommunizieren, wer welche Kennzahlen kommentieren. Welche Drill-downs erlaubt man dem einen und verbietet man dem anderen Nutzerkreis?
Neben der Auswahl und Gestaltung der richtigen Visualisierungen muss immer auf eine klare Darstellung, intuitive Navigation und die Vermeidung von Informationsüberlastung geachtet werden. Da Dashboards fast immer nicht nur statische Daten anzeigen sollen, sondern auch interaktive Elemente bieten, die es den Nutzern ermöglichen, Daten zu filtern, zu sortieren und spezifische Analysen durchzuführen müssen diese Interaktivität ermöglicht werden, ohne die Benutzeroberfläche zu überladen oder die Performance zu beeinträchtigen.
Die verwendeten Farbcodes müssen genau der Corporate Identity entsprechen und Pixel-genau ausgerichtet sein - Und wäre das nicht alles schon kompliziert genug, haben Unternehmen vor einiger Zeit begonnen spezielle Darstellungs- und Navigationsstandards zu nutzen und dogmatisch einzuhalten. Nicht wenige Leute haben sich also ausgefeilte Gedanken dazu gemacht, wie wir Menschen die dargestellten Kennzahlen visuell am besten erfassen und begreifen.
Governance-Regeln und Compliance-Vorgaben, wie Zugriffsrechte und Datenfreigabeprotokolle, müssen bei all dem berücksichtigt werden und sind nicht selten eine ganz eigene Herausforderung.
Und wenn dann zum guten Schluss alles reibungslos funktioniert treffen die schicken Dashboards, die in der Entwicklungsumgebung auf Basis von Testdaten erstellt wurden auf den realen, viel größeren Datenbestand und den Zugriff von vielen Nutzern gleichzeitig. Wenn dann die Abfragen zu lange dauern, geht trotz aller vorheriger Bemühungen die Nutzerakzeptanz schnell in den Keller...
Kommt es dann zu kleinen Veränderungen im zu Grunde liegenden Datenmodell, weil bspw. Schlüssel vereinheitlicht wurden, oder neue Eigenschaften zu einer Dimension ergänzt wurden, sind nicht selten komplexe Anpassungen nötig. So wird selbst in einfachen Szenarien der Aufwand für die Erstellung und Pflege solch detaillierter Dashboards schnell immens.
Mein Dashboard-Werkzeug ist besser als Deins
Nicht selten werden in Unternehmen Glaubenskriege geführt, welches Werkzeug, von welchem Anbieter, in welchem Spezialfall die Daten besser darstellen kann, den raffiniertesten Navigationsweg bietet oder über die ausgefeiltesten Darstellungsoptionen verfügt. Nicht wenige größere Unternehmen leisten sich in ihrer IT Organisation spezialisierte Abteilungen für das ein oder andere Tool.
Die Fixierung auf die technischen Möglichkeiten und die Perfektionierung der Datenvisualisierung führt zu einer Komplexität, die den eigentlichen Nutzen dieser Systeme in den Hintergrund treten lässt. In vielen IT-Organisationen lässt sich folgendes Phänomen beobachten: intensive Diskussionen und manchmal sogar Streitigkeiten über die Auswahl der geeigneten Tools und Technologien für die Datendarstellung.
Doch hat man dabei nicht vergessen, um was es eigentlich geht?
Lassen Sie mich er mal so sagen: Wie viel besser fahren Sie Auto, wenn statt eines klassischen Tachos die Geschwindigkeit digital angezeigt wird?
So wie die Art und Weise, wie Informationen im Auto dargestellt werden, nicht unbedingt die Fahrqualität verbessert, so kann auch die Überkomplizierung von Dashboards in Unternehmen von der eigentlichen Aufgabe ablenken – der effektiven Nutzung von Daten zur Unterstützung von Entscheidungen.
Was war nochmal das Problem mit Excel?
Keine Diskussion über Dashboards ist komplett, ohne auch auf Excel einzugehen. Schließlich versuchen IT Abteilungen seit Generationen Excel aus dem Unternehmen zu drängen (und bspw. durch Dashboards zu ersetzen). Excel gilt als das digital manifestierte Übel aller Datenfehlinterpretationen. Warum lieben es Business Anwender dann so sehr?
Die Ära der Tabellenkalkulationsprogramme begann 1979 mit der Software VisiCalc auf dem Apple II. VisiCalc wurde schnell zu einem wesentlichen Kaufargument für dieses System. 1982 stieg Microsoft mit der Software Multiplan in diesen Markt ein, welches 1985 in Microsoft Excel seinen Nachfolger fand. Der Rest ist Geschichte... Doch warum waren Sie von Anfang an so erfolgreich?
Tabellenkalkulationsprogramme ermöglichen kaufmännische Berechnungen, ohne Programmierkenntnisse vorauszusetzen. Genau das leisten sie bis heute. Sie bieten eine ungeheure Flexibilität in der Interaktion mit Daten, auf eine erstaunlich einfache Art und Weise. Sie können heute vergleichsweise viele Eingaben verarbeiten, beherrschen Pivot-Funktionen und verfügen auch über alle gängigen Charts. Anwender können Daten nach Belieben manipulieren, Berechnungen anpassen und verschiedene Szenarien durchspielen, ohne auf die Unterstützung von IT-Abteilungen angewiesen zu sein. Diese Unabhängigkeit fördert eine Kultur der Selbstbedienung und Agilität, in der Geschäftsanwender schnell auf Veränderungen reagieren und informierte Entscheidungen treffen können. Gerade in Situationen, in denen Anforderungen sich schnell verändern, bietet Excel die Möglichkeit, schnell und effizient auf neue Herausforderungen zu reagieren.
Excel hat sich damit zu einem unverzichtbaren Bestandteil der Arbeitskultur entwickelt. Was ist also das Problem?
Excels Stärken sind gleichzeitig seine Achillesferse. Je mehr Arbeitsblätter, Querverweise, Formeln oder sogar Makros zum Einsatz kommen, umso komplexer wird es für den Einzelnen die Zusammenhänge zu überblicken und zu verstehen. In komplexen Excel-Dateien ist es oft schwierig, den Ursprung eines Datenelements oder das Zustandekommen eines Ergebnisses nachzuvollziehen. Dies erschwert die Fehlerbehebung und Qualitätssicherung. Mir ist es bei der Arbeit mit Excel immer mal wieder passiert, dass in umfangreicheren Excelmappen durch einen versehentlichen Klick in eine Zelle ein wesentlicher Teil einer Berechnung verloren gegangen ist, den ich, sobald mir der Fehler an anderer Stelle aufgefallen ist, erst mühsam suchen musste.
Wenn nun solche, nur bedingt qualitätsgesicherte Dokumente innerhalb eines Teams oder gar eines ganzen Unternehmens geteilt werden, entstehen mehrere Risiken:
Anwender können Daten falsch interpretieren. Was auf den ersten Blick wie eine einfache Zahl aussieht, kann das Ergebnis einer komplexen Kette von Berechnungen sein, die bestimmte Annahmen oder Bedingungen beinhalten. Jede Änderung an den Daten oder Formeln kann unbeabsichtigte Konsequenzen haben. Wenn Anwender nicht genau wissen, wie die Berechnungen strukturiert sind, können kleine Anpassungen zu großen Fehlern in den Ergebnissen führen.
Wenn Excel-Dokumente als E-Mail-Anhänge oder über File-Sharing-Plattformen geteilt werden, entstehen schnell eine Vielzahl von Versionen. So ist es in der Folge nicht leicht zu bestimmen, welche Version die aktuellste oder "korrekte" ist. Nicht selten wird so bei wichtigen Entscheidungen von einer unterschiedlichen Datenbasis her argumentiert, ohne dass dies den Beteiligten bewusst ist.
Das Betriebsmodell macht den Unterschied
Sie haben es vermutlich schon bemerkt. Excel und Dashboardwerkzeuge stehen in diesem Beitrag sinnbildlich für zwei recht gegensätzliche Ansätze eines Betriebsmodells von Datenwerkzeugen.
Das Betriebsmodell hinter Excel basiert auf dem Prinzip der individuellen Autonomie: "Gib mir alle Daten, die du hast, und ich kümmere mich selbst um den Rest." Diese Autonomie ist ein Schlüsselfaktor für die Beliebtheit von Excel, da sie den Benutzern die volle Kontrolle über ihre Datenanalysen gibt, von der Auswahl der Daten bis hin zur Art und Weise ihrer Auswertung und Präsentation. Benutzer schätzen die Möglichkeit, ihre Daten nach Belieben zu manipulieren, eigene Berechnungen anzustellen und persönliche Berichte zu erstellen, ohne Einschränkungen durch vordefinierte Strukturen oder die Notwendigkeit, auf die IT-Abteilung zurückgreifen zu müssen.
Das Betriebsmodell hinter Excel basiert auf dem Prinzip der individuellen Autonomie: "Gib mir alle Daten, die du hast, und ich kümmere mich selbst um den Rest." Diese Autonomie ist ein Schlüsselfaktor für die Beliebtheit von Excel, da sie den Benutzern die volle Kontrolle über ihre Datenanalysen gibt, von der Auswahl der Daten bis hin zur Art und Weise ihrer Auswertung und Präsentation. Benutzer schätzen die Möglichkeit, ihre Daten nach Belieben zu manipulieren, eigene Berechnungen anzustellen und persönliche Berichte zu erstellen, ohne Einschränkungen durch vordefinierte Strukturen oder die Notwendigkeit, auf die IT-Abteilung zurückgreifen zu müssen.
Im Gegensatz dazu ist das Betriebsmodell von Dashboards in der Regel komplexer und strukturierter. Dashboards werden oft von IT- oder Datenanalysten-Teams entwickelt, die Datengrundlagen und Analyseframeworks für Business-Anwender vorbereiten. Während dieses Ansatzes sichere, konsistente und qualitätsgesicherte Daten gewährleistet, beschränkt er auch die Flexibilität der Endbenutzer. Sie können sich in Dashboards nur innerhalb des vordefinierten Rahmens bewegen, was bedeutet, dass ihre Fähigkeit, eigene Analysen durchzuführen, Ad-hoc-Fragen zu beantworten oder Daten außerhalb des vorgesehenen Umfangs zu erkunden, begrenzt ist.
Das ideale Betriebsmodell für Datenanalyse und -berichterstattung in Unternehmen müsste daher einen Mittelweg finden, der sowohl die Struktur und Sicherheit von Dashboards als auch die Flexibilität und Benutzerkontrolle von Excel integriert.
Kann KI uns nicht retten?
Künstliche Intelligenz verspricht, die Art und Weise, wie wir mit Daten interagieren grundlegend zu verändern. KI-gestützte Systeme können uns ad hoc genau die Informationen und Einsichten liefern, die wir gerade benötigen. Statt Dashboards zu öffnen und vorgegebene Navigationspfade zu folgen, können sie uns ad hoc eine maßgeschneiderte Sicht auf unsere Daten bieten und dabei kontextbezogene, entscheidungsrelevante Informationen anbieten.
Welche Rolle spielen dann noch Werkzeuge zur Modellierung von Benutzeroberfläche, wenn uns die KI Ad-Hoc jederzeit eine passende Sicht generieren kann? Wie wichtig sind statische Dashboards überhaupt noch, wenn uns die KI Auffälligkeiten in einem bestimmten Kontext ganz ohne menschliches Zutun zusammenstellen und präsentieren kann?
Jensen Huang, Gründer und CEO von Nvidia geht davon aus, dass es in naher Zukunft nicht mehr notwendig sein wird programmieren zu können.
Welche Rolle spielen dann noch Werkzeuge zur Modellierung von Benutzeroberfläche, wenn uns die KI Ad-Hoc jederzeit eine passende Sicht generieren kann? Wie wichtig sind statische Dashboards überhaupt noch, wenn uns die KI Auffälligkeiten in einem bestimmten Kontext ganz ohne menschliches Zutun zusammenstellen und präsentieren kann?
Jensen Huang, Gründer und CEO von Nvidia geht davon aus, dass es in naher Zukunft nicht mehr notwendig sein wird programmieren zu können.
Over the course of the last 10 years, 15 years, almost everybody who sits on a stage like this would tell you that it is vital that your children learn computer science. [That] everybody should learn how to program. And in fact, it’s almost exactly the opposite.
It is our job to create computing technology such that nobody has to program and that the programming language is human.
Everybody in the world is now a programmer. This is the miracle of artificial intelligence.
Jensen Huang, Nvidia
Jensen Huang, Nvidia
Anfang 2023 bestand ChatGPT die Google-Prüfung für hochqualifizierte Softwareentwickler. Später im Jahr 2023 meldet GitHub, dass 46 % des Codes in allen Programmiersprachen mit Copilot, dem KI-gestützten Entwicklerwerkzeug des Unternehmens, erstellt wird. Bei einem Vergleich mit über 5.000 menschlichen Teilnehmern schlug DeepMinds AlphaCode bei seinem Debüt 45 % der erfahrenen Programmierer.
Wenn man bedenkt, dass all diese Entwicklungen innerhalb des ersten Jahres nach der Veröffentlichung von ChatGPT stattgefunden haben, stellt sich die Frage, was in den nächsten zwei oder drei Jahren passieren wird, wenn die Technologie noch weiter fortschreitet.
Wie wahrscheinlich ist es also, dass wir in Zukunft noch Dashboards (manuell) erstellen?
Wie wahrscheinlich ist es also, dass wir in Zukunft noch Dashboards (manuell) erstellen?
Folgen für das IT Betriebsmodell
ChatGPT hat für eine breite Bevölkerungsschicht erlebbar gemacht, dass Aufgaben, die normalerweise von einem Team von Menschen über mehrere Wochen hinweg erledigt werden, von der KI in nur wenigen Minuten erledigt werden können.
Natürlich sind wir noch nicht in vielen Bereichen so weit, aber wir befinden uns auf einem rasanten Weg. Alles was wir im technischen Bereich als gegeben angenommen haben, Vorgehensweisen die wir seit vielen Jahren nicht in Frage gestellt haben, könnten innerhalb weniger Jahre über den Haufen geworfen werden.
Natürlich sind wir noch nicht in vielen Bereichen so weit, aber wir befinden uns auf einem rasanten Weg. Alles was wir im technischen Bereich als gegeben angenommen haben, Vorgehensweisen die wir seit vielen Jahren nicht in Frage gestellt haben, könnten innerhalb weniger Jahre über den Haufen geworfen werden.
Bei Datareus sind wir überzeugt, dass wir am Vorabend einer Revolution in der Datenanalyse stehen. Eine Revolution, die nicht nur die Werkzeuge, die wir verwenden, sondern auch unsere Herangehensweise an Daten und Entscheidungsfindung grundlegend verändern wird.
Nicht nur das heute übliche Dashboard-Betriebsmodell, sondern in der Konsequenz das ganze IT Betriebsmodell wird in seiner aktuellen Form schon sehr bald nicht mehr Bestand haben können.
Wenn aber das heutige Betriebsmodell ein Auslaufmodell ist, stellt sich die Frage, wie ein zukünftiges Modell aussehen könnte. Denn eins ist klar, Unternehmen die proaktiv handeln und sich auf diese Veränderungen vorbereiten, könnten einen signifikanten Wettbewerbsvorteil erlangen.
Nicht nur das heute übliche Dashboard-Betriebsmodell, sondern in der Konsequenz das ganze IT Betriebsmodell wird in seiner aktuellen Form schon sehr bald nicht mehr Bestand haben können.
Wenn aber das heutige Betriebsmodell ein Auslaufmodell ist, stellt sich die Frage, wie ein zukünftiges Modell aussehen könnte. Denn eins ist klar, Unternehmen die proaktiv handeln und sich auf diese Veränderungen vorbereiten, könnten einen signifikanten Wettbewerbsvorteil erlangen.
Grenzen der KI
Obwohl KI und maschinelles Lernen in der Lage sind, viele Aspekte der Datenanalyse zu automatisieren und zu optimieren, hängt ihr Erfolg stark von der Qualität und Struktur der zugrunde liegenden Daten ab. Ohne gut vorbereitete und organisierte Daten könnten KI-Systeme Schwierigkeiten haben, präzise und nützliche Erkenntnisse zu generieren.
In der Zukunft könnten fortschrittliche KI-Systeme zwar in der Lage sein, bestimmte Aufgaben im Zusammenhang mit der Datenvorbereitung und -optimierung zu übernehmen, wie beispielsweise die Identifizierung und Bereinigung fehlerhafter Daten oder die automatische Kategorisierung und Tagging von Daten. Dennoch ist es unwahrscheinlich, dass KI die Notwendigkeit einer sorgfältigen Planung und Strukturierung von Daten durch menschliche Experten vollständig ersetzen kann. Der wesentliche und sehr häufig übersehene Aspekt ist, dass Daten in komplexen Szenarien, ganz zwangsläufig nie alle relevanten Aspekte eines Problems erfassen können. Die Rolle des Menschen bei der Definition von Geschäftslogik, Kontext und Bedeutung der Daten wird weiterhin von zentraler Bedeutung sein.
Daraus folgt, dass die Zukunft der menschlichen Arbeit in spezifischen Fachgebieten - in der Wissenschaft, der Fertigung, der Landwirtschaft, dem Bauwesen, der Bildung, dem Ingenieurwesen und so weiter liegen wird.
Denn die künstliche Intelligenz kann zwar jede Menge Ideen vorbringen, aber über die Informationen, die Sie ihr zur Verfügung stellen, hinaus kann sie nicht viel über die Realität Ihrer Arbeit wissen. Deshalb ist tiefes Fachwissen künftig so wichtig, damit Sie die richtigen Fragen stellen können und die KI Ihnen die bestmöglichen Antworten geben kann.
Denn die künstliche Intelligenz kann zwar jede Menge Ideen vorbringen, aber über die Informationen, die Sie ihr zur Verfügung stellen, hinaus kann sie nicht viel über die Realität Ihrer Arbeit wissen. Deshalb ist tiefes Fachwissen künftig so wichtig, damit Sie die richtigen Fragen stellen können und die KI Ihnen die bestmöglichen Antworten geben kann.
So richten Sie Ihr Betriebsmodell auf die Zukunft aus
Die Vorbereitung von Unternehmen auf eine Zukunft, in der KI eine zentrale Rolle in der Datenanalyse spielt, erfordert einen strategischen Ansatz zur Entwicklung und Verwaltung von Daten in dem fachliches Know-How mit Datenmanagement in Einklang gebracht wird. Der derzeit populärste Ansatz dieses Ziel zu erreichen sind so genannte Datenprodukte. Diese in sich geschlossene Einheiten, stellen Daten in einer strukturierten, nutzbaren und wertorientierten Weise bereit. Sie ermöglichen es, Daten als Ressource zu behandeln, die entwickelt, gemanagt und optimiert werden kann, ähnlich wie Softwareprodukte. Dieser Ansatz fördert die Verständlichkeit, Zugänglichkeit und Qualität der Daten und erleichtert somit die Analyse und Nutzung durch Endanwender sowie durch automatisierte Systeme. Die Ausrichtung der Datenzusammenarbeit auf Datenprodukte ist ein umfassender Prozess, der nicht nur eine technische Neuausrichtung, sondern auch eine Anpassung der Organisationsstruktur und -kultur.
Die Einführung von Datenprodukten erfordert eine klare Definition und Abgrenzung von Domänen innerhalb der Organisation. Jede Domäne sollte einen spezifischen Geschäftsbereich oder eine spezifische Funktion abdecken und über ein Team verfügen, das sowohl über das notwendige fachliche als auch über das technische Know-How verfügt, um Datenprodukte zu entwickeln und zu verwalten. Diese Teams sind für die Qualität, Verfügbarkeit und Sicherheit der Daten in ihrer Domäne verantwortlich und fungieren als Schnittstelle zwischen den Datenquellen und den Endnutzern.
Neben der Definition von Domänen ist die Ausrichtung der Datenstrategie auf Wertströme innerhalb der Organisation von entscheidender Bedeutung. Wertströme beziehen sich auf die Prozesse, die Wert für den Kunden generieren, von der Idee bis zur Auslieferung. Durch die Ausrichtung der Datenprodukte auf diese Wertströme können Unternehmen sicherstellen, dass die Datenanalyse eng mit den Geschäftszielen verknüpft ist und konkrete geschäftliche Herausforderungen adressiert.
Um die Ausrichtung auf Wertströme zu unterstützen und die effektive Nutzung von Datenprodukten innerhalb der Organisation zu fördern, ist eine starke Zusammenarbeit und Kommunikation zwischen den Domänen-Teams, den Endnutzern der Daten und den IT-Teams notwendig. Dies kann durch regelmäßige Abstimmungstreffen, gemeinsame Workshops und die Einrichtung von Cross-Functional Teams unterstützt werden, die an spezifischen Projekten oder Initiativen arbeiten, welche mehrere Domänen überspannen.
Durch die Kombination dieser organisatorischen Anpassungen mit der technologischen Implementierung von Datenprodukten können Unternehmen eine solide Grundlage für die Zukunft der Datenanalyse schaffen, die sowohl die Möglichkeiten der KI als auch das tiefe Verständnis der Geschäftsprozesse und -bedürfnisse integriert.
Sieben Punkte Plan
Diese Vision stellt eine umfassende Transformation dar, die tiefgreifende Veränderungen in der Unternehmenskultur, den Fähigkeiten der Mitarbeiter und den Organisationsstrukturen erfordert. Unternehmen, die diesen Wandel erfolgreich vollziehen, werden in der Lage sein, Daten effektiver zu nutzen, agiler auf Veränderungen zu reagieren und letztlich wettbewerbsfähiger zu sein. Wir haben Ihnen in den folgenden sieben Punkte die wesentlichen Maßnahmen zusammen gefasst, die Sie auf diesem Weg berücksichtigen sollten:
1.) Datenkultur für Menschen
Die erfolgreiche Umsetzung eines datengetriebenen Ansatzes erfordert die Schulung der Mitarbeitenden in den relevanten Domänen und Wertströmen. Dazu gehört meist weniger die Vermittlung von technischen Fähigkeiten im Umgang mit Daten und Analysetools, sondern viel mehr das Verständnis für die Integration von Daten in Geschäftsprozesse und -ziele, die mit Datenprodukten unterstützt werden sollen.
2.) Entwicklung standardisierter Datenprodukte
Domänenverantwortliche spielen eine Schlüsselrolle bei der Entwicklung standardisierter Datenprodukte, die den Bedürfnissen ihrer spezifischen Bereiche entsprechen. Diese Datenprodukte müssen sorgfältig verwaltet, kontinuierlich verbessert und effektiv intern vermarktet werden, um ihre Nutzung und ihren Einfluss im gesamten Unternehmen zu maximieren. Datenproduktmanagement wird zu einer zentralen Disziplin, die über den Erfolg von datengetriebenen Initiativen entscheidet.
3.) Verantwortung der Datenproduktverantwortlichen
Die Verantwortung für die Generierung sinnvoller und relevanter Daten liegt bei den Verantwortlichen für die Datenprodukte. Sie müssen sicherstellen, dass die Algorithmen und Datenmodelle, die diesen Produkten zugrunde liegen, korrekt, transparent und ethisch sind. Dies erfordert ein tiefes Verständnis der Daten, der zugrundeliegenden Geschäftsprozesse und der potenziellen Auswirkungen der Datenanalyse. Im föderalen System übernehmen Sie die Rolle der Exekutive.
4.) Auflösung traditioneller Rollen
Die Unterscheidung zwischen denjenigen, die Datenanalysen entwickeln, und denjenigen, die sie nutzen, wird zunehmend obsolet. In der zukünftigen Arbeitswelt ist Datenkompetenz eine Grundvoraussetzung für alle Mitarbeiter, unabhängig von ihrer Rolle oder Position. Dies bedeutet, dass jeder im Unternehmen in der Lage sein muss, Daten zu interpretieren, Schlussfolgerungen zu ziehen und auf dieser Grundlage Entscheidungen zu treffen. Unternehmen müssen daher in die datenbezogene Bildung und Entwicklung aller Mitarbeiter investieren, um eine umfassende Datenkompetenz zu gewährleisten.
5.) Transformation der CDO-Organisationen
Chief Data Officer (CDO)-Organisationen entwickeln sich zur internen Managementberatungen, die die Anwender in allen Phasen der datengetriebenen Prozessoptimierung unterstützen. Sie bieten Expertise, Methoden und Werkzeuge, um datengetriebene Entscheidungsfindung zu fördern und helfen dabei, Geschäftsprozesse kundenorientiert und effizient zu gestalten. Sie übernimmt die Rolle der Legislative.
6.) Rolle der IT-Abteilung als Plattformteam
Die IT-Abteilung wandelt sich von einer Einheit, die primär für die Wartung und Entwicklung von IT-Systemen verantwortlich ist, zu einem Plattformteam, das eine skalierbare, kosteneffiziente und leistungsfähige Dateninfrastruktur bereitstellt und als Executive für die Einhaltung der Governance sorgt. Diese Plattform ermöglicht es den Geschäftsnutzern, Daten effektiv zu nutzen und datengetriebene Lösungen zu entwickeln. Dieser Wandel führt dazu, dass IT-Abteilungen in großen Unternehmen kleiner und fokussierter sein werden, da viele der traditionellen IT-Aufgaben zunehmend von Softwareanbietern übernommen werden.
7.) Ad-hoc-Erstellung von Dashboards und Datenlösungen
Die Notwendigkeit, Dashboards und andere datenbasierte Lösungen im Voraus zu planen und zu entwickeln, weicht einem Ansatz, bei dem solche Tools ad-hoc und bedarfsorientiert erstellt werden. Dies erfordert flexible und leistungsfähige Dateninfrastrukturen, die es ermöglichen, schnell auf neue Anforderungen zu reagieren und datengetriebene Lösungen zu entwickeln, die spezifische Entscheidungen oder Problemstellungen unterstützen.
Vielleicht haben Sie bemerkt, dass kein Punkt auf der Liste sich mit der Notwendigkeit besonderer Technologie beschäftigt. Das liegt daran, dass Technologie heute keinen wesentlichen Engpass mehr darstellt. Fast alles was Sie heute noch nicht haben, lässt sich unkompliziert als Software as a Service beziehen. Software ist Commodity geworden, wie Butter oder Tomaten. Konzentrieren Sie sich auf die zuvor genannten Aspekte und der ganze technische Rest wird ein Kinderspiel.
Vielleicht haben Sie bemerkt, dass kein Punkt auf der Liste sich mit der Notwendigkeit besonderer Technologie beschäftigt. Das liegt daran, dass Technologie heute keinen wesentlichen Engpass mehr darstellt. Fast alles was Sie heute noch nicht haben, lässt sich unkompliziert als Software as a Service beziehen. Software ist Commodity geworden, wie Butter oder Tomaten. Konzentrieren Sie sich auf die zuvor genannten Aspekte und der ganze technische Rest wird ein Kinderspiel.
made with lots of in Karlsruhe, Germany by Datareus GmbH
Der entscheidende Unterschied: KI-Projekt vs. datengetriebenes Unternehmen
Ein KI-Projekt und ein datengetriebenes Unternehmen unterscheiden sich grundlegend in ihrem Umfang, Ansatz und ihren langfristigen Zielen. Während ein KI-Projekt auf die Lösung spezifischer Probleme abzielt, strebt ein datengetriebenes Unternehmen danach, Daten in allen Geschäftsentscheidungen zu integrieren und eine umfassende Transformation der Unternehmenskultur zu erreichen.
Erfolgreiche KI-Projekte liefern spezifische Lösungen oder Systeme, die produktiv genutzt werden oder zur Entscheidungsunterstützung dienen. Der Erfolg wird an der Erreichung der Projektziele und dem Nutzen für das Unternehmen gemessen. Für die Umsetzung sind spezialisierte Ressourcen wie Datenwissenschaftler, KI-Experten und entsprechende IT-Infrastruktur nötig.
Im Gegensatz dazu erstreckt sich der Ansatz eines datengetriebenen Unternehmens über einzelne Projekte hinaus und umfasst das gesamte Unternehmen, alle Abteilungen und Funktionen. Ein datengetriebenes Unternehmen integriert datenmotivierte Entscheidungen und Prozesse in die strategische Planung, das tägliche Management und die operativen Abläufe. Es erfordert eine breite Palette an Fähigkeiten und Technologien, einschließlich Data Governance, Datenanalyse, Business Intelligence und Change Management. Ein Unternehmen das data-driven ist benötigt kontinuierliche Investitionen in Organisation, Dateninfrastruktur und die Entwicklung datenkompetenter Mitarbeiter. Der Erfolg wird an der Fähigkeit gemessen, datenbasierte Entscheidungen zu treffen, Geschäftsziele zu erreichen, Marktchancen zu nutzen und Risiken zu minimieren, was zu einer langfristigen Wettbewerbs- und Innovationsfähigkeit führt.
Ein Unternehmen kann also nicht data-driven indem es Use Cases für KI-Projekte durch externe Berater entwickeln lässt. Es muss die Kompetenz zur Problemlösung mit Hilfe von Daten selbst entwickeln.