Self-Service Datenanalyse mit KI im Mittelstand

Self-Service Datenanalyse mit KI im Mittelstand

In den meisten mittelständischen Unternehmen läuft der Datenzugang über die IT-Abteilung. Eine Fachabteilung braucht eine Auswertung, stellt ein Ticket, wartet auf die Umsetzung und bekommt nach ein bis drei Tagen eine Excel-Datei per E-Mail. Dieser Prozess ist teuer, langsam und bindet IT-Ressourcen für Routinearbeit. KI-gestützte Werkzeuge verändern diese Situation gerade grundlegend.

Die tatsächlichen Kosten einer Datenanfrage

Was nach „mal schnell Zahlen ziehen“ klingt, ist tatsächlich ein mehrstufiger Prozess. Die IT muss zunächst verstehen, was genau gefragt ist. Dann die relevanten Tabellen und Felder identifizieren, eine SQL-Abfrage schreiben und testen, die Ergebnisse exportieren und formatieren, per E-Mail versenden und anschließend Rückfragen beantworten.

Durchschnittlich dauert dieser Prozess 1,5 Stunden auf IT-Seite und 0,5 Stunden auf Seiten der Fachabteilung (Formulieren, Warten, Nachfragen). Bei Vollkosten von 90 Euro pro Stunde für IT und 60 Euro pro Stunde für Fachabteilungen ergibt das rund 165 Euro pro Anfrage.

Ein mittelständisches Unternehmen mit 10 bis 25 aktiven Datennutzern kommt auf 300 bis 750 solcher Anfragen pro Jahr. Das entspricht 49.500 bis 123.750 Euro jährlich, ausschließlich für Routine-Datenabfragen. Hinzu kommen Opportunitätskosten: Entscheidungen, die auf der Basis unvollständiger Informationen getroffen werden, weil die Datenabfrage zu lange dauert oder der Aufwand zu hoch erscheint.

Warum der Datenzugang bisher so eingeschränkt war

SQL war jahrzehntelang die einzige Sprache, in der man Datenbanken befragen konnte. Das setzte technisches Wissen voraus: Datenbankstrukturen kennen, JOIN-Syntax beherrschen, wissen, welche Tabelle welche Information enthält. In der Praxis bedeutete das eine klare Aufteilung: Fachabteilungen formulieren Fragen, die IT übersetzt sie in SQL und liefert Ergebnisse.

Diese Abhängigkeit ist nicht nur teuer. Sie verlangsamt Entscheidungsprozesse. Wer für jede Datenabfrage erst ein Ticket stellen muss, gewöhnt sich ab, Daten abzufragen. Stattdessen werden Entscheidungen auf der Basis von Erfahrungswerten, Annahmen oder veralteten Reports getroffen. Nicht weil die Daten nicht vorhanden wären, sondern weil der Zugang zu umständlich ist.

Wie KI den Datenzugang verändert

KI-gestützte Datenbankwerkzeuge ermöglichen es, Fragen in natürlicher Sprache zu stellen: „Wie hoch war unser Rohertrag im letzten Quartal ohne Sonderaktionen?“ oder „Welche Kunden haben in den letzten 90 Tagen nicht bestellt?“

Das System übersetzt die Frage intern in eine Datenbankabfrage, führt sie aus und liefert das Ergebnis, oft innerhalb von Sekunden. Der Nutzer braucht kein SQL, keine Kenntnis der Datenbankstruktur und keinen IT-Support.

Technisch funktioniert das über eine Kombination aus Sprachmodell und Datenbank-Metadaten. Das Sprachmodell versteht die natürlichsprachliche Frage und bildet sie auf die vorhandenen Tabellen und Spalten ab. Je besser die Metadaten gepflegt sind (Spaltenbeschreibungen, Beziehungen, Geschäftsregeln), desto zuverlässiger sind die Ergebnisse.

In einem Pilotprojekt haben wir beobachtet, wie sich die Nutzung innerhalb weniger Wochen verändert hat. Fachabteilungen, die vorher zwei bis drei Datenanfragen pro Woche über die IT gestellt haben, führten plötzlich zehn bis fünfzehn Abfragen pro Woche selbst durch. Nicht weil der Bedarf vorher geringer war, sondern weil die Zugangshürde weggefallen ist.

Endlich eigenständige Datenanalysen – ohne IT-Abhängigkeit

Auswirkungen über die Kosteneinsparung hinaus

Die offensichtliche Wirkung ist die Kostenreduktion. Weniger IT-Tickets für Routineabfragen, weniger Wartezeit, weniger Reibungsverluste. Die eigentliche Veränderung liegt aber tiefer.

Vertrieb greift in Echtzeit auf Kundendaten zu und kann in Gesprächen sofort relevante Informationen abrufen, statt auf einen vorbereiteten Report zu warten. Das verändert die Gesprächsqualität.

Controlling erkennt Abweichungen früher, weil die Prüfung nicht mehr auf den monatlichen Report warten muss. Wer jederzeit nachschauen kann, ob ein Budget on track ist, reagiert schneller auf Abweichungen.

Marketing kann Kampagnen selbstständig auswerten, ohne erst definieren zu müssen, welche Kennzahlen die IT in den nächsten Report aufnehmen soll. Das erlaubt eine iterative Herangehensweise, die mit dem bisherigen Prozess nicht möglich war.

Die IT-Abteilung wird frei für ihre eigentliche Aufgabe: Systeme bauen, Infrastruktur pflegen, technische Innovation vorantreiben. Statt als Daten-Zulieferer für Fachabteilungen zu fungieren.

Ein weniger offensichtlicher Effekt: Wenn Menschen ihre eigenen Daten abfragen können, übernehmen sie mehr Verantwortung für datenbasierte Entscheidungen. Sie verstehen die Zahlen besser, weil sie selbst die Fragen formuliert haben. Das verändert die Entscheidungskultur im Unternehmen.

Ab welchem Punkt lohnt sich die Investition?

Die Rentabilitätsrechnung ist vergleichsweise einfach. Wenn ein Unternehmen 20 bis 30 Self-Service-Anfragen pro Monat hat, die bisher über die IT gelaufen wären, amortisiert sich eine KI-basierte Lösung innerhalb von etwa vier Monaten. Bei intensiverer Datennutzung deutlich schneller.

Wichtig ist dabei die Unterscheidung zwischen Ad-hoc-Anfragen und strukturierten Reportings. Self-Service-Datenanalyse ersetzt nicht das reguläre Reporting. Sie ergänzt es um die Möglichkeit, spontane Fragen zu beantworten, ohne dafür einen Prozess anstoßen zu müssen.

Fazit

Der umständliche Weg über IT-Tickets für Datenabfragen ist ein historisches Artefakt aus einer Zeit, in der SQL die einzige Zugangstechnologie war. KI-gestützte Werkzeuge machen Fachabteilungen unabhängig, Entscheidungen datenbasierter und die IT frei für wertschöpfende Aufgaben. Der technische Reifegrad ist vorhanden. Die Frage ist nicht mehr ob, sondern wann Unternehmen diesen Schritt gehen.

Excel ablösen: 5 Warnsignale für Unternehmen

Excel ablösen: 5 Warnsignale für Unternehmen

Fast jedes Unternehmen nutzt Excel. Es ist günstig, flexibel und für jeden verfügbar. Genau deshalb bleibt es so lange im Einsatz, oft deutlich über den Punkt hinaus, an dem es eigentlich Zeit wäre, Excel abzulösen und auf eine dedizierte Softwarelösung umzusteigen.

Was als Übergangslösung gedacht war, wird schleichend zum Dauerprovisorium. Eine Tabelle für die Projektverfolgung, eine weitere für das Controlling, eine dritte für die Kundenverwaltung. Irgendwann hängen 37 verlinkte Tabellen zusammen und bilden de facto ein geschäftskritisches System, das niemand als solches geplant hat.

Der Einstieg ist immer vernünftig

„Können wir das nicht einfach in Excel machen?“ ist eine Frage, die in deutschen Unternehmen täglich fällt. Und sie klingt vernünftig: Excel ist vorhanden, jeder kennt es, es kostet nichts extra. Für schnelle Kalkulationen, erste Analysen und kleine Auswertungen ist Excel das richtige Werkzeug.

Das Problem beginnt dort, wo Excel über seinen Einsatzzweck hinaus wächst. Was mit einer Tabelle beginnt, wird zum Projektmanagement-Tool, CRM und Controlling-System in einem. Drei Monate nach dem harmlosen „Können wir das schnell in Excel tracken?“ sieht die Situation oft so aus: 20 verschiedene Dateiversionen in verschiedenen Ordnern. 15 unterschiedliche Formeln, die nur eine Person versteht. Und ein wachsendes Unbehagen, weil niemand mehr sicher ist, ob die Zahlen stimmen.

Die 5 Warnsignale

Woran lässt sich erkennen, dass Excel vom Werkzeug zum Risikofaktor geworden ist?

1. Versions-Chaos

`Auswertung_final_v3_NEU_korrigiert.xlsx` ist ein Dateiname, den die meisten kennen. Dateien werden per Mail verschickt, jeder arbeitet an seiner eigenen Version, und niemand weiß mehr, welche Datei den aktuellen Stand enthält. Das ist kein Workflow, das ist ein strukturelles Datenqualitätsproblem. Entscheidungen werden auf der Basis unterschiedlicher Datenstände getroffen, ohne dass es jemand merkt.

2. Eine Person versteht die Formeln

In fast jedem Unternehmen gibt es diese eine Person, die „die Excel-Datei“ pflegt. Die mit den verschachtelten SVERWEIS-Formeln, den bedingten Formatierungen und den Makros aus 2019. Diese Person ist das Single Point of Failure des gesamten Prozesses. Wenn sie krank wird, im Urlaub ist oder das Unternehmen verlässt, steht alles still. Nicht weil die Daten weg sind, sondern weil niemand die Logik versteht, die in den Formeln steckt.

3. Abteilungen arbeiten in Datensilos

Vertrieb, Controlling, Produktion: Alle arbeiten mit denselben Grunddaten, aber jede Abteilung in eigenen Dateien. Die Folge sind unterschiedliche Auswertungen bei gleichen Ausgangsdaten. Im besten Fall führt das zu Verwirrung. Im schlechteren Fall zu falschen Entscheidungen, weil unklar ist, welche Zahlen stimmen. Das Grundproblem ist nicht mangelnde Sorgfalt, sondern fehlende gemeinsame Datenbasis.

4. Prozesse hängen an einer einzigen Datei

Wenn ein geschäftskritischer Prozess in einer Excel-Datei lebt, gibt es kein System mit definierten Berechtigungen, Änderungshistorie und Backup-Strategie. Es gibt eine Datei auf einem Netzlaufwerk. Eine falsch gesetzte Formel, ein versehentlich gelöschtes Tabellenblatt oder ein überschriebener Wert kann den gesamten Ablauf lahmlegen. Die Wiederherstellung dauert Stunden bis Tage, je nachdem, ob überhaupt eine Version mit dem letzten korrekten Stand existiert.

5. Filter, die niemand bemerkt

Das ist der subtilste Fehler, weil er unsichtbar ist. Jemand setzt einen Filter und vergisst ihn. Ab diesem Moment sieht jeder, der die Datei öffnet, nur einen Teil der Daten, ohne es zu wissen. Entscheidungen werden auf Basis unvollständiger Informationen getroffen. Berichte zeigen nur einen Ausschnitt der Realität. Und niemand merkt es, bis jemand zufällig auf die Diskrepanz stößt.

Excel ablösen: der Übergang zu einer echten Softwarelösung

Der Wechsel von Excel zu einer dedizierten Softwarelösung muss nicht abrupt passieren. Ein schrittweiser Ansatz funktioniert in den meisten Fällen besser.

Zunächst gilt es zu identifizieren, welche Excel-Prozesse das größte Risiko bergen. Das sind meistens die Prozesse mit dem höchsten finanziellen Hebel, mit vielen Beteiligten oder mit hoher Abhängigkeit von einzelnen Wissensträgern.

Dann setzt man gezielt dort an, wo eine Ablösung den größten Effekt hat. Oft reicht es, einen einzigen kritischen Prozess aus Excel herauszulösen, um sofort spürbare Verbesserungen zu erreichen. Statt Versions-Chaos gibt es eine zentrale Datenverwaltung. Statt Abteilungsinseln greifen die Prozesse ineinander. Änderungen werden nachvollziehbar, statt heimlich in Formeln zu verschwinden. Und Berechtigungen sind definiert, statt dass jeder alles ändern kann.

Die übrigen Excel-Tabellen müssen deshalb nicht sofort verschwinden. Excel bleibt ein gutes Werkzeug für das, wofür es gebaut wurde: Ad-hoc-Analysen, schnelle Kalkulationen, individuelle Auswertungen. Die Grenze verläuft dort, wo aus der schnellen Auswertung ein dauerhafter Geschäftsprozess geworden ist.

Fazit

Excel ist ein Werkzeug, kein System. Als Werkzeug ist es hervorragend. Sobald geschäftskritische Prozesse davon abhängen, wird es zum Risikofaktor. Die fünf Warnsignale helfen bei der ehrlichen Einschätzung, ob der Punkt erreicht ist, an dem eine dedizierte Lösung notwendig wird.

Prozesse optimieren: Weglassen statt beschleunigen

Prozesse optimieren: Weglassen statt beschleunigen

Prozessoptimierung gehört zu den Begriffen, die in jedem Unternehmen positiv besetzt sind. Wer will nicht effizientere Abläufe? In der Praxis scheitern Optimierungsprojekte aber häufig an einem grundlegenden Denkfehler: Sie machen bestehende Abläufe schneller, ohne zu hinterfragen, ob diese Abläufe überhaupt sinnvoll sind.

Der Unterschied zwischen schneller und besser

Nicht alles, was schneller läuft, ist auch besser. Ein Beispiel. Ein Unternehmen digitalisiert sein Kundenformular. Vorher gab es ein Telefonat. Jetzt gibt es ein Online-Formular mit 15 Feldern, drei Validierungen und zwei Pflichtangaben, die kein Kunde versteht. Die Bearbeitungszeit pro Anfrage ist gesunken. Die Kundenzufriedenheit auch.

Ein anderer Fall. Ein Team führt fünf spezialisierte Tools ein, um einen Prozess abzubilden, der vorher über eine E-Mail lief. Ticketsystem, Projektmanagement-Tool, Chat-Plattform, Wiki, Dashboard. Jedes einzelne Tool hat seine Berechtigung. Zusammen entsteht ein System, in dem niemand mehr weiß, wo die aktuelle Information liegt. Der Prozess ist digitaler. Ob er besser ist, steht auf einem anderen Blatt.

Optimierung heißt nicht „komplizierter, aber digital“. Optimierung heißt einfacher, klarer, verständlicher. Das klingt offensichtlich, wird aber erstaunlich selten umgesetzt.

Warum schlechte Prozesse überleben

Prozesse haben eine bemerkenswerte Überlebenskraft. Sie bestehen weiter, lange nachdem der ursprüngliche Grund für ihre Existenz verschwunden ist. Dafür gibt es mehrere Ursachen.

Gewöhnung: Menschen gewöhnen sich an Abläufe, auch an umständliche. „Machen wir schon immer so“ ist nicht nur ein Spruch, es beschreibt einen realen psychologischen Effekt. Wer einen Prozess jahrelang ausführt, hört auf, ihn zu hinterfragen. Zehn Klicks statt drei? „Ist halt so.“ Doppelte Dateneingabe? „Ist halt das System.“ E-Mail-Pingpong mit vier Abteilungen? „War schon immer so.“

Angst vor Veränderung: Einen bestehenden Prozess zu verändern birgt Risiken. Was, wenn der neue Ablauf nicht funktioniert? Was, wenn etwas übersehen wird? Diese Sorge ist berechtigt, aber sie führt dazu, dass selbst offensichtlich ineffiziente Abläufe bestehen bleiben, weil das bekannte Problem weniger bedrohlich wirkt als die unbekannte Veränderung.

Sunk Cost: In vielen Fällen wurde bereits erheblicher Aufwand in den bestehenden Prozess investiert: Schulungen durchgeführt, Dokumentation geschrieben, Tools beschafft. Diesen Aufwand „wegzuwerfen“, fühlt sich falsch an, auch wenn die rationale Analyse zeigt, dass der Prozess ersetzt werden sollte.

Fehlende Zuständigkeit: Prozesse wachsen organisch über Abteilungsgrenzen hinweg. Niemand ist für den Gesamtprozess verantwortlich, jeder nur für seinen Teilabschnitt. Innerhalb jedes Abschnitts mag der Ablauf optimiert sein. In der Gesamtsicht enthält er Redundanzen, Wartezeiten und Übergabeprobleme, die niemand adressiert, weil sie in den Schnittstellen zwischen den Zuständigkeiten liegen.

Der Kühlschrank-Effekt

Prozesse verhalten sich wie Kühlschränke: Man räumt sie voll und merkt erst viel zu spät, was in den Tiefen vor sich hin vergammelt.

In vielen Unternehmen läuft es nur deshalb „reibungslos“, weil auch Unnötiges gut organisiert wurde. Fünf Personen sind an einer Freigabe beteiligt, obwohl zwei reichen würden. Excel-Tabellen werden parallel gepflegt, obwohl eine zentrale Lösung vorhanden wäre. Vier Freigabeschleifen, weil irgendwann einmal ein Fehler passiert ist und die Reaktion „mehr Kontrolle“ statt „besserer Prozess“ war.

Die aufschlussreichste Frage, die man einem Prozess stellen kann, ist: „Was passiert, wenn wir das einfach weglassen?“ Und erstaunlich oft ist die Antwort: nichts Relevantes. Außer dass es schneller geht, weniger Reibung entsteht und die Beteiligten wieder Zeit für die eigentliche Arbeit haben.

Drei Fragen vor jeder Optimierung

Bevor ein Prozess optimiert wird, lohnen sich drei grundsätzliche Fragen:

Brauchen wir diesen Prozess überhaupt? Viele Prozesse existieren, weil sie vor Jahren unter anderen Rahmenbedingungen eingeführt wurden. Die Rahmenbedingungen haben sich geändert, der Prozess nicht. Weglassen ist die radikalste und oft wirkungsvollste Optimierung.

Was ist das eigentliche Ziel? Nicht der Prozess ist das Ziel, sondern das Ergebnis. Ein Freigabeprozess existiert nicht um seiner selbst willen, sondern um Fehler zu vermeiden. Wenn es einen einfacheren Weg gibt, dasselbe Ergebnis zu erreichen, ist das kein Kompromiss, sondern eine Verbesserung. Oft ist ein automatisierter Check wirksamer als eine manuelle Freigabeschleife, schneller, zuverlässiger und ohne Bottleneck.

Würde jemand, der den Prozess zum ersten Mal sieht, ihn verstehen? Ein guter Prozess erklärt sich selbst. Wenn ein neuer Mitarbeiter drei Wochen braucht, um den Bestellprozess zu verstehen, ist nicht der neue Mitarbeiter das Problem. Es ist der Bestellprozess. Diese Frage ist ein guter Indikator dafür, wie viel historischer Ballast sich angesammelt hat.

Von der Digitalisierung zur echten Optimierung

Die Digitalisierungswelle der letzten Jahre hat in vielen Unternehmen Prozesse digitalisiert, aber nicht verbessert. Papierformulare wurden zu PDF-Formularen. Manuelle Freigaben wurden zu E-Mail-Workflows. Excel-Tabellen wurden zu Datenbanken, aber mit denselben Strukturproblemen.

Echte Prozessoptimierung beginnt nicht mit der Auswahl eines Tools. Sie beginnt mit der Frage, ob der Prozess in seiner aktuellen Form überhaupt die richtige Antwort auf die zugrunde liegende Aufgabe ist. Erst wenn das geklärt ist, lohnt sich die Frage nach dem richtigen Werkzeug.

Das gilt besonders für Automatisierungen. Eine Automatisierung, die einen schlechten Prozess ausführt, erzeugt kein gutes Ergebnis. Sie erzeugt ein schlechtes Ergebnis, schneller und zuverlässiger. Das ist kein Fortschritt.

Fazit

Die wirkungsvollsten Prozessoptimierungen sind selten die, die etwas schneller machen. Es sind die, die etwas überflüssig machen. Bevor ein neues Tool eingeführt oder ein Workflow automatisiert wird, lohnt sich die grundsätzliche Frage: Muss dieser Prozess überhaupt existieren? Und wenn ja, ist er die einfachste Form, das gewünschte Ergebnis zu erreichen?