Was ein AI Analyst im Unternehmen tatsächlich leistet
Conversational Analytics bedeutet, dass Mitarbeitende Fragen zu Zahlen, Trends und Berichten in natürlicher Sprache stellen und die Antwort im selben Chat bekommen. Im Hintergrund interpretiert ein KI-System die Frage, findet die passende Datenquelle, formuliert die nötige Abfrage, bewertet das Ergebnis und erklärt es in Worten, die auch nicht-analytische Nutzer verstehen.
Das Ziel ist nicht, das BI-Team zu ersetzen, sondern die tägliche Flut von Ad-hoc-Anfragen zu entlasten: „Wie viele offene Angebote haben wir diese Woche?", „Wie war der Umsatz in Region Süd im Vergleich zum Vormonat?", „Welche Produkte haben in den letzten 30 Tagen die höchste Retourenquote?". Jede dieser Fragen bindet heute Kapazität, die an anderer Stelle fehlt.
Abgrenzung: warum es kein Ersatz für klassische Dashboards ist
Dashboards sind stark, wenn Kennzahlen regelmäßig, an fest definierten Stellen und von bekannten Nutzergruppen konsumiert werden. Wer jeden Morgen denselben Bericht öffnet, braucht keinen Chat. Conversational Analytics punktet dort, wo Fragen unregelmäßig, breit gestreut und oft nur einmal gestellt werden. Dort, wo die Kombination aus Filter, Zeitraum und Metrik jedes Mal anders ist, gewinnt der Chat.
In der Praxis ergänzen sich beide Kanäle. Ein gut gebauter AI Analyst lotst bei standardisierten Fragen auf vorhandene Dashboards, beantwortet punktuelle Fragen direkt und erkennt, wann eine Frage wirklich neu ist. Das vermeidet den häufigsten Fehler, nämlich den AI Analyst als Konkurrenz zu existierenden Reports zu positionieren.
Typische Einsatzfelder
Vertrieb und Pricing sind klassische Felder: offene Opportunities, Pipelines nach Region, Angebots-Durchlaufzeiten, Preisabweichungen. Operations fragt nach Lieferzeiten, Beständen, Ausschussquoten, Kapazitätsauslastung. Support- und Service-Teams brauchen Fallzahlen nach Thema, SLA-Einhaltung, Eskalationsraten. Finanz- und Controlling-Bereiche wollen Ad-hoc-Schnitte auf Umsatz, Deckungsbeitrag, Kosten.
Außerhalb der harten KPIs funktioniert Conversational Analytics auch gut bei Meta-Fragen zu Reports: „Wo finde ich den Monatsbericht zu Retouren?", „Was genau ist mit Bruttomarge im Nordamerika-Dashboard gemeint?". Hier verschwimmen die Grenzen zu klassischen RAG-Systemen, und viele erfolgreiche Installationen verbinden beides zu einem durchgehenden Assistenten.
Architektur: was im Hintergrund nötig ist
Ein tragfähiger AI Analyst braucht vier Bausteine. Erstens eine saubere Datenquelle, typischerweise ein Data Warehouse oder ein semantisches Modell, in dem Kennzahlen konsistent und prüfbar hinterlegt sind. Zweitens ein gepflegtes Metadatenmodell: Welche Tabelle bedeutet was, welche Dimensionen und Filter existieren, wie heißen Kennzahlen im Unternehmen wirklich.
Drittens eine Abfrage-Schicht, die Fragen in SQL, einen BI-Endpunkt oder eine gezielte API-Anfrage übersetzt und das Ergebnis interpretiert. Viertens eine Konversations-Oberfläche, die dort lebt, wo gearbeitet wird, in Microsoft Teams, Slack oder im hauseigenen Portal. Diese Schichten sauber zu kombinieren, mit Monitoring, Fallback-Pfaden und sauberer Fehlerbehandlung, ist klassische Arbeit aus dem Bereich AI Engineering.
Qualität und Fehlertoleranz bei Zahlen
Bei Text reicht oft eine gute Antwort. Bei Zahlen nicht. Eine falsch aggregierte Kennzahl wirkt professionell, führt aber zu Entscheidungen, die sich auf eine falsche Grundlage stützen. Conversational Analytics muss deshalb systematisch prüfen, was es berechnet und was es ausgibt.
Zwei Disziplinen sind zentral. Erstens: Quellen und Abfragen in der Antwort sichtbar machen, idealerweise mit Link auf das zugrundeliegende Dashboard oder die Abfrage, sodass Nutzer nachprüfen können. Zweitens: systematisches Testen gegen bekannte Antworten. Wenn ein AI Analyst auf „Umsatz letzter Monat" nicht denselben Wert liefert wie das offizielle Controlling-Dashboard, ist das kein Bug im Chat, sondern ein Signal, dass Metadatenmodell oder Abfragelogik nachjustiert werden müssen. Diese Disziplin gehört in den Rahmen strukturierter LLM-Qualitätssicherung.
Ein verwandtes Risiko sind Halluzinationen: Ein Modell kann eine plausible, aber erfundene Zahl oder einen Filter generieren, wenn es die Frage nicht eindeutig auf das Datenmodell abbilden kann. Ein belastbarer AI Analyst bricht in diesen Fällen ab, statt zu raten, und fragt gezielt zurück oder eskaliert an einen menschlichen Analysten.
Integration in den Arbeitsalltag
Ein AI Analyst, der in einer separaten Web-App lebt, wird wenig genutzt. Der größte Wirkungshebel entsteht, wenn er dort verfügbar ist, wo Fragen ohnehin gestellt werden: in Team-Chats, projektbezogenen Kanälen, persönlichen Direct Messages. Wer in Microsoft Teams oder Slack eine Frage tippt, bekommt die Antwort in Sekunden, mit dem passenden Kontext und dem Link zu weiteren Details.
Diese Nähe zum Arbeitsalltag ist der Hauptgrund, warum Conversational Analytics Dashboards nicht ersetzt, aber ihre Nutzungsform verändert: Dashboards werden seltener angesteuert für einzelne Zahlen und häufiger für Deep Dives, nachdem der Chat bereits den ersten Eindruck geliefert hat.
Typische Fehler bei der Einführung
Der häufigste Fehler ist, den AI Analyst ohne gepflegtes Metadatenmodell zu bauen. Ohne klare Definition, was eine Kennzahl bedeutet und wie sie berechnet wird, liefert das System Antworten, die von Team zu Team abweichen. Damit entsteht genau das Vertrauen, das verloren geht, sobald zwei Kolleg:innen unterschiedliche Zahlen vergleichen.
Der zweite Fehler ist, zu breite Zugriffe zuzulassen. Ein Assistent, der auf alle Tabellen blickt, beantwortet auch Fragen, die Nutzer gar nicht stellen dürften. Berechtigungen müssen früh und ernsthaft modelliert werden, idealerweise auf Basis bestehender Rollenkonzepte im DWH oder BI-System.
Der dritte Fehler ist, den Erfolg nur am Fragevolumen zu messen. Wichtiger sind zwei andere Zahlen: der Anteil an Fragen, die ohne Rückfrage korrekt beantwortet werden, und der Anteil an Fragen, die nach Nutzung des AI Analyst nicht mehr beim BI-Team auflaufen. Wer nur auf Messages pro Woche schaut, misst Aktivität statt Entlastung.
Der vierte Fehler ist, die Anwendung als reines KI-Thema zu behandeln. Ein AI Analyst steht und fällt mit der Datenqualität dahinter. Ohne saubere Stammdaten, konsistente Filterlogik und verbindliche Definitionen bleibt auch das stärkste Modell unscharf. Datenpflege ist Teil des Projekts, nicht ein Nebenthema.
Wann professionelle Unterstützung sinnvoll ist
Für eine kleine, klar abgegrenzte Fragemenge auf einem übersichtlichen Datensatz ist ein interner Prototyp in wenigen Wochen machbar. Sobald aber ein DWH, mehrere Quellsysteme, bestehende Berechtigungen und mehrere Fachbereiche im Spiel sind, wird Conversational Analytics schnell zu einem Vorhaben, das Architektur, Datenpflege, Qualität und Oberfläche zusammenbringen muss.
Wir arbeiten mit Unternehmen, die ihren Teams einen belastbaren AI Analyst an die Hand geben wollen, nicht einen weiteren Prototyp. In der Praxis heißt das: sauber mit BI und IT verzahnen, Metadaten ernst nehmen, Qualität messbar machen und die Oberfläche dort platzieren, wo ohnehin gearbeitet wird. Wenn Sie an diesem Punkt stehen, lohnt sich ein Gespräch, bevor ein Tool gekauft oder ein internes Projekt losgetreten wird.