Excel‑Tabellen sprechen nicht – zumindest bisher. Lernen Sie, wie Large Language Models (LLMs) Ihre Excel‑Daten reinigen, analysieren und verständlich erklären.

Datengetriebene Entscheidungen bilden heute die Grundlage wirksamer Unternehmenssteuerung. Gleichwohl kämpfen viele Fach‑ und Führungskräfte weiterhin mit verschachtelten Formeln, manuellen Pivot‑Tabellen und zeitintensiven Makros. Large‑Language‑Models wie ChatGPT oder Microsoft Copilot markieren einen Paradigmenwechsel: Analyse wird dialogbasiert. Statt kryptischer Funktionsketten genügen präzise Fragen in natürlicher Sprache, um Datensätze zu säubern, Muster zu entdecken und Ergebnisse adressatengerecht aufzubereiten.
Dieser Beitrag führt Einsteigerinnen und Einsteiger in einen praxistauglichen Drei‑Phasen‑Workflow ein (von der Datenbereinigung bis zum fertigen Bericht), hebt Chancen und Grenzen hervor und liefert sofort anwendbare Hilfsmittel.

 

Der dreistufige Dialog‑Workflow

 

1. Datenbereinigung (Clean‑Up)

Ein verlässlicher Analyseprozess beginnt mit konsistenter Datenqualität. LLM‑gestützte Tools übernehmen wiederkehrende Aufräumaufgaben, die bislang per Power Query oder komplexer Formeln erledigt wurden.

Beispiel‑Prompt:

Analysiere und bereinige die hochgeladene Umsatz-Datei nach folgenden Kriterien:

Datenbereinigung:

  1. Identifiziere und entferne Dubletten basierend auf [Spalte X, Y, Z] - zeige mir vor der Löschung alle gefundenen Dubletten zur Bestätigung
  2. Konvertiere alle Datumsspalten (identifiziere diese automatisch) in das Format JJJJ-MM-TT
  3. Erstelle eine Übersicht aller Spalten mit fehlenden Werten (Anzahl und Prozentsatz)

Datenstuktur:

  1. Überprüfe Spaltennamen auf Eindeutigkeit und schlage bei Bedarf verbesserte Namen vor
  2. Identifiziere potenzielle Datentyp-Inkonsistenzen

Ausgabe:

  • Zusammenfassung aller durchgeführten Änderungen
  • Bereinigte Datei als Download
  • Dokumentation der Bereinigungsschritte für die Nachvollziehbarkeit

Beginne mit einer Analyse der Datenstruktur und frage nach, falls Annahmen über die Dubletten-Erkennung getroffen werden müssen.

Nutzen

  • Zeitgewinn: Routinebereinigung in Minuten statt Stunden.
  • Reproduzierbarkeit: Das gleiche Prompt liefert konsistente Ergebnisse über verschiedene Dateien hinweg.
  • Nachvollziehbarkeit: Der Chat‑Verlauf zeigt, welche Änderungen man angefordert hat. Wenn im Prompt gefordert, können die Änderungen auch nachvollzogen werden.

 

2. Exploration 

Sind die Daten konsistent, empfiehlt sich ein dialogischer Rundgang durch Kennzahlen, Korrelationen und Ausreißer.

Beispiel‑Prompt

„Identifiziere systematisch Ausreißer in der Spalte Umsatz_EUR für Q3 2024:

Schritt 1 - Datenvalidierung:

  • Definiere Q3 2024 als Juli-September 2024
  • Prüfe Datenqualität: fehlende Werte, negative Umsätze, Datentypen
  • Erstelle Grundstatistiken (n, Mittelwert, Median, Standardabweichung, Min/Max)

Schritt 2 - Methodische Ausreißer-Erkennung:

  • Berechne Z-Scores (markiere |z| > 3 als extreme Ausreißer)
  • Dokumentiere alle identifizierten Werte mit verwendeter Methode

Schritt 3 - Geschäftslogik-Validierung:

  • Prüfe jeden Ausreißer auf Plausibilität im Geschäftskontext
  • Klassifiziere als: "Extremwert plausibel" oder "Verdächtiger Datenfehler"
  • Begründe jede Klassifikation

Schritt 4 - Strukturierte Ergebnisdokumentation:

  • Liste alle Ausreißer tabellarisch auf mit: Datum, Wert, Methode, Klassifikation
  • Fasse Erkenntnisse in 3-5 Kernpunkten zusammen
  • Gib konkrete Handlungsempfehlungen für verdächtige Werte

Arbeitsweise:

Führe jeden Schritt vollständig aus, bevor du zum nächsten übergehst. Zeige Zwischenergebnisse und frage nach Bestätigung, falls Interpretationen des Geschäftskontexts erforderlich sind.“

Hinweis: Es empfiehlt sich die Schritte nacheinander in verschiedenen Iterationen durchzuführen, um bessere Ergebnisse zu erzielen.

Nutzen

  • Hypothesenbildung in Echtzeit: Frage – Antwort – Vertiefungsfrage.
  • Flexible Segmentierung: Umsätze nach Region, Produktgruppe oder Zeitraum ohne manuelles Filtern.

 

3. Interpretation (Storytelling)

Kennzahlen allein überzeugen selten; Entscheidungsträger:innen benötigen Kontext. LLMs spielen hier ihre Stärke in der Textgenerierung aus.

Beispiel‑Prompt

„Fasse die wichtigsten Umsatztrends 2024 in fünf sachlichen Sätzen zusammen und formuliere daraus eine konkrete Handlungsempfehlung.“

Nutzen

  • Strukturierte Zusammenfassungen ohne externe Textredaktion.
  • Anpassbare Tonalität (formell, prägnant, stichpunktartig).
  • Mehrfach­verwendung: Kurzfassungen für verschiedene Stakeholder mit einer kurzen Eingabe schnell möglich.

Qualitätssicherung:  Validieren Sie jede KI‑Aussage gegen die zugrunde liegenden Zahlen. Der Dialog ersetzt nicht das Controlling‑Urteil.

 

Stolpersteine & Good Practice

Wie es oft bei der Arbeit mit KI-Tools der Fall ist, gibt es auch bei der Datenanalyse einige Stolpersteine, die Sie in der Zusammenarbeit berücksichtigen sollten:

  • Garbage in → Garbage out: Unscharfe Prompts sowie schlechte Datengrundlagen multiplizieren Fehler. Definieren Sie stets klare Ziele, Datenbereiche und Formate und achten Sie auf die Datenqualität.
  • Bias & Halluzinationen: LLMs erzeugen plausibel klingende Antworten, keine Garantien. Gute Prompts reduzieren das Risiko von Halluzinationen, schließen diese aber nie vollständig aus. Kontrollen bleiben daher auch weiterhin Pflicht.
  • Datenschutz: Sensible Daten vorher anonymisieren oder lokal verarbeiten. Achten Sie hierbei auf jeden Fall auf eine DSGVO konforme Verarbeitung der Daten.  

 

Fazit

Large‑Language‑Models verwandeln Excel von einem rechenzentrierten Werkzeug in einen dialogischen Analysepartner. Wer die drei Phasen – Bereinigung, Exploration, Interpretation – beherrscht, kann schnell valide Erkenntnisse erzielen und gewinnt Freiräume für strategische Aufgaben. KI ist kein Orakel, sondern eine kooperative Assistenz, deren Vorschläge kritisch geprüft und verantwortungsvoll eingesetzt werden müssen.

 

Autorin: Kerstin Vogel

Seminartipp: Datenverarbeitung mit Excel und KI