Datenqualität als Schlüssel zu erfolgreicher KI

Interview mit Dr. Johannes Kutterer, leitender Lösungsarchitekt und stellvertretender Leiter Beratung und Lösungsentwicklung bei Disy

Porträtfoto von Dr. Johannes Kutterer von Disy, eingebettet in eine grafische Darstellung mit einem stilisierten Kopfprofil und der Aufschrift "AI" auf blauem Hintergrund mit digitalen Schaltkreis-Mustern.

Warum sind saubere Daten besonders für Projekte aus dem Bereich Künstliche Intelligenz ein Gamechanger? Welche Risiken können durch mangelnde Datenqualität entstehen? Und warum sind Use Cases für die Entscheidung über die benötigte Datenqualität absolut entscheidend?
Diese und weitere Fragen beantwortet Dr. Johannes Kutterer, leitender Lösungsarchitekt und stellvertretender Leiter Beratung und Lösungsentwicklung bei Disy, im Interview.

Dr. Kutterer, warum ist die Qualität von Daten so entscheidend für den Erfolg von KI-Anwendungen?

Dr. Johannes Kutterer: Ganz einfach: Ohne gute Daten, keine guten Ergebnisse. Daten sind das Fundament jeder KI-Anwendung. Ein Modell kann nur so gut sein wie die Daten, mit denen es trainiert wird. Wenn die Daten lückenhaft, fehlerhaft oder verzerrt sind, liefert die KI unzuverlässige Vorhersagen. Das kann gerade in sensiblen Bereichen wie der öffentlichen Verwaltung oder im Finanzwesen schwerwiegende Folgen haben. Denken wir an eine KI, die Anträge auf Fördermittel automatisiert bewertet – fehlerhafte Daten könnten hier zu falschen Ablehnungen führen. Ähnlich kritisch ist es im Bereich der Versicherungsbranche: Falsche Risikoeinschätzungen können erhebliche finanzielle Auswirkungen haben. Deshalb ist Datenqualität nicht nur eine technische Herausforderung, sondern auch eine strategische Aufgabe. Organisationen – ob öffentlich oder privat – müssen die Datenbasis genauso ernst nehmen wie die Entwicklung der KI-Modelle selbst.

Was sind die größten Risiken, wenn die Datenqualität nicht gewährleistet ist?

Dr. Johannes Kutterer: Die Liste der Risiken ist lang. Zum einen entstehen Fehlentscheidungen, weil die KI auf Basis falscher Annahmen agiert. Das führt zu falschen Vorhersagen und unzuverlässigen Empfehlungen – und das kann teuer werden. Ein weiteres Risiko ist die sogenannte Algorithmic Bias: Verzerrungen in den Daten können zu diskriminierenden Entscheidungen führen, etwa bei Kreditvergaben oder der Bearbeitung von Bürgeranträgen. Die ghanaisch-amerikanische Informatikerin Joy Buolamwini hat gezeigt, wie drastisch sich solche Verzerrungen auswirken können. Ein Gesichtserkennungsalgorithmus konnte ihr dunkles Gesicht nicht erkennen, da der zugrunde liegende Datensatz vor allem weiße, männliche Gesichter enthielt. Solche Fehler können Vertrauen in die Technologie zerstören und hohe Korrekturkosten verursachen. Deshalb ist es entscheidend, frühzeitig auf Responsible AI zu setzen und die Datenbasis kritisch zu prüfen.

Ein Finger zeigt auf eine digitale Visualisierung mit Datenströmen, Zahlen und Algorithmen, die einen modernen Ansatz für Datenanalysen und künstliche Intelligenz illustriert.

Wie wichtig sind spezifische Use Cases für die Entscheidung über die benötigte Datenqualität?

Dr. Johannes Kutterer: Spezifische Use Cases sind absolut entscheidend! Denn jedes Projekt hat andere Anforderungen an die Datenqualität. In der öffentlichen Verwaltung könnte eine KI etwa bei der Bearbeitung von Baubewilligungen unterstützen, indem sie Fachdaten mit Verwaltungsvorschriften abgleicht – zum Beispiel bei Themen wie Bombenluftbildabgleichen oder Altlastbewertungen. In der Privatwirtschaft sind die Anforderungen ganz anders: Ein Modell für Produktempfehlungen im E-Commerce braucht vor allem aktuelle Daten zu Kaufverhalten und Nutzerinteressen. Deshalb ist es entscheidend, den Use Case genau zu verstehen, bevor man sich mit der Datenqualität beschäftigt. Andernfalls riskiert man, unnötig viel Aufwand in die Datenaufbereitung zu stecken – oder wichtige Aspekte zu übersehen. Eine gezielte Fokussierung hilft, Ressourcen zu sparen und erfolgreichere Ergebnisse zu erzielen.