Herr Prof. Felden, wann und wie hat Ihre Leidenschaft für Analytics begonnen?
Zu Zeiten meines Studiums. Ich hatte das Glück, das Thema bei Prof. Dr. Peter Chamoni schon Mitte der neunziger Jahre vermittelt zu bekommen. Durch seine praxisnahe, aber auch weitsichtige Ausbildung konnte ich viele Grundlagen erlernen, die mir heute noch nützlich sind. Auch wenn sich Begrifflichkeiten geändert haben, gelten die angewendeten Konzepte und Prinzipien immer noch. In meinen eigenen Arbeiten empfand ich es immer wieder aufs Neue spannend, was für Informationen aus Daten gewonnen werden und welchen Nutzen solche Informationen erzielen können. Und durch die über die Jahre steigende Geschwindigkeit des Aufkommens neuer Konzepte und Technologien bleibt es ein faszinierendes Thema. Das brachte mich letztlich auch in die Position des Vorsitzenden des TDWI e.V., wo ich immer wieder mit neuen Facetten unseres Themas konfrontiert werde.
Wo sehen Sie aktuell die größten Potenziale von künstlicher Intelligenz bei der Datenanalyse?
Schlicht und ergreifend dabei, dem menschlichen Entscheidungsträger eine Unterstützung zu geben. Dies kann natürlich vielfältig sein, aber man darf sich nicht die vollkommende Automation als Ziel setzen. Die Potenziale liegen vielmehr da, wo der menschliche Aufgabenträger Hilfe sinnvoll bekommen kann. Das kann beispielsweise Text Mining zur Klassifikation oder Natural Language Processing (NLP) zum Verständnis von Texten sein, aber auch Bilderkennung im Kontext der Qualitätssicherung. Wir erleben in unserem privaten Umfeld zunehmend diese „kleinen Helferlein“, die zwar eine gewisse Automation betreiben, dies jedoch mit dem Ziel der Unterstützung und nicht des Ersatzes. Und dann erleben wir Recherchen in unterschiedlichen Textdatenbanken, um Erläuterung zu berechneten Kennzahlen zu liefern, oder auch Bildverarbeitung in Echtzeit zur Sicherstellung der Produktionsqualität. Es ist also die punktuelle Integration in gelebte Prozesse, an denen Wissen aus den Köpfen einzelner so verfügbar gemacht wird, dass es personenunabhängig Nutzen stiften kann und dadurch auch zur organisationalen Risikominimierung beiträgt.
Wo stoßen Unternehmen momentan noch an ihre Grenzen?
Grenzen gelten sicherlich bei der Bereitstellung der Daten selbst. Dies verlangt zunächst zu wissen, an welcher Stelle im jeweiligen Prozess die Analytics überhaupt eingesetzt werden soll und wie dort die dafür notwendigen Daten gewonnen werden können, welches Ergebnis mit Hilfe eines Algorithmus erzeugt werden kann und welche Aktionen in der Folge mit dem Ergebnis gesteuert werden können. Wichtig ist es auch, dass der Einsatzzweck der Analytics und der gewünschte Mehrwert von Anfang an bekannt sind. Nur so kann dieser Mehrwert auch tatsächlich erreicht werden. Somit besteht die Herausforderung darin, das Einsatzfeld und die mit dem Einsatz der Analytics einhergehenden Änderungen in den Prozessen beurteilen zu können und dann eine entsprechende Datenstrategie aufzusetzen, um das gesetzte Ziel zu erreichen. Bei dem Thema „Verstehen solcher Anwendungen“ ist die aktuelle Debatte auch eine schwierige. Zunächst einmal ärgere ich mich über Veröffentlichungen, auch aus dem Kollegenkreis, die über „böse“ oder „gefährliche“ Algorithmen berichten. Interessanterweise finden die eigentlich nicht in wissenschaftlichen Publikationen statt, sondern eher in allgemeinen Medien. Es ist nicht hilfreich, wenn viele Menschen bei AI eher an den Film „I, Robot“ denken, anstatt sich damit auseinandersetzen, wo ihnen Hilfe in alltäglichen Prozessen guttun würde. Dennoch will ich diesen Denkanstoß nicht ausblenden, gerade wenn es um die Zusammenstellung der jeweiligen Daten geht, aber es darf nicht die prominente Hürde sein, die selbsternannte Ethikwächter nun anführen. Wichtig für Unternehmen ist zu erkennen, dass die Möglichkeiten der AI in weiten Teilen aus den Daten kommen, die man für Aufgaben zusammenstellen kann. Dies kann dann im Mantra der Wirtschaftsinformatik – Aufgabe-Mensch-Technik – wirken, um eben die Mehrwerte zu erzielen.
Künstliche Intelligenz ist ein beliebtes Trendthema. Haben Sie Beispiele für Fälle, in denen Unternehmen etwas als künstliche Intelligenz verkaufen, obwohl es sich eigentlich nicht um KI handelt?
Leider zu oft. Zunächst muss man klären, was Artificial Intelligence überhaupt sein soll. Artificial Intelligence beschreibt Informatikanwendungen, deren Ziel es ist, intelligentes Verhalten zu zeigen. Dazu sind in unterschiedlichen Anteilen bestimmte Kernfähigkeiten notwendig: Wahrnehmen, Verstehen, Handeln und Lernen. Diese vier Kernfähigkeiten stellen die größtmögliche Vereinfachung eines Modells zur modernen Artificial Intelligence dar und entsprechen etwa dem Grundprinzip aller EDV-Systeme: Eingabe – Verarbeitung – Ausgabe. Das Neue ist das Lernen und Verstehen. Heutigen Artificial-Intelligence-Systemen ist gemein, dass sie in der Verarbeitungskomponente trainiert werden und damit lernen können und so bessere Ergebnisse erzielen als mit herkömmlichen Verfahren, die auf klar definierten und fest programmierten Regelwerken basieren. Heute sprechen wir von der schwachen Artificial Intelligence, bei der es darum geht, den Menschen beim Erreichen seiner Ziele durch lernende Systeme zu unterstützen, also um smarte Mensch-Maschine-Interaktion und Zusammenarbeit zwischen Menschen und Maschinen. Die starke Artificial Intelligence ist eher philosophisch relevant. Sie zielt auf eine Imitation des Menschen ab und ist auch als Turing-Test bekannt. Wir haben also in der Praxis nach wie vor häufiger klassisches Berichtswesen und auch die Anwendung des Maschinellen Lernens unter dem Schlagwort der Artificial Intelligence anstelle des Aufbaus selbstlernender Systeme. Das ist aber natürlich nur eine Momentaufnahme und sicherlich auch einem Lernzyklus geschuldet, der zwischenzeitlich in Gang gekommen ist.
Welche Entwicklungen erwarten Sie in den nächsten Jahren im Bereich Predictive Analytics? Welche Maßnahmen sollten Unternehmen bereits heute einleiten, um auch in Zukunft wettbewerbsfähig zu sein?
Unternehmen müssen sich frühzeitig Gedanken darüber machen, wo eine Analytics in den Prozessen zu welchem Zweck wirken soll. Deren Einsatz wird auch immer Veränderungen eben in diesen Prozessen nach sich ziehen, so dass das Change-Management ein wichtiges Thema wird, um den Erfolg der Maßnahmen zu beeinflussen. Das Technology-Acceptance-Model hat beispielsweise in vielen Studien gezeigt, dass neue Technologien dann auch genutzt werden, wenn diese einfach zu nutzen sind und einen Mehrwert bei der Arbeit selbst bieten. Das Change-Management muss hierfür die Rahmenbedingungen schaffen, so dass anstehende Veränderungen klarer werden und der Einsatz der Technik nachvollziehbarer wird, um Hürden zu reduzieren und Nutzen für das Unternehmen zu realisieren. Ich denke aber, dass jeder weiß, dass Change-Management kein einfaches Thema ist, weil man nicht alles abschätzen kann und Veränderung auch nicht immer willkommen geheißen wird. Daher ist es wichtiger, als Unternehmen den Fokus auf das zu halten, was man langfristig mit dem Einsatz der Analytics und der Artificial Intelligence für das Unternehmen erreichen will und dabei diesen Pfad Schritt für Schritt zu gehen, so dass Nutzen erlebbar wird, ohne die Mitarbeiter auf diesem Weg zu verlieren – also die Steuerung des Aufgabe-Mensch-Technik-Paradigmas.
Herr Prof. Felden, vielen Dank für das Gespräch.
"Unternehmen müssen sich frühzeitig Gedanken darüber machen, wo eine Analytics wirken soll."
Prof. Dr. Carsten Felden lehrt und forscht an der TU Bergakademie Freiberg, berät Unternehmen und ist Vorstandsvorsitzender des Netzwerks TDWI. Im DOAG-Interview spricht der Experte über sein Fachgebiet Predictive Analytics.


