Die neuen Technologien und Konzepte im Data Warehousing- und BI-Umfeld lassen unsere Gegenwart immer mehr wie einen Science-Fiction-Film aussehen. Unterhält man sich mit Hermann Bär darüber, bekommt die Diskussion sogar philosophische Züge. Im Gespräch mit DOAG Online geht der gebürtige Deutsche und Oracle-Mitarbeiter unter anderem auf das Problem der "data obesity" sowie auf Georg Orwells Roman „1984“ und die Zukunft der DBAs ein.
DOAG Online: Hermann Bär, Sie haben die „Geburt“ vom Data Warehousing miterlebt und seitdem stets begleitet, Sie bezeichnen sich selbst als Data Warehousing-Dinosaurier. Wie beurteilen Sie die Entwicklungen im DWH/BI-Umfeld?
Hermann Bär: Es ist ein sehr spannendes, faszinierendes Gebiet… Es ist schon unwahrscheinlich, was speziell in dem Bereich in den letzten fünf bis zehn Jahren passiert ist und wie viele neue Technologien und Innovationen hochgekommen sind. Viele Dinge haben sich fundamental verändert, bereits lange vor dem Big Data-Thema. Nehmen wir mal beispielsweise die Oracle Exadata Database Machine: Die Innovationen und Technologien, die mit dieser Plattform speziell für Data Warehousing implementiert wurden, sind schon beeindruckend. Diese Verarbeitungsleistung, diese Power für die Datenanalyse mit intelligentem Data Processing im Storage, Funktionalitäten wie Hybrid Columnar Compression, womit die zehnfache Datenmenge gespeichert werden kann – all diese Möglichkeiten gibt es. Sie werden Stand heute von vielen noch nicht in Anspruch genommen. Jetzt kommt noch das Thema Big Data hinzu. Mit seinen neuen Konzepten und Philosophien erweitert und verändert es wirklich fundamental die Sicht auf Datenexplosion und Analysefähigkeiten. Ja, ein sehr spannender Bereich, in dem ich mich da bewege.
DOAG Online: Derzeit wird viel über Big Data gesprochen. Zu viel, sagen manche. Hat das traditionelle Data Warehousing noch eine Zukunft oder bedeutet Big Data das Ende vom traditionellen Data Warehousing?
Hermann Bär: Das traditionelle Data Warehousing hat definitiv eine Zukunft. Es ist nach wie vor die Basis für die strukturierte Analyse klassischer Daten. Jegliche Art von transaktionellen Daten hat nun mal schon eine Struktur, deren Bedeutung absolut eindeutig und von vorneherein bekannt ist: Man hat einen Auftrag, einen Auftragskopf, eine Position, vielleicht noch einen Produktcode, Preis, Menge... Man versteht die Daten. Die geschäftskritischen Daten und deren Auswertung werden weiterhin im klassischen Bereich verankert sein. Aber Data Warehousing und Big Data werden zusammen wachsen.
DOAG Online: Wie nehmen Sie persönlich den Hype um Big Data wahr?
Hermann Bär (lacht): Ja… Der „Hype“ ist für uns wahrscheinlich noch präsenter, weil wir in Silicon Valley sitzen. Wir stehen dem aber sehr positiv gegenüber. Ironischerweise sind sehr viele der Themen, die im Big Data-Kontext aufkommen, für uns nicht einmal unbedingt neu. Einige der Technologien für diese erweiterten Analysefähigkeiten beispielsweise sind schon seit Jahrzehnten da. Wir haben die Textanalyse, Datamining-Funktionalitäten seit Oracle Database 9i – also 2003 (das weiß ich zufälligerweise), Spatial Analysis… Sehr viele Funktionalitäten und Technologien, die als neu und wegweisend bezeichnet werden, haben wir in der Oracle Datenbank schon seit Jahren. Insofern sind wir sehr gut positioniert. Aber eins muss ich unterstreichen: Es ist nicht nur ein Hype, es steckt mehr dahinter. Die Ziele, die mit Big Data erreicht werden sollen, sind durchaus real. Und einige der neuen Produkte und Architekturen machen das alles nun möglich.
DOAG Online: Datenflut, Datenexplosion, einströmende Daten, Informationsflut – dies sind die Begriffe, die im Zusammenhang mit Big Data in den Medien immer wieder auftauchen. Kann es sein, dass der Begriff „Big Data“ zum Teil falsch verstanden wird? Für Big Data spielt doch nicht nur die Menge sondern auch der Typus der Daten eine Rolle.
Hermann Bär: Ja, es besteht definitiv die Gefahr, dass der Begriff falsch verstanden wird. Big Data muss nicht unbedingt „Big“ sein. Big Data heißt nicht unbedingt Petabytes von Daten. Es sind im Prinzip die vier Kriterien, die vier „Vs“ die Big Data auszeichnen, also Volume, Velocity, Variety und Value. Dabei sind aber nicht unbedingt alle vier immer relevant. Sicherlich gehen viele vom Datenvolumen aus, aber das ist nun mal relativ. OLTP-Systeme sind normalerweise relativ klein und selbst große Systeme sind irgendwo „nur“ potentiell im einstelligen Terabyte-Bereich. Im Business-to-Consumer-Bereich, wenn über Internet kommuniziert wird, können die Weblogs schon mal sehr schnell in den zweistelligen Terabyte Bereich aufblähen; dies ist durchaus schon ‚big data’- wuerdig. Velocity – die Geschwindigkeit in welcher Daten erzeugt werden – ist ebenfalls ein Kriterium für Big Data; Bei maschinengenerierten Daten ist es manchmal einfach nur notwendig, die Daten irgendwie irgendwo zu speichern, ohne sich an dieser Stelle um den Dateninhalt zu kümmern – ein potentielles Einsatzgebiet für NoSQL-Systeme. Im Kontext von Big Data ist auch die Art und Vielfältigkeit (Variety) von Daten, die analysiert werden sollen, ausschlaggebend.
Wenn wir im Big Data-Kontext über die neuen Datentypen reden, dann sprechen wir von jeglicher Art von Daten, die nicht in einer fixen, wohlbekannten Struktur zur Verfügung steht, zum Beispiel so etwas „Triviales“ wie Textdokumente. Stand heute betreiben sehr wenige Firmen Textmining. Der Informationsgehalt in den Daten – und daher deren Relevanz für das Unternehmen – sind bei vielen diese neuen Datenarten nicht unbedingt von vorneherein erkennbar; maschinengenerierte Daten (beispielsweise Sensordaten) sind nicht von vornherein als geschaeftskritisch zu erkennen, aber eine aggregierte Datenanalyse kann sehr wertvolle Aufschlüsse bringen. In diesem Bereich kann man wahrlich von einer Datenexplosion reden. Es ist unglaublich, mit welcher Schnelligkeit Daten automatisch generiert werden.
DOAG Online: Wie würden Sie also Big Data definieren?
Hermann Bär: Big Data dient der Speicherung von schemalosen oder semistrukturierten Daten wie Sensordaten oder Weblogs. So schön es auch wäre, dass diese Daten in der Oracle Datenbank gespeichert werden – das ist an dieser Stelle die falsche Plattform. Hier kommen neue Technologien wie Hadoop ins Spiel, die eine kosteneffiziente Speicherung der Daten ermöglichen. Die Wichtigkeit, die Informationsdichte in diesen Daten ist ebenfalls sehr unterschiedlich: Wir sprechen ja von semistrukturierten oder unstrukturierten Daten. Das heißt, man muss den „Bits and Bytes“ zuerst einmal eine Struktur geben. In dem Fall befindet sich die Struktur im Applikationsprogramm und nicht in den Daten selbst, im Gegensatz zu den Informationen, die in einer relationalen Datenbank gespeichert werden. Da ist die Struktur bei der Datenspeicherung bekannt und daher ebenfalls deren Informationsgehalt. Es ist sicherlich gegeben, dass durch gewisse Aspekte von Big Data neue Technologien aufkommen. Aber um Technologien geht es nicht primär. Big Data ist vor allem ein Konzept, eine Philosophie.
DOAG Online: Wer heute nicht auf Big Data umsteigt, wird morgen nicht existieren können – das ist ebenfalls in den Medien zu lesen. Was steckt wirklich hinter Big Data und ist es wirklich ein Muss, um in Zukunft als Unternehmen konkurrenzfähig zu bleiben?
Hermann Bär (lacht): Oh Gott! Es hängt davon ab, wie das Thema Big Data verstanden wird. Wenn wir Big Data als nächsten evolutionären Schritt, als Super-Set von Data Warehousing verstehen, dann ist es fair zu sagen, dass Leute die ihren Data Warehousing-Bereich erweitern werden, Geschäftsvorteile erzielen werden. Sie werden ein besseres Verständnis von ihrem Unternehmen, Kunden, Produkten erhalten. Aber wo fängt Big Data an, wo hört DWH auf? Wenn ich in der Lage bin, meine Daten besser zu analysieren, ist es dann schon Big Data oder nicht? Man sollte das Thema definitiv ernst nehmen ohne hier philosophisch auf speziellen ‚buzz words’ rumzureiten, denn es hat auf jeden Fall schon heute einen Einfluss auf das DWH, auf Produkte und konzeptionelle Ansätze. Diese Transition ist schon da.
DOAG Online: Für welche Art von Unternehmen ist diese Technologie schließlich heute schon interessant? Und umgekehrt: Für welche Unternehmen ist sie es nicht?
Hermann Bär: Big Data macht sicherlich für jeden Sinn. Ist es für jedes Unternehmen gleich kritisch? Muss jedes Unternehmen Big Data in der gleichen Form implementieren? Wahrscheinlich nicht. Es gibt nur ein Facebook, ein Google. Diese Unternehmen sind Vorreiter im Big Data-Umfeld. Aber jeder, der mit Informationen in größeren Mengen arbeitet, wird in irgendeiner Art und Weise mit dem Thema zu tun haben. Das sind die gleichen Fragestellungen wie im DWH-Umfeld vor 20 Jahren. Die Antworten sind ebenso die gleichen: Die fundamentale Idee ist wirklich immer noch, seine Kunden, Produkte, sein Geschäft besser zu verstehen. Die Bedürfnisse eines Unternehmens können so besser adressiert, die Produkte wiederum besser auf die Bedürfnisse der Kunden angepasst werden.
DOAG Online: Was sollte ein Unternehmen, das sich für Big Data entschieden hat, in der Konzeptionsphase beachten?
Hermann Bär: Man darf nicht über das Ziel hinausschießen: Think big, start small. Die Unternehmen sollten gut überlegen, wo Potenzial besteht und welche Vorteile sie für ihr eigenes Geschäft herausstellen können. Aber im Grunde ist Big Data ein IT-Projekt wie ein anderes auch. Man muss seine eigenen Stärken und Schwächen kennen. Man muss ein Ziel vor Augen haben. Ich glaube nicht, dass Big Data irgendwelche Besonderheiten in der Konzeptionsphase mit sich bringt. Vielleicht sollte man sich auch öfter vor Augen führen, dass Technologien Mittel zum Zweck sind. Ich verwende gern Analogien: Wer versteht heutzutage, wie ein Auto im Detail funktioniert? Ich nicht. Hauptsache, es fährt. Vielleicht ist das Auto auch noch komfortabel, schnell, grün. Aber die Technologie, die verwendet wurde, um dies zu erreichen… tja… Die ist mir ziemlich egal. Sehr oft kommt der beste Einstieg wirklich über die Analyse. Sie ist von den fachlichen Anforderungen getrieben und nicht von der Technologie.
DOAG Online: Manager verlangen nach immer mehr Daten, um schneller fundiertere Entscheidungen treffen zu können. Manchmal ist weniger mehr. Kann es sein, dass sie sich (und ihren Mitarbeitern) zum Teil Steine in den Weg legen?
Hermann Bär: Richtig. Absolut. Das ist ein sehr interessantes Thema. Schon mal von data obesity, also Daten-Fettleibigkeit – gehört? Genau darum geht es ja. Mehr Daten ist ja nicht das Ziel an sich, das ist nur ein Nebeneffekt. An dieser Stelle kommen automatisierte Entscheidungen ins Spiel. Je mehr Daten generiert werden, desto größer das Grundrauschen in den Informationen, die eigentlich geschäftsrelevant sind. Da helfen die analytischen Fähigkeiten, wichtige Ereignisse vom Grundrauschen zu trennen. Mit Big Data verlassen wir das „information age“, um das „feedback age“ zu erreichen. Big Data ermöglicht einen sofortigen Einblick in den Informationsfluss, um darauf basierend Entscheidungen zu treffen. Ein Beispiel: Wenn auf Twitter eine Airline von vielen Benutzern auf einmal kritisiert wird, kann diese Airline innerhalb von Stunden das Thema adressieren.
DOAG Online: Aber wie lernt man, mit diesem Grundrauschen umzugehen? Wie unterscheidet man zwischen Grundrauschen und relevanter Information?
Hermann Bär: Das ist ein iterativer Prozess. Man nennt es Data Science – das Erforschen von Daten. Bei der initialen Datenspeicherung weiß man nicht unbedingt, was kontextuell in den Daten enthalten ist. Deswegen müssen die Daten „erforscht“ werden, um die verschiedensten Attribute, die bis Dato unbekannt sind, in Korrelation zu bringen; sie zu verknüpfen. Wenn ich eine Struktur habe, dann hilft die Technik weiter. Wenn ich nicht weiß, was die Daten enthalten, müssen sie Daten erst mal menschlich konsumiert werden. Ja, Datenerforschung ist ein spannendes Thema.
DOAG Online: Dann bleiben wir man kurz bei diesem spannenden Thema. Schließlich muss sich jemand darum kümmern, dass diese Daten eben „erforscht“ werden. Wer macht den Job?
Hermann Bär: Der Data Scientist… Ja, es ist ein höchst spannender, neuer Berufszweig im Datenanalyse-Bereich. Die Anforderungen ähneln denen eines Business Analysts, aber es kommen zusätzliche Persönlichkeitsmerkmale hinzu: Man braucht eine gewisse, grundlegende Neugier und Wissensdurst und vor allem die Lust, neue Sachen und Zusammenhänge herauszufinden. In der Hinsicht gibt es große Ähnlichkeiten zur Forschung. Ich bin der Meinung, dass der Bedarf in Zukunft groß sein wird. Wenn man übrigens nach Data Scientist googelt, findet man sämtliche Diskussion zu dem Thema: Kann man es erlernen oder soll man es sich heranziehen. Ich glaube, dass man viel Fachverständnis mitbringen muss. Es ist so wie früher: jung, dynamisch, neugierig, 10 Jahre Erfahrung und am besten das Geschäft des Unternehmens End-to-End verstehen. (lacht)
DOAG Online: Wird Big Data dazu beitragen, dass künftig immer mehr Entscheidungen getroffen werden?
Hermann Bär: Es geht nicht unbedingt darum, mehr Entscheidungen zu fällen, sondern bessere Entscheidungen zum richtigen Zeitpunkt zu treffen. Besser sind sie, weil sie anhand von Daten und Fakten getroffen werden. Aber ja, das ist richtig: Entscheidungszyklen werden tendenziell kürzer werden und wir werden wahrscheinlich in Zukunft öfter Entscheidungen treffen. Vielleicht sollte man eher von „Kurskorrekturen“ und „Anpassungen des Geschäftsverhaltens“ sprechen. Potenziell könnte es auch die Risikofreudigkeit erhöhen, wer weiß? Aber sicher ist: Das „feedback age“ verlangt sehr viel Flexibilität und Agilität im Alltag. Das ist ein revolutionärer Aspekt von Big Data. Wir müssen schnell reagieren und uns anpassen. Am Ende des Tages gibt es im Prinzip zwei große Bereiche, die ich in einem Unternehmen beeinflussen kann und muss, um erfolgreich zu sein: Ich sollte meine eigenen Kosten minimieren und meinen Gewinn maximieren. Die Kosten können wir mit Cloud Computing drücken. Big Data hilft, bessere Entscheidungen zu treffen, auf deren Basis mein Gewinn maximiert werden kann. Jeder ist daran interessiert. Wir haben somit einen direkten Einfluss auf den Erfolg des Unternehmens. Allerdings braucht man eine gewisse Vision und Neugier, um es auch zu verwirklichen.
DOAG Online: Wir erleben derzeit auch einen Übergang von „descriptive analytics“ zu „predictive analytics“. Die Datenauswertung ist nicht mehr vergangenheits- sondern zukunftsorientiert. Ist es nicht zum Teil auch beängstigend?
Hermann Bär: Vom Konzept her ist die Idee gigantisch und teilweise auch furchteinflößend. Orwells „1984“ war irgendwann mal ein beängstigendes Buch. Aber alles, was da drin steht, ist inzwischen mehr oder weniger akzeptiert worden. Oder nehmen wir mal den Film „Minority Report“: Wir kommen der Sache ziemlich nah! Die Szene, in der Tom Cruise am Flughafen mit falscher Identität durch die Security geht… Ein computergesteuertes System, das personalisierte Werbemaßnahmen spricht, verrät seine wirkliche Identität und sagt: „Welcome Mr. John Anderton, I have the following offer for you.” Irgendwie ist das alles verdammt nah an der Realität: Wenn jegliche medizinische Information über eine Person abrufbar ist und diese Person bricht zusammen, dann können Ärzte auf Knopfdruck die Daten dieser Person abrufen und in Erfahrung bringen, welchen medizinischen Hintergrund diese Person hat, was eventuell zu diesem Zusammenbruch geführt haben kann und ob es gegebenenfalls Kontradiktionen zur notwendigen Behandlung gibt. Wenn die Krankenkasse diese Informationen hat, dann ist es eventuell problematischer (lacht). Aber ich finde, man sollte immer das Positive in den Vordergrund stellen.
DOAG Online: So, jetzt haben wir uns lange über Big Data unterhalten. Es wurde ziemlich philosophisch. Zurück zur Realität: Um Big Data zu realisieren, stellt Oracle verschiedene Engineered Systems zur Verfügung (Exadata, Exalytics, Big Data Appliance). Wie interagieren sie?
Hermann Bär: Im Prinzip sind sie alle drei von der Architektur und der konzeptionellen Philosophie her absolut komplementär und bilden unsere Vorstellung der End-to-End-Infrastruktur für Big Data beziehungsweise DWH. Exadata – ich fange mal in der Mitte an – ist das Core Data Warehousing-System, der Kern der Architektur. Er hält die klassischen, strukturierten relationalen Daten vor und ist in der Lage, diese schnell und effizient parallel zu verarbeiten. Das ist das Herzstück einer Infrastruktur. Nur eine Bemerkung am Rande: Exadata ist auch in der Lage, mit Hybrid Columnar Compression Petabytes von Daten zu speichern.
Jetzt haben wir die Brücke zu den anderen Produkten: Wenn ich Daten in Exadata speichere, werden die Daten in strukturierter relationaler Form gehalten. Aber unter Umständen kenne ich die Struktur meiner Daten nicht oder ich habe so viele Daten, dass es nicht gerechtfertigt ist, diese in Exadata zu speichern. Wenn dies der Fall ist, dann ist die Big Data Appliance als Datenhaltungs- und Verarbeitungsplattform geeignet. Diese kann beispielsweise Sensordaten schnell und effizient ablegen.
Das heißt, wir speichern erst mal nur die Daten, später kümmern wir uns um die Inhalte. Nehmen wir Weblogs als Beispiel: Wenn Benutzer lustvoll oder lustlos auf Webseiten navigieren, werden viele Daten generiert. Dabei ist das Verhalten einer einzelnen Person auf der Webseite unbedeutend. Viel wichtiger ist es herauszufinden, was die Mehrheit einer bestimmten Zielgruppe gemacht hat. Am Ende des Tages wollen Analysten wissen, was Personen mit einem gewissen sozialen Profil (Beispiel: Mann, Mitte 30, Akademiker, verheiratet, ein Kind) auf der Webseite gemacht haben und welche Entscheidungen sie getroffen haben. Wie gehe ich mit dieser „Klasse von Personen“, dieser Zielgruppe, um? Ob 10.000 oder 9.900 Leute dazu gehören, ist dabei ziemlich egal. Die Information entsteht aus der Masse der Daten. Sind wir in der Lage, die Kerninformationen aus diesen Daten zu extrahieren, dann können wir diese in strukturierter Form ablegen und die Datendichte reduzieren. Der Kreis schließt sich: Wir haben wiederum die Verbindung zwischen Big Data Appliance und Exadata.
Jetzt bleibt nur noch das letzte Glied in der Kette: Exalytics. Die Exalytics-Leute sagen immer: “Information with the speed of thought”. Da geht es wirklich um die Visualisierung und Darstellung der analytischen Ergebnisse.
Im Idealfall kommen die drei Maschinen zum Einsatz. Wenn man wirklich diesem Big Data-Konzept folgt, diese unterschiedliche Datenquellen hat und große Datenmengen und Hadoop und NoSQL als Datenhaltungssystem relevant wird, ja, dann braucht man alle drei.
Kann man theoretisch ganz ohne Appliances im Big Data-Umfeld auskommen? Die Antwort ist ja, höchstwahrscheinlich. Aber es hat seinen Preis: generell werden die Grenzen zwischen Hardware und Software immer mehr verschwinden. Ich sehe viel Mehrwert in den Engineered Systems, selbst wenn im Falle einer Big Data Appliance der Anteil an Hardware-Software Engineering gering ist. Besonders hinsichtlich Wartung und Support ist der Vorteil klar sichtbar: Unsere Entwickler kennen jede einzelne Komponente des Systems, wissen genau welche Art von System beim Kunden steht. Es ist ein großer Vorteil und eliminiert jegliche Art von Integrationsproblemen von vorneherein.
DOAG Online: Diese Verschmelzung zwischen Software und Hardware beobachtet man nicht nur bei Oracle. Es ist wirklich ein Trend. Gibt es insofern immer noch einen Best-of-breed-Ansatz im Bereich Data Warehousing?
Hermann Bär: Wieder eine Frage, die fast philosophisch ist. Ich denke, wir müssen Best-of-breed inzwischen neu definieren. Vergleichen wir einmal mehr den Bereich Informationstechnologie mit der Automobilindustrie: Ist die Kupplung unseres Autos Best-of-breed? Ist der Motor Best-of-breed? Ist es überhaupt relevant, solange mein Wagen fährt und meine Bedürfnisse addressiert werden? Die Grenzen zwischen Hardware und Software verschwimmen, das ist definitiv der Trend im Markt. Aber dabei steht keineswegs die Technologie im Mittelpunkt. Um das zu erklären, muss ich ein bisschen ausholen: Was ist Spezialisierung und warum brauchen wir sie? Sie entstand aufgrund von Limitationen: Wir sind zum Beispiel nicht in der Lage, Autos zu bauen, die Formel-1-Rennen fahren und eine sechsköpfige Familie transportieren können. Insofern ist es schneller, kostengünstiger und einfacher, etwas zu entwickeln, was nur eine Sache kann. Hardware und Software werden immer leistungsfähiger und bekommen immer mehr Funktionalitäten. Inzwischen haben wir multifunktionale Hardware kombiniert mit multifunktionaler Software, wie z.B. die Exadata Database Machine, welche für Data Warehousing und OLTP optimiert ist. Um Best-of-breed zu definieren, muss man seine Bedürfnisse und Erwartungen definieren: Was wollen wir mit unserer DWH-Plattform erreichen? Was erwarten wir von der Plattform hinsichtlich Funktionalität und Performanz? Wenn die Lösung unsere Bedürfnisse adressiert, ist sie Best-of-breed.
DOAG Online: Die Engineered Systems werden manchmal als ‚Black Box’ bezeichnet. Man kann nicht reingucken und weiß nicht genau, wie sie funktionieren – und man will es auch gar nicht wissen, heißt es oft. Böse Zungen sind der Meinung, dass der Beruf des Datenbankadministrators aus diesem Grund gefährdet sein könnte. Was meinen Sie dazu?
Hermann Bär: Diese Diskussion mag ich nicht. Wir reden über die Datenbank, als ob es sich um ein Commodity-Produkt wie ein Windows- oder Mac OS-Betriebssystem handeln würde. Das ist falsch. Man darf nicht vergessen, dass eine Datenbank auch eine Entwicklungsumgebung ist. Wir haben keinen Kunden da draußen, der in seiner Datenbank nur EMP und DEPT hat – ich nehme an Sie kennen diese zwei berühmtesten Oracle-Tabellen. Dabei ist das ziemlich alles, was sie von uns aus der Datenbanksicht ‚out-of-the-box’ geliefert bekommen. Es ist eine datenorientierte Entwicklungsumgebung und SQL ist die Entwicklungssprache, ob es jetzt in Java oder C eingebettet ist oder sonst was. Wenn wir jetzt davon ausgehen, dass Kunden Eigenentwicklungen darauf implementieren, dann führt kein Weg am Administrator vorbei. Sicherlich kann man von der Administration her sehr viel automatisieren. Aber es wird immer jemanden geben, der nach dem System schaut.

