Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen „im Stream“? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersehbar ist?
Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
Referent Peter Welker zeigt in dieser DOAG DAC WebSession vom 21.10.2021 anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, worin deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann. Es moderieren Armin Wildenberg und Markus Bente.


