Zum Inhalt springen
  • Von: Marcos López
  • DOAG.tv Datenbank
  • 09.06.2020

Gancho Dimitrov – Teil 1: Wie man riesige Datenmengen filtert und speichert

Teil 1 des Interviews mit dem Datenbank-Architekten behandelt den effektiven Umgang mit Daten, die sich im dreistelligen Peta-Bereich bewegen.

Im ersten Teil des englischsprachigen DOAG.tv-Interview, das Martin Klier, DOAG Themenverantwortlicher Hochverfügbarkeit, mit Gancho Dimitrov führte, erläutert der Spezialist für Datenmanagement, Schema-Design und Performance Tuning bei der ATLAS Experiment Database Group @CERN, die Funktionsweise des LHC (Large Headroom Collider).

In dem rund 27 Kilometer langen unterirdischen Magnetring, genannt ATLAS, entstehen riesige Datenmengen bei der Kollision von kleinsten Teilchen, die eine enorme Herausforderung für die Filterung und Speicherung darstellen. Wie wird dieses Mega-Konvolut an Informationen in die Oracle-Partitionen "gegossen", so dass sie ausgewertet werden können? "We have a full catalogue, like a phone book for the collison events, and they point us to the files" ist nur eine der überraschenden und kurzweiligen Antworten von Gancho Dimitrov.

Das Gespräch wurde im Rahmen der DOAG 2019 Konferenz + Ausstellung am 21. November 2019 in Nürnberg aufgezeichnet. Die 45-seitige Präsentation des Vortrags von Gancho Dimitrov "The One Million Table Partitions Challenge in ATLAS @CERN" können Sie hier als PDF aufrufen. Alle bisher veröffentlichten Clips der DOAG 2019 Konferenz + Ausstellung finden Sie hier.

Den zweiten Teil des Interviews mit Gancho Dimitrov können Sie am 16. Juni 2020 sehen.