Für unsere Data Lake-Plattform setzen wir auf den aktuellen Standard in Sachen Data Lakehousing: Databricks.
Unterschiedliche Formate und unterschiedliche Speicherorte gehören mit der Data Lakehouse-Plattform der Vergangenheit an. Während der Einführung von Databricks werden die Daten für die Datenverarbeitung und Datenanalyse strukturiert, in ein für Abfragen optimiertes Format überführt und in einem Cloudspeicher abgelegt. Databricks sorgt dafür, dass die bereits strukturierten Daten für die Datenverarbeitung und Datenanalyse in einem Cloudspeicher in einem optimierten Format angelegt und harmonisiert werden. Dadurch können Sie am Ende die aufbereiteten Daten für Berichte und Analysen zur Informationsgewinnung kombinieren.
Innerhalb des Data Lakehouse werden die Daten fachgerecht so aufbereitet und modelliert, dass regelmäßige, automatisierte Berichte erstellt und Ad-hoc-Anfragen auf logisch konsistenten Modellen und validierten Daten erzeugt werden können. Databricks ist aktuell der Standard in Sachen Datenaufbereitung und -verarbeitung und basiert bis heute auf der Open Source Software-Variante von Spark.