NAMER All PDFs

Die datengestütz te Hochschule

Issue link: https://access.awscloud.com/i/1469038

Contents of this Issue

Navigation

Page 9 of 20

Inhalt: › Wie Daten die digitale Transformation in der Bildung vorantreiben › Der Nutzen und Wert von Daten › Daten, Wandlungsfähigkeit und Agilität › Agilität für Daten › Wie nutzen wir Daten, um unsere Einrichtung anpassungsfähig zu machen? › Fazit › Über den Autor 2. Daten speichern Haben wir die Daten gesammelt, müssen wir sie so speichern, dass sie für Analysen verfügbar sind. Klassischerweise wurden Daten in strukturierten Formaten gespeichert, die darauf beruhten, wie die Daten operativ genutzt werden. So gäbe es beispielsweise ein Datenfeld für „Studienleistungen" und ein anderes für „Klassenobergrenze". Wir würden die Daten in den zugehörigen Feldern der Datenbank sammeln –mit dem Wissen, dass wir diese Daten im Betrieb nutzen können, um Studienangebote zu präsentieren. Indem wir die Daten in solche Formen gießen, sind sie nützlich für solche Vorgänge. Wir verlieren aber möglicherweise nützliche Informationen für weitergehende Analysen. Das war das Modell relationaler Datenbanken. Die letzten Jahrzehnte waren vom Einsatz solcher relationalen Datenbanken dominiert. Sie eignen sich gut, um traditionelle Datensammlungen zu verarbeiten, die bereits im Voraus bekannt sind („Multipliziere die Zahl der Noten mal den Kurspunkten"). Wenn Sie es aber mit nicht-transaktionalen Daten, mit enormen Mengen an Online-Transaktionen oder mit Daten ohne genau vordefinierten Datenfeldern zu tun haben, dann gibt es heute wesentlich bessere Alternativen, die speziell für die Cloud entwickelt wurden. Amazon Timestream etwa ist eine Datenbank die speziell für die Verarbeitung von Daten aus Zeitreihen entworfen wurde, zum Beispiel Daten, die über einen längeren Zeitraum von industriellen Sensoren oder bei der Nachverfolgung von Handels-Aktivitäten erzeugt werden. Die Amazon Quantum Ledger Datenbank ist für den Umgang mit Daten aus der Blockchain gedacht –Daten, deren zeitlicher Verlauf durch komplexe Verschlüsselungen, der Kryptografie, sicher nachvollziehbar sein muss. Amazon Neptun schließlich ist darauf ausgerichtet, komplexe Verknüpfungen und Beziehungen abzubilden wie sie etwa in Social Media Plattformen entstehen. Damit sind Unternehmen nicht mehr auf die Datenmodelle begrenzt, die in relationale Modelle passen. . Es geht noch besser –und agiler: Daten für bislang nicht definierte Analysen lassen sich in einem flexiblen Archiv, dem so genannten Data Lakespeichern. Dort werden alle Daten in dem Format gespeichert, in dem sie eintreffen. Die Stärke des Data Lake liegt in den Tools, die ihn analysieren: Programme, die heterogene Informationen kombinieren und dabei strukturierte und unstrukturierte Daten, die Inhalte unterschiedlicher Datensilos sowie große Datenmengen verarbeiten. Die heutigen Tools können Machine Learning Algorithmen und statistische Analysen ebenso nutzen wie sie Texte in natürlicher Sprache, Videoinhalte und gesprochene Worte auswerten. Im Fall einer Übernahme (z.B. einer EdTech-Firma) können wir schnell eine Methode entwickeln, um Daten aus der neu übernommenen Organisation in den Data Lake zu füllen, um so Einblick in ihre Arbeitsabläufe zu bekommen. Und wir können deren Daten mit den Eigenen verbinden. Die Schlüssel, die all das möglich machen: (1) Geringe Speicher-Kosten, (2) die Verfügbarkeit von Tools, die lose strukturierte, heterogene Daten auswerten können, und (3) die Verfügbarkeit von Diensten, die Daten in hoher Bandbreite asynchron in den Data Lake pumpen. Die Daten werden einfach so zum Data Lake umgeleitet, wie man sie erhält und sie werden dort umgehend abgelegt –ohne Wartezeiten, im Prinzip wie eine E-Mail. Anders gesagt: Der Data Lake erfüllt den Anspruch, Daten zu speichern, bevor man bis ins letzte Detail weiß, wofür sie genutzt werden. Wir schütten also Daten aus verschiedenen isolierten Silos in den Data Lake und werten sie gemeinsam darin aus 9

Articles in this issue

view archives of NAMER All PDFs - Die datengestütz te Hochschule