Unabhängiges Magazin für Wirtschaft und Bildung

16. April 2024

Search form

Search form

Explodierende Datenmengen

Explodierende Datenmengenpiqs.de/Reinhold Mohr

... als neue Herausforderung für Big Data-Analysen.

Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen. Im Rahmen einer Tagung am Hasso-Plattner-Institut (HPI) in Potsdam erörterten führende Experten die neusten Entwicklungen.

Physikalische Grenzen bei Big Data
Schnelle und flexible Big Data-Auswertungen mit der am HPI mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Datenmanagement lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

Der Jet fährt ohne abzuheben
"Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Software-Seite“, so Frank Feinbube, Wissenschaftler am Hasso-Plattner-Institut. "Derzeit ist die Situation, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur anstatt statt abzuheben“, so Feinbube weiter.

Verknüpfungen
Aktuell suchen die Forscher Wege, wie entsprechende Soft- und Hardware optimal harmonieren können um die Hardware- und Big Data-Management-Systeme bestmöglich anzupassen. Im Rahmen von "Industrie 4.0" Anwendungen können Lösungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung exakt abgestimmt werden etwa mit aktuellen Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen.

Hewlett Packard kündigt Innovation an
Hewlett Packard, einer der Partner des HPI-Forschungslabors, stellte in Potsdam eine neue Computer-Generation mit einer andersartigen Netzwerkarchitektur vor. Kernstück der Neuentwicklung sind so genannte Memristoren, an denen HP bereits seit 2008 experimentiert.
Bei Memristoren handelt es sich um passive Bauelemente, deren Widerstand variabel ist. "Der jeweilige Wert hängt stets davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten", erklärt Axel Simon, Entwickler bei HP.

The Machine
Memristoren verfügen theoretisch über sehr hohe Kapazitäten und extrem schnelle Zugriffszeiten im Nanosekundenbereich. 2016 sollen laut HP erste Bauteile verfügbar seien und zudem sollen Memristoren auch Eingang in neuartige Prozessoren (Systems-on-Chips) finden und über "Photonics", eine serielle optische Verbindung, kommunizieren.
Komplettiert werden soll "The Machine", wie Hewlett Packard das visionäre Konzept nennt, durch so genannte Moonshot-Systeme. Pro Rack sollen sich so enorme Datenmengen von mehr als 150 Petabyte speichern lassen. Herkömmliche Festplatten fassen nur einen Bruchteil.

Medizinische Anwendungen
Ein weiterer Schwerpunkt der HPI-Veranstaltung war die Präsentation Göttinger Forscher zum Thema "Intelligent Data Replication for Ontology-Based Query Answering". Dieses System sucht nach Ähnlichkeiten und der intelligenten Verknüpfung von Suchanfragen etwa mit einer speziellen Bibliothek.
Damit soll beispielsweise möglich sein, in medizinischen Datenbanken nach dem Stichwort Influenza zu suchen, und das System wertet auch artverwandte Daten etwa zu Husten und Schnupfen aus. Alles wird anschließend in einem übergeordneten Kontext zusammengestellt und ermöglicht so neue Erkenntnisgewinne.

Der nächste Future SOC Lab Day wird vom Hasso-Plattner-Institut (HPI) am 4. November veranstaltet.

Links

red/czaak, Economy Ausgabe 999999, 24.04.2015