Aufrufe
vor 9 Monaten

Netzwoche 04/2018

24 Technology

24 Technology Titelgeschichte Illustration: Choo Studio / shutterstock.com Artikel online auf www.netzwoche.ch Webcode DPF8_82717 brauche es in derzeitigen Architekturen, die Daten zu bewegen. Ein Zugriff auf den Arbeitsspeicher etwa verbraucht laut Mutlu rund 1000-mal mehr Energie als eine komplexe Addition. « Derzeit haben wir anscheinend keine Design- Prinzipien, die Zuverlässigkeit und Sicherheit bieten. Diese zu finden, muss unsere oberste Priorität sein. » Onur Mutlu, Professor der ETH Zürich und der Carnegie Mellon University Die derzeitigen Design-Prinzipien würden zu grosser Energieverschwendung führen, weil die Datenverarbeitung weit weg von den Daten erfolge. Und die Datenbewegung bestimme auch die Rechenmöglichkeiten – egal wie schnell der Prozessor sei. Viel klüger wäre es daher, Daten nur minimal zu bewegen, glaubt Mutlu, und sie dort zu verarbeiten, wo sie sich befänden. Insgesamt hiesse das, Computersysteme mehr auf die Daten und den Speicher auszurichten statt auf den Prozessor. Computing und Memory zusammenführen Eine mögliche Computerarchitektur der Zukunft würde Recheneinheit und Memory vereinigen. Bei dem Konzept seien aber noch viele Fragen offen, räumt Mutlu ein. Man könne aber etwa mit einem Prozess im System wie dem Kopieren von Daten anfangen – das Kopieren innerhalb des Speichers, ohne dass die Daten in den Cache und zurück gehen, würde bereits dazu führen, dass die Systemgeschwindigkeit erhöht und der Energieverbrauch gesenkt würde. Rowclone etwa sei ein Verfahren, mit dem man im Arbeitsspeicher ganze Reihen kopieren könne, was zu einer 12-fach schnelleren Verarbeitung und einem 74-mal geringeren Energieverbrauch führe. Für «echte» In-Memory- Berechnung könnte man die logischen Gates AND, OR, NOT im DRAM realisieren – das würde die Leistung um den Faktor 30 bis 60 erhöhen. Um denselben Faktor sinke der Energieverbrauch, wie Experimente zeigten. Und neue Speichertechnologien wie Memristors, resistive RAM, Phase Change Memory hätten noch grösseres Potenzial. Mutlu sieht denn auch eine leuch tende Zukunft für Computersysteme, trotz der aktuellen Herausforderungen. 04 / 2018 www.netzwoche.ch © netzmedien ag

XXXXXXXXXXX XXXXXXXXXXXX 25 Illustration: z_wei / iStock.com FOCUS BIG DATA ANALYTICS Besser als ein Blick in die Glaskugel mur. Laut dem Cloud-Index von Cisco wird sich die Menge an Daten in Rechenzentren in den nächsten Jahren fast verfünffachen. Sie soll von 286 Exabyte im Jahr 2016 auf 1,3 Zettabyte im Jahr 2021 anwachsen. Der Bereich Big Data soll gar um das 8-Fache wachsen und 2021 rund 30 Prozent aller in Rechenzentren gespeicherten Daten umfassen. Es gibt heute kaum noch Unternehmen, die sich der Wichtigkeit von Daten nicht bewusst sind. Aber werten die Firmen ihre Daten auch richtig aus? Und wie genau? Was ändert sich danach? Big Data Analytics ist komplexer, als viele Unternehmen annehmen. Dieser Focus soll helfen, das Thema fassbarer zu machen. Martin Nussbaumer schreibt über ein Thema, das Unternehmen bei Big Data und Compliance oft vernachlässigen: die Infrastruktur. Der Head of Product Sales Switzerland & Austria von Fujitsu erklärt, warum es sich für Firmen lohnt, auf flexibel kombinierbare Infrastruktur zu setzen. Auch Raphael Branger, Senior Solution Architect und Partner bei IT-Logix, schreibt zu diesem Thema. Er stellt das Data Management Quadrant Model des unabhängigen Consultant Ronald Damhof vor. Es kann Unternehmen helfen, den Wildwuchs von Business-Intelligence-Produkten zu bändigen. Der dritte Beitrag im Focus ist von Giuseppe Scattarreggia. Der Regional Director Schweiz von Information Builders schreibt über die prognostische Analytik und die Open-Source-Statistikbibliothek RStat. Der Einsatz der Tools erlaube es, Prognosemodelle zu entwickeln und mögliche zukünftige Entwicklungen vorauszusehen. Eine Garantie auf Erfolg gibt es dabei natürlich nicht. Besser als ein Blick in die Glaskugel sind diese Techniken aber allemal. www.netzwoche.ch © netzmedien ag 04 / 2018