Exponentielles Datenwachstum
Der Erfindungsgeist bei Chip- und Speichertechnik allein wird das Datenwachstum nicht bändigen
Die Ideen von Universitäten und Storage-Anbietern, mehr Datenspeicher auf weniger Raum zu schaffen, rangieren von radikalen Ansätzen wie DNA- oder Wasserspeichern bis hin zu komplexen dreidimensionalen Chipdesigns. Ihr Ziel: das Mooresche Gesetz soll weiter gelten. Aber all das wird nicht reichen, um das exponentielle Datenwachstum zu bändigen. Anwender müssen anfangen, endlich Daten zu löschen, anstatt immer mehr speichern zu wollen. Aber wie löscht man richtig?
In den eigenen Daten ertrinken – was bisher metaphorisch galt, ist dank der University of Washington und Microsoft nun real. Forscher beider Organisationen haben gemeinsam einen ersten DNA-Speicher entwickelt, der Informationen vollautomatisiert in Binärcode und anschließend in DNA-Sequenzen und Desoxyribonukleinsäure umwandelt. Daten werden flüssig. Forscher um Julian Koch von der ETH Zürich haben einen Silikat-umhüllten DNA-Speicher entwickelt, den sie in beliebige Alltagsobjekte integrieren. Sie tauften diese Technik „DNA der Dinge“ – analog zum „Internet der Dinge“. „In dieser Speicherarchitektur werden DNA-Moleküle in funktionelle Materialien integriert, um Objekte mit unveränderbarer Erinnerung zu erschaffen“, erklären die Wissenschaftler dem Portal Scinexx.
Andere arbeiten daran, bekannte Konzepte weiter zu verbessern. Im August vergangenen Jahres hat ein Team am Massachusetts Institute of Technology (MIT) in Cambridge einen Computerchip aus Kohlenstoff-Nanoröhren gebaut, der mit 16 Bit arbeitet. Die Kohlenstoff-Nanoröhren sind Graphen mit der Dicke eines Atoms und leiten Strom viel effizienter und schneller weiter als Silicon. Die Industrie und Wissenschaft hofft, mit diesem Material die physikalischen Grenzen des Mooreschen Gesetzes stärker auszureizen.
Kraftanstrengungen auf bekanntem Terrain
Bis solch völlig neue Formen des Speichers oder Chipdesigns marktreif und tauglich für die Massenfertigung sind, werden noch mehrere Jahre vergehen. Daher wird an klassischen Technologien weiter intensiv geforscht, um mit neuen schnelleren Chips und Designs die wachsende Datenmenge einfacher, kompakter, schneller und vor allem energieeffizienter verarbeiten und speichern zu können. Forscher an der Universität von Lancaster haben vergangenen Sommer einen neuen Speichertyp patentiert, der nur 1 Prozent der Energie von DRAM – und 0,1 Prozent der Energie von Flashspeicher braucht, bei einer Baugröße von 20nm.
Der Riese bei der Chipproduktion, das taiwanesische Unternehmen TSMC, hat als erster Hersteller Chips mit der Baugröße von 5nm in die Massenfertigung gebracht. Und Philip Wong, Forschungschef von TSMC, glaubt fest daran, das Mooresche Gesetz bis zum Jahr 2050 einzuhalten. Neben neuen Materialien wie Graphen will der Marktführer in der Chipfertigung das Chipdesign dreidimensional anlegen. Die Idee stammt von den Herstellern von Flash-Speichern, die bereits seit Jahren mehrere Schichten aufeinanderstapeln.
Sie sparen nicht nur Patz, sondern können die Ebenen untereinander verbinden und so mehr Leistung aus dem Chipdesign holen. Auch Intel und ARM setzen auf solche Chiplet-Designs, die sich flexibel miteinander kombinieren lassen. Bei den Chiplets handelt es sich um einzelne Module, die beispielsweise mehrere CPU-Kerne, Grafikeinheiten und andere Bestandteile des gesamten Chips mitbringen. Diese können dann je nach Bedarf miteinander kombiniert werden.
Die Physik legt die Grenzen für das Mooresche Gesetz fest |
---|
Gordon Moore ist Computer-Pionier und Intel-Mitgründer. Er sagte bereits 1965 voraus, dass sich binnen zehn Jahren die Zahl der Schaltkreise auf einem Computerchip jährlich verdoppeln würde. Tatsächlich hat die Industrie diese Gesetzmäßigkeit bis heute halten können – über mehr als 55 Jahre. Fortgeschrittene Schaltkreise seien heutzutage nur rund 5 Nanometer groß und die Industrie will in Größenbereiche von 2 bis 3 Nanometern vorstoßen. Diese winzigsten Strukturen umfassen dann nur noch zehn Atome – damit stößt die Siliziumtechnologie an ihr Limit. In den derzeitigen Mikroprozessoren fließen Elektronen. Der Wissenschaftspublizist Dr. Michael Springer erklärt, dass spätestens bei diesen Größen Quanteneffekte ins Spiel kommen, genauer gesagt die heisenbergsche Unbestimmtheit des Elektronenverhaltens. Die Teilchen verhalten sich unberechenbar, die Transistoren würden Fehler produzieren und wären unbrauchbar. Aufgrund des elektrischen Widerstands heizen die Elektronen den Chip zudem auf. Ab einem gewissen Punkt versagen die Chips einfach, da die Wärme nicht mehr abgeführt werden kann. Das verhindere auch eine weitere Geschwindigkeitssteigerung der Bauteile. |
Mit einem Fuß On-premises, mit dem anderen in der Cloud
Diese außergewöhnlichen Beispiele zeugen vom Erfindungsgeist, mit dem Universitäten und Industrie Platz für die wachsende Datenmenge schaffen, um in diesem Wettlauf Schritt zu halten. Denn die Menge der Daten weltweit wächst exponentiell und verdoppelt sich jedes Jahr. IDC spricht von 175 Zetabyte weltweit in fünf Jahren. Interessant an der IDC-Prognose ist aber etwas anderes: Gerade der Anteil der Daten, der von Unternehmen erzeugt und verwaltet wird, soll signifikant steigen. Während dieser Anteil 2015 noch bei gerade einmal 30 Prozent lag, erwarten die Experten für 2025 etwa 60 Prozent. Unternehmen werden es also 2025 mit etwa 105 Zettabytes zu tun haben, gegenüber 12 Zettabytes zehn Jahre zuvor. Das Datenwachstum hängt die technische Entwicklung ab. Es wird befeuert von der niemals endenden Generierung von Daten durch das Internet, die durch neue Technologien wie 5G, IoT, AI und Kryptowährungen und -verfahren wie Blockchain weiter befeuert wird.
Die Unternehmen und Cloud-Storage-Provider werden mehr Platz schaffen müssen für die Daten. Sie werden hierzu schnelle, skalierbare Flash-Speicher einsetzen, um die Daten für fortschrittliche Analysen auzuwerten oder hochperformante Storage-Plattformen per schnellem Backup zu sichern. Analysten gehen davon aus, dass die Preise für SSD-Speicher dieses Jahr weiter fallen werden, weil einige Hersteller beispielsweise 128-Layer-4D-NAND-Flash fertigen und mit hohen Volumina anbieten.
Die meisten Unternehmen werden ihre IT im Mischbetrieb fahren und Teile ihrer Workloads On-premises, andere in der Cloud betreiben. Die Storage-Systeme sollten solche Mischformen skalierbar und simpel abbilden können. Der Speicher wird selbst im Hyper-Converged-Modus arbeiten und sowohl mit der alten Storage-Infrastruktur als auch den Cloud-Storage-Ressourcen interagieren müssen.
Der Zwang zu einfachen, schnell aufsetzbaren Storage-Architekturen wird Konzepte auf Basis einer Software-Defined-Architektur weiter vorantreiben. Simple Standard-Hardware wird hierbei durch kluge und hochskalierbare Software zu einem virtuellen Ressourcenpool vereint. Automatische Prozesse weisen den neuen Speicher dynamisch nach Bedarf zu, ohne dass ein Mensch eingreifen muss.
Fleißaufgabe Datenhygiene
Jeden Tag wird neue Speicher-Infrastruktur aufgesetzt und von Daten geflutet. Dies ist aus ökonomischer und ökologischer Sicht irgendwann problematisch. Noch rechnet es sich, die Daten ungefiltert und unkategorisiert einfach auf günstigen Speichern abzulegen. Gartner spricht hierbei von Dark Data oder Informationen, die Firmen im Geschäftsalltag zwar sammeln, bearbeiten und speichern, die aber nicht verwendet werden.
Ähnlich wie bei dunkler Materie in der Physik gehört der Großteil aller Firmendaten in die Kategorie Dark Data. Studien von Veritas zeigen, dass im Schnitt weltweit 52 Prozent aller von Firmen gespeicherten Daten so genannte Dark Data sind. Diese Daten zu speichern und zu sichern bindet mehr Ressourcen, ohne dass irgendein Wert aus den Daten gezogen wurde.
Anwender müssen anfangen, den Inhalt solcher Daten automatisiert zu untersuchen und nach Geschäftswert zu klassifizieren. Automatische Data-Management-Werkzeuge nutzen hierfür Algorithmen aus den Bereichen Machine Learning und Artificial Intelligence und kombinieren dieses Wissen mit vordefinierten Filtern und länderspezifischen Regeln und gesetzlichen Vorgaben. Ziel ist es, so wenig Fehler wie möglich bei der Klassifizierung zu produzieren und so wenig menschliche Interaktion wie möglich auszulösen.
Diese Form der automatischen Datenklassifizierung ist der erste Schritt zur Datenhygiene. Das zweite wichtige Element ist der Gesamtüberblick über die Auslastung aller Speicher im Unternehmen, ob in der Cloud, hyperconverged oder klassisch On-premises. Erst dieser holistische Überblick über die Speicher und die darin abgelegten Daten liefert den Unternehmen das essenzielle Wissen, um eine der wichtigsten Fragen im Datenmanagement absolut zuverlässig zu beantworten: „Kann diese Datei ohne Geschäftsrisiko gelöscht werden?“
Wer den Anteil von Dark Data im Unternehmen durch Klassifizierung kontinuierlich reduziert, wird übrigens oft redundante Daten finden können – beispielsweise E-Mail-Archive auf Storage in Außenstellen, die längst an anderer Stelle zusammengefasst wurden. So lassen sich schnell bestehende Speicher freiräumen.
Wenn Unternehmen ein solches Datenmanagement als Teil ihrer alltäglichen IT-Aufgaben begreifen, werden sie den Wert der Daten auch bei der Einführung moderner digitaler Konzepte wie IoT oder Industry 4.0 gleich zu Anfang diskutieren und entscheiden, welche Daten sie speichern müssen. Und welche sie risikofrei löschen oder verfallen lassen können.
Über den Autor:
Sascha Oehl hilft Unternehmen als Director Technical Sales für Zentraleuropa bei Veritas Technologies, ihr Geschäft auf ein digitales Betriebsmodell umzustellen, in dem Daten Wettbewerbsvorteile liefern. Oehl unterstützt Kunden, Daten in Multi-Cloud-Umgebungen zu sichern, Speicherkosten zu senken und die IT insgesamt hochverfügbar zu betreiben.
Text: Veritas Technologies
Aufmacherbild / Quelle / Lizenz
Bild von PixxlTeufel auf Pixabay