Schlagwort-Archive: Terabyte

Ein kleiner Schritt für einen Nerd, ein weiterer Meilenstein auf meinem Pfad in die eigene Datensouveränität: Alle meine Festplatten sind heute vollständig verschlüsselt. Ja, irgendwann habe ich es einfach gewagt, Veracrypt installiert und damit begonnen, einen Datenträger nach dem anderen zu verschlüsseln. Zunächst vorsichtshalber nur bei Festplatten, die komplett redundant gesichert sind, um es anzutesten. Nach den ersten Monaten ohne Schwierigkeiten dann schließlich durchgängig bei allen anderen Festplatten. Ich habe bei dem Thema zuvor lange mit mir gerungen, und den Grund dafür werde ich in den folgenden Absätzen gerne kurz anreißen, denn es sind Dinge, die man hierzu unbedingt wissen sollte.

Schon damals im Studium im Jahr 2007 habe ich mit dem Veracrypt-„Vorgänger“ Truecrypt ein wenig experimentiert. So erstellte ich mehrere verschlüsselte Datencontainer auf meiner Festplatte, mit einem sicheren Passwort versehen, und kopierte einige Dateien hinein. Die Container konnten schon damals relativ einfach immer bei Bedarf wie ein eigenes Laufwerk unter Windows gemountet werden, was mir grundsätzlich sehr gefiel. Erstellt habe ich sie in Größen von 1 bis 2 GB und mit allerlei Dateien gefüttert, hauptsächlich Spiele und anderen Kram, den ich ohnehin auslagern wollte. Nichts Wichtiges zum Glück. Das hat eine Weile nämlich ganz gut funktioniert. Bis der größte der Container ganz plötzlich von heute auf morgen das Passwort nicht mehr akzeptiert hat. Eine Internetsuche zu dem Problem brachte mich auf die Idee, das Headerbackup, das man zuvor angelegt hatte, wieder auf den Container einzuspielen. Das Einspielen gelang, aber das Passwort nahm Truecrypt im Anschluss trotzdem nicht an. Eine längere Internetsuche brachte keine weitere rettende Idee. Die Dateien waren natürlich alle noch da, aber ich kam nicht mehr dran, und so verabschiedete ich mich bald davon. Das Experiment war gescheitert. Heute, 12 lange Jahre später, kann ich auch nicht mehr mit hundertprozentiger Gewissheit sagen, ob ich mich vielleicht mit dem Passwort vertan hatte, oder ob der Container doch irgendwie beschädigt wurde. Aus Erfahrung weiß ich beispielsweise, dass Scandisk/Checkdisk von Windows bei mir auch gerne mal große Dateien kaputtrepariert hat. Wäre also nicht so abwegig gewesen.

Ich lernte damals, von Truecrypt doch besser Abstand zu nehmen, denn man kann sich leicht daran die Finger verbrennen. Auch heute, wenn man in Internetforen nach Problemen mit Truecrypt/Veracrypt sucht, wird man überhäuft von Meldungen über plötzlichen Datenverlust durch Fehlfunktionen und verschlüsselte Container, die sich nicht mehr öffnen lassen bzw. das Passwort einfach nicht mehr akzeptieren. Viele verzweifelte oder verärgerte Hilferufe von Nutzern, die kein Backup haben und jemanden suchen, der ihre Daten retten kann – zur Not sogar gegen viel Geld. Offenbar ist dieses Thema selbst heute noch mit großer Vorsicht zu genießen, denn wird der Container durch einen Schreibfehler beschädigt, kann es im ungünstigsten Fall passieren, dass die Gesamtheit der Dateien sich in Sekundenschnelle in unlesbaren Datenmüll verwandelt. Bei einer unverschlüsselten Festplatte hätte man hier zumindest noch die Chance, alle unbeschädigten Daten zu extrahieren. Eine Festplattenverschlüsselung bietet ein ausgezeichnetes Maß an Schutz der Daten vor fremdem Zugriff, aber macht die Datenrettung bei einem Festplattendefekt leider gleichzeitig extrem schwer, wenn nicht sogar unmöglich. Ein großer Vorteil also, der im Katastrophenfall zu einem großen Nachteil werden kann.

Festplattenverschlüsselung taugt also gar nicht für den Alltag? Viel zu unsicher? Ganz im Gegenteil! Jeder, der mit dem Gedanken spielt, seine Dateien zu verschlüsseln, sollte sich natürlich darüber im Klaren sein, dass es unverzichtbare und verzichtbare Daten gibt. Unverzichtbares wird bei mir redundant an zwei Orten gleichzeitig gelagert und verschlüsselt. Fällt ein Datenmedium aus, habe ich immer ein Backup. Wer es sich leisten kann, setzt sogar auf mehrfache Redundanz, im Idealfall räumlich getrennt. Verzichtbares kann ich logischerweise auch ohne Backup verschlüsseln. Fällt dieses Datenmedium aus, ist der Tag womöglich ruiniert, aber ich breche nicht gleich in Tränen aus. Pech gehabt, das Leben geht weiter. So handhabe ich das im Moment. Alles wird verschlüsselt, aber nur das Wichtigste wird als Backup vorgehalten. Ein bisschen Risiko ist immer im Spiel.

Wie sieht meine bisherige Erfahrung nach mehreren Monaten mit Festplattenverschlüsselung aus? Derzeit habe ich 16 vollständig verschlüsselte Festplatten im Einsatz. Davon 5 im NAS, 2 intern, und 9 extern. Das entspricht insgesamt 105 Brutto-Terabyte (rein nach Herstellerangaben). Bislang sind keine Ausfälle oder Fehler zu beklagen. Selbst das mehrfache harte „Ausstöpseln“ von USB-Datenträgern durch ein Versagen der Stromversorgung hat Veracrypt gut überstanden, obwohl es jedes Mal eine Warnmeldung ausgegeben hat. Eine Schrecksekunde gab es, als die größte Festplatte sich irgendwann nicht mehr mounten ließ. Traumatisierende Flashbacks an den großen Datenverlust von 2007 geisterten mir sofort im Kopf herum. Nach einem Neustart und einem doch noch erfolgreichen Einhängen der Platte dämmerte es mir, dass ich wohl versehentlich unter Veracrypt die falsche Partition auf dem richtigen Laufwerk mounten wollte. Es handelte sich offenbar um diese komische unzugängliche Recovery-Partition auf WD-Festplatten, die mir zur Auswahl angezeigt wurde.

Keine Probleme also bei mehr als einem Dutzend verschlüsselter Festplatten. Keine schlechte Leistung. Also alles gut? Nunja, ich rechne noch mit dem ersten Ausfall im Lauf der Zeit. Vermutlich früher als mir lieb ist. Und dann hoffe ich, dass es eine der Festplatten trifft, die von mir regelmäßig gespiegelt werden. Eine gute Datenpflege und -strategie ist dabei natürlich unerlässlich, wenn man mit sovielen Datenträgern hantiert. Veracrypt macht es mir leicht, indem es beim Anschließen einer Festplatte sofort ein Password-Prompt einblendet und unaufgefordert das Einhängen übernimmt. Bis jetzt bin ich wirklich beeindruckt wie gut es funktioniert, und es beruhigt mich sehr. Wenn ich bisher alte Festplatten entsorgen wollte, musste ich zuvor daran denken, alles komplett zu formatieren, oder falls nicht mehr möglich, die Festplatte mechanisch zu zerstören. Der Inhalt einer verschlüsselten Festplatte ist dagegen völlig unbrauchbar für andere Personen, sie enthält quasi nur unverständliches Rauschen. Ich könnte also jede meiner Festplatten einer wildfremden Person in die Hand drücken, und meine Daten wären trotzdem sicher. Viel zu wenige Menschen machen sich Gedanken über den Inhalt ihrer weggeworfenen Festplatten, und was man davon noch problemlos rekonstruieren könnte.

Aus meiner Sicht war es mittlerweile wirklich an der Zeit, künftig ausschließlich mit verschlüsselten Daten zu arbeiten. Festplattenverschlüsselung ist heute absolut kein Hexenwerk mehr, die Möglichkeiten besser als je zuvor, der Aufwand hält sich stark in Grenzen. Ja, man muss beim Booten mehr Passwörter eingeben (oder Keyfiles angeben), aber die Vorteile überwiegen die Nachteile bei weitem. Es ist fahrlässig, seine Daten offen herumliegen zu lassen. Davon wird mindestens jeder ein Lied singen können, dessen Laptop einmal gestohlen wurde, oder der bereits Opfer einer Hausdurchsuchung geworden ist. Besser kein Risiko eingehen. Aber kostet das Lesen und Schreiben auf eine verschlüsselte Festplatte denn nicht viel mehr Performance? Nein, überhaupt nicht, denn AES-Verschlüsselung wird hardwareseitig in Echtzeit unterstützt. Es macht keinen Unterschied. Und mit Veracrypt bekommt man eine leistungsfähige, sichere und offene Softwarelösung, die zudem auch nichts kostet.

Ich kann also jetzt endlich guten Gewissens einen weiteren Punkt auf meiner Datenschutz-Checkliste streichen und werde mich hoffentlich im kommenden Jahr schon um den nächsten kümmern.

Seit ich denken kann, habe ich Daten produziert und gesammelt. Ganz am Anfang noch auf Disketten am Atari ST. Ich habe Bilder mit STAD gemalt, Musik mit DIGIT komponiert, Programme in GfA BASIC geschrieben, und alles fleißig auf Disketten gespeichert. Hinzu kamen natürlich alle meine Spiele, meine Programme, mein ganzer PD-Krempel, und hey, sogar meine eigenen Burgen für Ballerburg. Jahre später haben mein Vater und ich in wochenlanger Arbeit hunderte Atari-Disketten auf DAT-Bänder gesichert. Und dann vergessen. Keiner weiß heute wo diese Bänder liegen, und ob sie noch lesbar sind.

Am Amiga ging das im Grunde genauso weiter, nur die Programme hießen anders. Und am PC bekam ich dann endlich ganz neue Möglichkeiten, noch viel größere Datenmengen zu produzieren und zu speichern: Mit unserer Videocapturing-Karte konnte ich kleine Filmchen drehen und als AVIs speichern. Unsere beiden Festplatten waren damals zwar leider viel zu klein um viele Videos zu speichern, doch glücklicherweise konnte ich ab 1998 einen CD-Brenner verwenden, der fortan fleißig genutzt wurde, um „Backup-CDs“ zu brennen, wenn der Festplattenspeicher mal wieder zu knapp wurde. Darauf brannte ich all die kurzen Spaß-Videos mit meinen Schulfreunden, mit unserem alten Handy-Scanner gescannte Fotos, Schnappschüsse von meinen Geschwistern, Shareware-Versionen von meinen liebsten Win3.11-Spielen, Savegames, private Wordpad-Dokumente und welche für die Schule, aus dem Internet einzeln heruntergeladene Tipps-&-Tricks-Seiten für Spiele, Chatprotokolle, und und und. Die Liste ist quasi endlos. Die Backup-CDs stapelten sich schon bald bei mir im Kinderzimmer, gleich neben den Diskettenstapeln.

Die Abstellkammer-Skyline aus CD-Wolkenkratzern

Die Massenspeicher wurden mit der Zeit größer. Schon im Jahr 2000 wurde endlich eine 30 GB-Festplatte angeschafft. „Die bekommt man ja NIE voll!“, hieß es da schon wieder, während gleichzeitig die Wolkenkratzer aus selbstgebrannten Rohlingen wuchsen. Mit unserer neuen ISDN-Flatrate und mächtigen Downloadmanagern wie Gozilla oder GetRight konnte ich komplette Webseiten inklusive ihrer Download-Archive quasi über Nacht herunterladen, was ich dann vielfach auch tat. Einmal landeten so 600 MB allein an 3dfx-Treibern auf meiner Festplatte. Oder gigabyteweise Musik von mp3.com, einer Webseite, die zur Jahrtausendwende gratis MP3-Dateien anbot. Oder 500 MB an Mod-Dateien von The Mod Archive. Aber ich glaube, das waren nur die Buchstaben A und B. Weiter bin ich damals nicht gekommen. Überhaupt habe ich sehr gerne komplette Archive heruntergeladen, wenn ich welche fand. Egal ob Fotos, Videos, Audios, Spielesammlungen, Spaßprogramme, eBooks, GIF-Animationen, Midi-Kollektionen, Custom-Maps für Spiele – ich hab alles gedownloadet, weggspeichert, und letztlich weggebrannt, oftmals, ohne die Dateien jemals wieder anzurühren.

Im Jahr 2005 wandelte sich mein Datenmessie-Verhalten ein wenig. Erstmalig wurde das Brennen der vielen wertvollen Daten auf DVD-Rohlinge immer mühsamer, und gleichzeitig wurden die Festplatten endlich in schneller Folge immer deutlich größer. Schließlich – nach wahrscheinlich an die tausend gebrannten Backup-CDs und -DVDs – stellte ich das Brennen ganz ein, und ging dazu über, einfach immer größere Festplatten zu kaufen und die Daten jeweils immer umzukopieren. Meistens in einen Unterordner, der dann so hieß wie die alte Festplatte, damit ich wusste, wo die Daten herkamen. Das führte dazu, dass die Dateien immer einen Unterordner tiefer wanderten, je mehr Festplatten sie durchliefen. Und es führte dazu, dass ich noch weniger Ordnung halten musste, denn ich konnte alles einfach immer irgendwo in einen Ordner werfen, und musste keinen Gedanken mehr daran verschwenden. Ordner und Unterordner stapelten sich nun bei mir – ganz so wie früher Disketten, CDs und DVDs.

Wir machen einen Zeitsprung ins Jahr 2019: Inzwischen stapeln sich bei mir nicht mehr nur Disketten, CDs, oder DVDs, sondern Festplatten. Es handelt sich um meinen ganzen, nutzlosen Datenschatz, der heute in die zweistelligen Terabytes geht, und der regelmäßig (teilweise) mit Hilfe von Batch-Skripten auf ein 15 TB-NAS gespiegelt wird. Ich bin längst damit fertig, alle meine Backup-CDs und -DVDs aus den Jahren 1998 bis 2006 auszulesen und auf meinen Festplatten zu speichern, so dass ich in meinem unkontrollierbaren Backup-Wahn dazu übergegangen bin, nun auch die unzähligen alten Beilage-CDs von GameStar, PC-Games, PC-Action, PC-Player, PC-Joker usw. zu kopieren. „Wer macht denn so einen Quatsch?“, werden sich viele fragen. Ich habe vergessen, warum ich das mache. Es ist wie ein Reflex. Alles muss in mein Backup-Archiv.

Kürzlich habe ich in einige meiner alten Dateien vom Dezember 1997 reingeschaut, und war erstaunt, was sich dort noch alles findet. Es ist ganz sicher dasselbe Gefühl, das jemand hat, der auf dem Dachboden im Haus der Eltern eine alte, verstaubte Kiste mit Krempel aus der Kindheit findet. Ich habe meine allerersten E-Mails gefunden, und den gesamten E-Mail-Briefverkehr mit einigen meiner ersten Internetbekanntschaften, darunter eine gleichaltrige E-Mail-Brieffreundin aus Berlin. Diverse gespeicherte Mitschriften aus den guten alten Internet-Chatrooms, QBasic-Quellcodes, ein erster gescheiterter Versuch einer eigenen GTA-Homepage. Meine erste Bookmark-Liste, als lange TXT-Datei, wo ich jede Webseite noch einzeln und ausführlich kommentiert und bewertet habe. Hättet ihr z.B. gewusst, dass Fireball die allerbeste Suchmaschine ist? Eine wirklich quietschbunte Mischung aus allen möglichen Dingen, mit denen ich mich damals beschäftigt habe. Es war ein wirklich atemberaubender Flashback, und das Gefühl wird noch dadurch verstärkt, dass ich selbst vergessen hatte, dass ich das ganze Zeug noch habe. Das ist irgendwie der Vorteil dabei, wenn man nichts wegwerfen kann. Alles taucht irgendwann wieder auf.

Der Nachteil ist, dass es quasi aussichtlos ist, diese unvorstellbaren Datenmengen irgendwie sinnvoll zu sortieren. Das hätte vermutlich den Umfang eines separaten Lebenswerks. Beim Sichten der alten Dateien ist mir aufgefallen, dass die Unordnung überwältigend ist, vieles ist doppelt und dreifach vorhanden, tausende nichtssagende Ordnernamen, alles mögliche in ZIP- oder RAR-Archiven, oder auch nicht. Stöbern geht gerade noch so, aber nach etwas Bestimmtem suchen? Keine Chance. Mir fällt nicht einmal im Ansatz ein System ein, mit dem man diesen ganzen Kram sortieren könnte. Wie als wollte man auf einer Müllhalde den ganzen Müll kategorisch ordnen, um eine bestimmte Cornflakes-Schachtel im Zweifel schneller finden zu können. Alles radikal nach Dateinamen, Dateidatum oder Dateityp sortieren? Besser nicht, schließlich sind ja auch etablierte Dateigruppierungen darunter, die ich beibehalten will.

Ich habe mit dem Sortieren inzwischen trotzdem mal ganz rudimentär angefangen, ein paar Ordner zusammengefügt, ein paar offensichtliche Duplikate gelöscht, aber sehr weit bin ich wie erwartet nicht gekommen. Das Datenchaos ist eigentlich kaum mehr zu entwirren. Ob ich ohne den ganzen Datenschrott überleben könnte? Sicher, aber es wäre dennoch ein schmerzhafter Verlust, wenn alles weg wäre. Wer verliert etwa gerne alle seine alten Briefe, seine Tagebücher, seine alten Schulsachen, seine Dias und Super-8-Filme, seine alten Spielsachen? Klar, solche Leute wird es geben, aber ich gehöre absolut nicht dazu. Diese ganzen Altlasten sind schließlich ein wichtiger Teil von mir, alles was ich je produziert habe. Und ich habe keine genaue Vorstellung davon, was in dem ganzen Datenschatz noch so alles verborgen liegt. Womöglich befindet sich sogar das Bernsteinzimmer irgendwo darunter.

Noch vor wenigen Jahren habe ich jedem gegenüber meine tiefste Verachtung zum Ausdruck gebracht, der mich zum Thema Festplattengrößen fragte, „wer denn soviel Platz bräuchte“. Jeder, der durch solche und ähnliche Pauschaläußerungen seine gnadenlose Beschränktheit offenbarte, ist mir meine teure Zeit und Hirnkapazität eigentlich nicht wert, erst recht keine selbsternannten IT-„Experten“, die sich dann dummerweise durch solche Sprüche entlarven. Inzwischen würde ich die Thematik vielleicht sogar schon etwas lockerer sehen, denn man ist heute in der wahnsinnig komfortablen Situation, dass man nicht nur exorbitant große Festplatten für wirklich wenig Geld bekommt, sondern auch, dass die bislang – gemessen am Preis pro Gigabyte – unbezahlbaren SSD-Festplatten längst in angenehmere Preisregionen gefallen sind.

Im Grunde genommen bin ich nun zum ersten Mal seit Beginn meiner Nutzung diverser Computer in den späten 80er Jahren nicht mehr ständig auf der Suche nach mehr Speicherplatz. Tatsächlich fällt es jetzt sogar mir als Datenhamster und -messie wirklich schwer, den verfügbaren Speicherplatz zu füllen. Wo ich früher im Prinzip täglich jede Menge Datenkrempel auf große Stapel voller CD-Rohlinge auslagern musste, da die Festplatten immer bis zum Anschlag voll waren, habe ich heute soviel Platz, dass ich mir überhaupt keine Sorgen machen muss. Ich habe sogar derart viel Platz, dass ich mir terabyteweise Redundanz leisten kann – vor 15 Jahren mit dem knappen Taschengeld eines Teenagers undenkbar, und auch vor zehn Jahren mit BAföG kaum machbar. Schlimmer noch, musste ich schon damals im Jahresabstand neue Festplatten hinzukaufen, um nicht Gefahr zu laufen, kostbare Daten löschen zu müssen: 1997 noch mit mickrigen 2,1 Gigabyte, 2005 dann mit gefühlten endlosen 500 GB. Beide waren in ungefähr der gleichen Zeit gefüllt. Das Speicherplatz-Wettrüsten war erstmals mit dem Kauf einer 6 TB-Festplatte Ende 2014 beendet, seitdem kann ich mich entspannt zurücklehnen.

Jahrelang tat sich nichts im Bereich Festplattenkapazitäten. Längst hatte ich Angst, dass bei den 4 TB-Modellen eine unüberwindbare physikalische Grenze erreicht war, quasi das Ende der Fahnenstange. Gleichzeitig änderte sich aber eine ganze Menge bei den immer populärer werdenden SSDs, und daher wollten diesen Umstand die Techniklaien dieser Welt als das (warum auch immer) herbeigesehnte Ende der herkömmlichen Festplatten verstehen. Schaut man sich heute mal bei den üblichen Hardware-Versandhändlern um, so findet man endlich 8 TB-Festplatten für nur noch 250 Euro. Die Technik für 10 TB und sogar 20 TB liegt bereits in den Schubladen der Festplattenhersteller. Solche Festplatten werden bewusst teilweise mit dem Namenszusatz „ARCHIVE“ versehen, da solche Massenspeicher sich in Sachen Zugriffszeiten, sowie Datenübertragungsraten mit den SSDs sowieso nicht messen können. Aber sie haben den gigantischen Vorteil ihrer Kapazität, und den kann noch keine SSD ersetzen. Vielleicht noch eine ganze Weile nicht. Die größten Consumer-SSDs mit 2 TB sind zwar schon im Handel erhältlich, jedoch für knapp 1000 Euro in keinster Weise vergleichbar, meiner Ansicht nach auch dann nicht, wenn man versucht, mit der höheren Geschwindigkeit zu argumentieren.

Aber eines beweist mir die aktuelle Situation dann doch: Noch vor wenigen Monaten las ich in einem Technikforum die Behauptung, dass es technisch nicht möglich sein dürfte, in den kommenden Jahren SSDs mit Kapazitäten jenseits der Terabytegrenze zu bauen, da hierfür extreme Strukturverkleinerungen nötig wären. Inzwischen zweifle ich doch sehr stark an dieser Aussage. Es würde mich schon nicht mehr wundern, wenn die Consumer-SSDs in einigen Jahren mit den magnetischen Festplatten gleichziehen würden. Aber bis es soweit ist, werde ich die verblödeten SSD-Nazis auch weiterhin in die Schranken weisen. Storage ist vielen Menschen bei Festplatten eben deutlich wichtiger als reine Geschwindigkeit.

Vor etwas mehr als einem Jahr, als ich mir mein NAS mit 15 TB Bruttospeicherplatz leistete und als Backuplösung für die Ewigkeit an meinen Arbeitsplatz stellte, musste ich mich im Freundes- und Bekanntenkreis mit dem berüchtigten „Wer braucht denn soviel Platz?“-Troll rumärgern, dem ich damals am liebsten bei jeder Begegnung eine verpassen wollte, aber mittlerweile ignoriere ich das nach Möglichkeit einfach. Ihr wisst schon, dieses widerliche Exemplar von Troll, das bei jeder Diskussion über Festplattenkapazitäten jenseits der 500 GB aus seinem Versteck kriecht und auf seine trollhaft charmante Art deren Existenzberechtigung in Frage stellt, nur weil er oder sie damit nichts anzufangen weiß, und sich daher nicht vorstellen kann, dass überhaupt irgendjemand etwas damit anfangen könnte. Ich versuche erst gar nicht zu erklären, wie das dann aussieht, wenn man mal 15 TB Speicher in die Diskussion einbringt. In solchen Sphären werden sogar Informatiker manchmal zu solchen Trolls, obwohl sie es besser wissen sollten. Ein Studium erzeugt Fachbildung, aber eben nicht zwangsläufig Intelligenz.

Seit Monaten spiegele ich also fleißig meine Festplatten in mehr oder weniger regelmäßigen Abständen auf mein NAS und bin äußerst zufrieden damit. Bis jetzt ist der Ernstfall zwar noch nicht eingetreten, dass ich auf ein Backup zurückgreifen musste, aber Vorsicht ist besser als Nachsicht. In der Zwischenzeit gingen die missgünstigen Unkenrufe der Neider und Ignoranten etwas zurück, doch inzwischen habe ich es mit einer neuen, deutlich aggressiveren Troll-Mutation zu tun bekommen, die sich erneut durch unqualifizierte Kommentare in Bezug auf Festplatten verrät. Meine bisher recht zahlreichen Begegnungen mit dieser unbelehrbaren Spezies, die offenbar Technikscheuklappen trägt, verliefen immer sehr unerfreulich für mich, daher werde ich mir wohl eine neue Dimension der Gelassenheit gegenüber Dummgeschwätz aneignen müssen.

Hier nun also einige Variationen der Äußerungen dieser Kreaturen, mit denen sie versuchen ihr getrolltes Opfer durch eine Kombination von Unwissen und gefährlichem Halbwissen zur Weißglut zu bringen. Im Gegensatz zur inzwischen womöglich fast ausgestorbenen Form der Festplattentrolle beziehen diese sich immer auf die neue Technologie der wesentlich schnelleren SSD-Festplatten, denn nun sprechen sie den herkömmlichen magnetisch-mechanischen Festplatten ihre komplette Daseinsberechtigung ab. Schlimmer noch, sie verachten jeden, der es wagt, sich heute noch gewöhnliche Festplattentechnik ins Haus zu holen. Das klingt dann vom Sinn etwa folgendermaßen:

„Warum wird mit allen Mitteln versucht diese alte Technologie am Leben zu erhalten?“

„Was sind das für Fortschrittsbremser, die sich noch normale Festplatten kaufen, wo es doch schon lange SSD gibt?“

„Warum wird diese völlig veraltete Technik noch gebaut? Wieso forscht daran überhaupt noch jemand, das bringt doch nichts!“

Man sollte Preise für die dämlichsten Sprüche vergeben, die man so im Netz findet. Womöglich stünden die Chancen nicht schlecht, dass einer dieser hirnverbrannten SSD-Trolle einen gewinnt. Nun, warum sollte man heutzutage noch gewöhnliche Festplatten kaufen? Zugegeben, die SSDs sind sehr viel schneller, in der Zugriffszeit unschlagbar, mangels mechanischer Bauteile (drehende Scheiben, bewegliche Schreib- und Leseköpfe) unempfindlich gegenüber Erschütterungen, und sie sind wirklich sehr leicht. Aber sie haben zwei gigantische Nachteile, die in meinem Fall den Geschwindigkeitsvorteil nicht aufwiegen können: Sie sind (immer noch) extrem teuer (bezogen auf den Preis pro GB), und ihre Festplattenkapazitäten sind eher ein schlechter Scherz.

Die teuersten SSDs können ein Terabyte an Daten aufnehmen, wohingegen ihre mechanischen Konterparts es schon lange auf die vierfache Menge bringen. Das Wachstum bei der Kapazität ist zwar inzwischen stagniert, aber solange SSDs nicht mindestens ebenso gut als Datengrab taugen und ähnlich günstig zu haben sind … nein Sir, solange sind SSDs noch kein vollwertiger Ersatz für normale Festplatten. Wenn ich sehr viel Wert auf Geschwindigkeit lege, dann kann ich mich mit dem höheren Preis und der deutlich niedrigeren Kapazität womöglich abfinden. Aber da ich Festplatten in erster Linie zwecks Storage kaufe, also um dort große Datenmengen abzulegen, kann ich niemandem guten Gewissens zustimmen, der meint, es gäbe keinen Grund mehr, sich noch normale Festplatten zu kaufen. Wer sowas behauptet, sollte vielleicht doch mal einen Blick über den Tellerrand werfen.

Toll sind auch die Versuche, meine Argumentation zu entkräften, indem mir vorgehalten wird, ich hätte wohl einfach selbst noch keine SSD erlebt, sonst würde ich nicht so an der veralteten „Schrott-Technik“ festhalten. Richtig ist, dass ich tatsächlich noch keine SSD verwende. Allerdings bin ich sehr wohl in der Lage, mir vorzustellen wie schnell der Rechner damit wird. Es ist sicherlich sehr praktisch, wenn der Rechner immer sofort reagiert und jede Anwendung innerhalb von Sekundenbruchteilen geladen und einsatzbereit ist. Und das Betriebssystem erst – „8 Sekunden!“, heißt es immer. Super! Ich freue mich darauf! Sobald es 4 TB SSDs für 300 Euro gibt, gerne. Vorher vermutlich nicht. Was ich mir allerdings sehr wohl überlegen könnte, wäre ein Mischkonfiguration mit SSD fürs Betriebssystem und normalen HDDs für mein persönliches Datenarchiv.

Die SSD-Trolle glauben wohl, dass Firmen in ihren Rechenzentren/SANs auch nur noch SSDs verbauen, weil es ja die neueste und damit deutlich bessere Technologie ist. Falsch! Fakt ist, niemand verwendet SSDs im Serverbereich, um darauf große Datenmengen abzulegen. Das wäre wirtschaftlicher Unfug. SSDs werden höchstens dort verwendet, wo Geschwindigkeit eine sehr große Rolle spielt. Aber selbst da unterschätzen die SSD-Trolle wie schnell so ein HDD-RAID werden kann, wenn man ihn auf Geschwindigkeit auslegt.

Es gibt doch inzwischen Elektroautos. Welche Fortschrittsbremser sind das eigentlich, die sich noch gewöhnliche Luftverpester-Benziner und Dreckschleuder-Diesel kaufen? Oh wait, ich habe ja selbst ein Auto mit Ottomotor. Total veraltete Technik, wer würde sowas brauchen? Strom kommt aus der Steckdose! Ich denke, ich habe meinen Standpunkt klargemacht. Lasst mich in Ruhe und kauft euch eure SSDs. Ich kann damit warten, bis ich echten Bedarf daran habe.

Ich bin reich! Also zumindest an Speicherplatz. Seit gestern Abend kann ich 15 Terabyte an Daten speichern. Zusätzlich selbstverständlich zu den 8,5 TB die mir an internen und externen magnetischen Speichermedien bisher schon zur Verfügung standen. „Wer braucht denn soviel Platz?“ werden die üblichen VollidiotenVerdächtigen wieder fragen und ich werde antworten: „Ihr wohl nicht, aber ICH!„.

Das neueste Stück Hardware, das bei mir nun rumsteht ist ein Netzwerkspeicher (NAS) von QNAP inklusive fünf 3,5″-Festplatten mit jeweils 3 TB. Darauf werden künftig zwei Desktoprechner, zwei Notebooks, ein Tablet und ein Smartphone jederzeit Zugriff haben. Die Kiste läuft mit einem Linux-Kernel und wird betrieben von einem beeindruckenden 1,8 GHz Zweikern-Intel Atom-Prozessor mit 1 GB RAM. Ist alles USB 3.0-, SATA3-, und doppelt Gigabit-LAN-fähig und kann die Datenträger verschlüsseln. Das Ding hat soviele Features und integrierte Dienste, dass ich wahrscheinlich morgen noch am Tippen wäre, würde ich versuchen sie alle aufzuzählen.

Na gut, es sind natürlich nicht 15 „TB“, sondern – nach Umrechnung – 13,7 TB, im RAID5 abzüglich Parität und sonstigem Overhead landen wir dann bei „nur“ noch 10,8 TB freiem nutzbarem Speicher. Immer noch eine ganze Menge. Das krieg ich ja NIEMALS voll. Wahrscheinlich aber doch. Soviel zu unendlich Speicherplatz.

Inzwischen habe ich Benutzer bzw. Freigabeverzeichnisse erstellt und diese schonmal probeweise unter Windows als Netzwerklaufwerke eingebunden und so die Rechtevergabe getestet. Scheint alles zu klappen, auch wenn ich dem Gerät meine Daten noch nicht so ganz anvertrauen will. Nachdem das NAS sich von seiner eigenen Software im Netzwerk nicht finden ließ, das Updaten der Firmware zuerst nicht klappen wollte, die Firmware zudem einen entsetzlich dämlichen Bug beim Anlegen der Benutzer hat (Artikel folgt wohl), mit der Datenträgersynchronisierung nach elf Stunden noch nicht ganz fertig war, und jetzt nach einem Reboot damit schlauerweise wieder von vorne anfängt, wobei die Synchronisierung stolze 50% der CPU frisst, bin ich zwiegespalten und etwas misstrauisch was das Ding angeht. Außerdem weiß ich nicht ob drei Minuten zum Hochfahren normal sind. Das packt meine Windows-Installation ja schneller und die müsste doch deutlich schwergewichtiger sein als so ein hochspezialisiertes Embedded-System. Vielleicht hätte ich mein Geld am Ende doch lieber dem Konkurrenzanbieter Synology geben sollen. Nunja, die Hauptsache ist, dass es läuft.

Und wofür brauch ich das Ding nun? Ganz einfach: für Redundanz, für einen zentralen dedizierten Speicherort, und für maximale Zukunftssicherheit. Auf das NAS kommen Daten, die für mich unverzichtbar sind und nicht durch einen Festplattenausfall verloren gehen dürfen. Außerdem komme ich so erst einmal nicht in die doofe Situation, dass mir der Speicherplatz ausgeht. Meine Daten kann ich nun immer und überall aus dem Internet abrufen, auch wenn ich meinen Desktoprechner mal ausgeschaltet habe.