Archiv der Kategorie: Technik

Eines meiner heiligsten Prinzipien bei der Entwicklung meines Remakes von Spacola ist Authentizität. In dieser Hinsicht bin ich leider ein Perfektionist. Zumindest so weit es mir technisch möglich ist, versuche ich mich immer zu 100% an den Originaldateien und an Originalmechanismen zu orientieren, und ich weiche nur davon ab, wenn es absolut nötig, wirklich sinnvoll, oder mit meinem Know-How sonst nicht machbar ist. Zu Beginn der Entwicklung konnte ich lediglich rein aus der Beobachtung nachimplementieren, ich musste notgedrungen tausende selbsterstellte Screenshots verarbeiten und Tonaufnahmen aus dem Emulator aufnehmen. Das Ergebnis war natürlich oft nah am Original dran, aber für mich nie authentisch genug. Glücklicherweise habe ich mittlerweile so einige Fortschritte gemacht, die mir meine Mission deutlich erleichtern. In den vergangenen Wochen habe ich einen äußerst wichtigen Meilenstein bei der Analyse des Originalspiels erreicht. Um verstehen zu können, was mir da konkret gelungen ist, muss ich etwas weiter ausholen. Daher hier ein kleiner technischer Exkurs in meine Welt.

Schon wie zuvor im 1990 veröffentlichten OXYD hat Spacola einen eigenen Kopierschutz in Form eines Dongles (das Codebuch). Im Gegensatz dazu sind die Codes allerdings mittlerweile ein integraler Bestandteil des Gameplays geworden, und nicht mehr nur Steine, die den Weg blockieren. Den Kopierschutz schlicht auszubauen hätte im einfachsten Fall bedeutet, direkt das Gameplay von Spacola zu verändern, die Siegbedingungen im Spiel zu entfernen; das Spiel wäre quasi sinnlos geworden. (Spoiler-Warnung: Dennoch ist einem findigen Entwickler vor wenigen Jahren auch das schon auf intelligente Weise gelungen.) Weiterhin bringt das Spiel jedoch noch einen raffinierten Crackschutz mit, um zu verhindern, dass der Kopierschutz überhaupt angegriffen werden kann. Die Daten der Dongleware-Spiele bis einschließlich OXYD lagen noch offen da, wenn auch in proprietären Dateiformaten (SHL, IMG, CMP, PAC), mit denen man so jedenfalls nichts anfangen konnte, bis auf die Sounddateien, die einfach im Rohformat vorhanden waren. Da OXYD schließlich geknackt werden konnte (und auch das Codebuch trotz absichtlich schlechtem Farbkontrast kopiert wurde), wurden die Daten in Spacola inzwischen gegen unbefugte Zugriffe geschützt. Dies macht es natürlich für interessierte Remake-Entwickler wie mich deutlich schwieriger, die eigentlich nicht den Kopierschutz entfernen wollen, sondern Einblick in die Spieldaten brauchen.

Wie sieht dieser Crackschutz nun eigentlich aus? Bei Spacola lagen weder die Spieldaten noch die ausführbare Datei in lesbarer Form auf der Diskette vor. Auf dieser gab es lediglich ein großes mit PFXPak erstelltes, selbstextrahierendes Programm, das das Spiel zur Laufzeit ausschließlich in den Arbeitsspeicher entpackt und dort ausführt. Laut PFXPak-Dokumentation bringt das nicht nur den Vorteil, dass man mehr nutzbaren Netto-Speicherplatz auf der Diskette hat, sondern auch Performance-Verbesserungen, da weniger Daten über das langsame Diskettenlaufwerk geladen werden müssen. Außerdem werden zum einen die einzelnen Dateien immer erst dann entpackt, sobald sie vom Programm referenziert, also im Spiel benötigt werden, zum anderen werden die Dateien auch gleich noch dekodiert, da sie teilweise nur in verschlüsselter Form vorliegen. Und selbst das ist noch nicht alles: Sogar wer glaubt, es sei ihm gelungen, das integrierte LHarc-Archiv des Entpackers aus der Datei zu extrahieren, und dieses von Hand entpacken will, erhält leider kein Spacola, sondern nur ein Programm, das eine kleine Grußbotschaft an den Hacker auf dem Bildschirm anzeigt und gleichzeitig die Festplatte vollmüllt, sofern eine angeschlossen ist. Ja, man musste sich als Spieleentwickler wohl irgendwie gegen Raubkopierer zur Wehr setzen. Der wenig freundliche Inhalt besagter Grußbotschaft wurde mit dem ersten und wahrscheinlich einzigen Spacola-Patch einige Wochen später zensiert.

Wer sich mit Atari ST-Emulation intensiver befasst, weiß, dass es mit dem STeem Debugger ein äußerst mächtiges Debugging-Werkzeug gibt, das genutzt werden kann, um sämtliche ST-Software zu analysieren und zu modifizieren. Fürs Reverse-Engineering ist ein brauchbarer Debugger quasi unverzichtbar. Als ich vor etlichen Jahren zum ersten Mal die Oberfläche des Debuggers öffnete, war ich wie erschlagen von den endlosen Möglichkeiten, die sich mir hier boten. Und mir war sofort klar, dass ich nicht die nötigen Fähigkeiten hatte, um hier irgendetwas zu bewegen, denn natürlich setzt so ein Debugger unter anderem auch ein tieferes Verständnis der Hardware voraus. In meinem Studium hatte ich wenigstens zwei Semester Rechnertechnik, in welchen ich die Grundlagen von 68K-Assembly lernte und auch sehr kleine Programme schrieb. Dies brachte mich zumindest theoretisch in die Lage, die Funktionen des Debuggers rudimentär zu verstehen. Doch als ich mich damals spaßeshalber in ein laufendes Programm einklinkte, Schritt für Schritt durch den Programmcode bewegte, und die Hieroglyphen verstehen wollte, die der Prozessor da ausführte, hörte der Spaß irgendwie auf. Mein Verstand konnte zwar mühsam und sehr langsam erfassen, was dort in jeder Zeile ausgeführt wurde, aber mir fehlte jeglicher Durchblick dafür, warum es ausgeführt wurde, an welcher Aufgabe der Programmcode gerade arbeitete. Es gab keinen Kontext. Es ist ein bisschen so als würde ich mir unter einem Mikroskop nacheinander die einzelnen Holzfasern genauer anschauen, um dadurch herausfinden zu wollen, worum es in dem Buch geht. Dabei könnte ich nicht einmal erkennen, welchen Buchstaben ich mir da gerade ansehe.

Der STeem Debugger mit laufendem Spacola beim Ladevorgang

Aber die ersten kleinen Fortschritte ermutigten mich, den Kopf nicht hängen zu lassen. Der Memory-Browser des Debuggers bietet zum Beispiel eine Suchfunktion und erlaubt das Editieren des Speichers zur Laufzeit. So kann man Texte in den Programmen finden und ersetzen, was nette Spielereien ermöglicht. Eine andere nützliche Funktion ist der Speicherdump, der es erlaubt, den kompletten Arbeitsspeicher in eine Datei zu schreiben. Mit diesem wertvollen Hilfsmittel hatte ich endlich einen ersten direkten Zugang zu vielen Spielinhalten, wenn es auch noch lange nicht lückenlos war. Im Audiobearbeitungsprogramm Audacity konnte ich dieses Speicherabbild als Rohdaten einlesen und die Sounds von Spacola hörbar machen und grob „ausschneiden“, was mir wirklich enorm half. Eines meiner Probleme mit dieser Methode war jedoch, dass ich nie wusste, wo eine Datei beginnt oder aufhört. Die Dateien waren nicht byteperfekt. Und jahrelang waren die Audiodateien leider die einzigen, auf die ich dadurch Zugriff erlangen konnte. Ich wollte aber unbedingt auch an die Grafikdateien herankommen. Später gelang es mir mit großem Aufwand, das „Rentenbescheid“-Bild, das nach gewonnenem Spiel als Urkunde zum Ausdrucken verwendet wird, zu extrahieren. Die Monochrom-Rohdaten habe ich unter anderem durch einen emulierten Drucker als virtuelle Hardcopy in eine Datei schreiben lassen, mühsam rekonstruiert und mit STAD v1.3 laden können. Dadurch konnte ich einen Screenshot anfertigen. Dies war ein weiterer Motivationsschub, der mich daran glauben ließ, irgendwann alles zu schaffen.

Ende 2018 begann ich erneut damit, das Originalspiel aufwändig Schritt für Schritt im Debugger zu beobachten. Ich hatte erst angefangen, mich mit den Breakpoints und den Read- und Write-Monitors vertraut zu machen, und war überzeugt davon, ich könnte die entpackten Dateien abfangen, während sie gerade in den Arbeitsspeicher geschrieben werden. Im selbstextrahierenden Programm gibt es glücklicherweise eine Dateitabelle, die Dateinamen, Dateigrößen und Byte-Offsets enthält. Dies war letztlich der Schlüssel zum Erfolg. Jemand mit mehr Erfahrung im Reverse-Engineering hätte natürlich sofort gewusst, was hier zu tun ist. Ich musste es erst durch unzählige Fehlversuche und Rückschläge lernen. Am Ende dauerte es bis zum Frühjahr 2020, dann hatte ich endlich einen Plan. Durch das geschickte Setzen der Read- und Write-Monitors und Zurückverfolgen der Lese- und Schreibzugriffe, konnte ich genau den Teil des Codes ausmachen, der direkt für das Entpacken aller Dateien zuständig ist. Anschließend musste ich nur noch den Program Counter, die Schleifendurchläufe und die Adress- und Datenregister überwachen, dadurch konnte ich sehen, welche Datei gerade verarbeitet wurde, wo die Daten gelesen und wohin sie geschrieben wurden, und wann der Schreibvorgang exakt beendet ist. Ich führte Notizen darüber, welche Dateien ich dadurch erhalten konnte und ob sie die richtige Größe haben, um ihre Richtigkeit zu verifizieren.

Das Debugging beim Entpacken der Dateien

Das Modifizieren der Dateitabelle im Programm erlaubte es mir sogar, den Entpacker dazu zu bringen, die „falschen“ Dateien zu entpacken, darunter auch eine Sounddatei, die offenbar gar nicht referenziert, also im Spiel selbst niemals verwendet wird. Dies war immens hilfreich und verkürzte die weitere Zeit, um auch die letzten verbliebenen Dateien zu bekommen. Später bemerkte ich noch, dass Spacola leider wieder mal schlauer war als ich: Viele Sounddateien wurden im Spiel komprimiert, d.h. in der Größe reduziert, andere Sounddateien wurden aber nur in irgendeiner Weise kodiert, also bei gleicher Dateigröße unlesbar gemacht. Hierzu musste ich einen weiteren Codeabschnitt ausfindig machen, der Sounddateien entschlüsselt. Die zentralen Breakpoints waren mir in der Folge heilig, ich habe sie akribisch notiert und verwendet, um nacheinander alle 104 Dateien mühsam zu entpacken, aus dem Memory-Browser zu extrahieren und mittels HEX-Editor byte-perfekt auf die Festplatte zu schreiben. Das Ergebnis sind 557 KByte an Rohdateien, die exakt so im Originalspiel verwendet werden: 50 Sounddateien, 48 Sprite-Dateien, vier Bilddateien, eine Textdatei und eine IMG-Datei. Als Bonus erhielt ich auch die ungeschützte SPACOLA.PRG, also die ausführbare Datei ohne den Packer. Diese lässt sich auch starten und lädt sogar das Titelbild, anschließend hängt sie sich leider auf. Allerdings habe ich mich entschlossen, dieses Problem nicht weiter zu verfolgen, da es sich wahrscheinlich nicht lohnt.

Für mich war das bis hierhin schon ein großartiger Durchbruch. Dies war ein Thema, das mir noch Jahre zuvor wie eine unlösbare Aufgabe erschien, und plötzlich liegen mir alle Daten offen, um sie endlich in unberührter Form in meinem Remake zu verwenden. Aber da war natürlich weiterhin diese eine nicht ganz unbedeutende Hürde: Das selbstentwickelte Dateiformat der Sprite-Dateien ist leider unbekannt, undokumentiert und es gibt kein öffentlich verfügbares Programm, das die Dateien lesen könnte. Scheint so, als sei ich in einer Sackgasse gelandet.

Und in der nächsten Folge lesen Sie: Die Sprites von Spacola.

Ein kleiner Schritt für einen Nerd, ein weiterer Meilenstein auf meinem Pfad in die eigene Datensouveränität: Alle meine Festplatten sind heute vollständig verschlüsselt. Ja, irgendwann habe ich es einfach gewagt, Veracrypt installiert und damit begonnen, einen Datenträger nach dem anderen zu verschlüsseln. Zunächst vorsichtshalber nur bei Festplatten, die komplett redundant gesichert sind, um es anzutesten. Nach den ersten Monaten ohne Schwierigkeiten dann schließlich durchgängig bei allen anderen Festplatten. Ich habe bei dem Thema zuvor lange mit mir gerungen, und den Grund dafür werde ich in den folgenden Absätzen gerne kurz anreißen, denn es sind Dinge, die man hierzu unbedingt wissen sollte.

Schon damals im Studium im Jahr 2007 habe ich mit dem Veracrypt-„Vorgänger“ Truecrypt ein wenig experimentiert. So erstellte ich mehrere verschlüsselte Datencontainer auf meiner Festplatte, mit einem sicheren Passwort versehen, und kopierte einige Dateien hinein. Die Container konnten schon damals relativ einfach immer bei Bedarf wie ein eigenes Laufwerk unter Windows gemountet werden, was mir grundsätzlich sehr gefiel. Erstellt habe ich sie in Größen von 1 bis 2 GB und mit allerlei Dateien gefüttert, hauptsächlich Spiele und anderen Kram, den ich ohnehin auslagern wollte. Nichts Wichtiges zum Glück. Das hat eine Weile nämlich ganz gut funktioniert. Bis der größte der Container ganz plötzlich von heute auf morgen das Passwort nicht mehr akzeptiert hat. Eine Internetsuche zu dem Problem brachte mich auf die Idee, das Headerbackup, das man zuvor angelegt hatte, wieder auf den Container einzuspielen. Das Einspielen gelang, aber das Passwort nahm Truecrypt im Anschluss trotzdem nicht an. Eine längere Internetsuche brachte keine weitere rettende Idee. Die Dateien waren natürlich alle noch da, aber ich kam nicht mehr dran, und so verabschiedete ich mich bald davon. Das Experiment war gescheitert. Heute, 12 lange Jahre später, kann ich auch nicht mehr mit hundertprozentiger Gewissheit sagen, ob ich mich vielleicht mit dem Passwort vertan hatte, oder ob der Container doch irgendwie beschädigt wurde. Aus Erfahrung weiß ich beispielsweise, dass Scandisk/Checkdisk von Windows bei mir auch gerne mal große Dateien kaputtrepariert hat. Wäre also nicht so abwegig gewesen.

Ich lernte damals, von Truecrypt doch besser Abstand zu nehmen, denn man kann sich leicht daran die Finger verbrennen. Auch heute, wenn man in Internetforen nach Problemen mit Truecrypt/Veracrypt sucht, wird man überhäuft von Meldungen über plötzlichen Datenverlust durch Fehlfunktionen und verschlüsselte Container, die sich nicht mehr öffnen lassen bzw. das Passwort einfach nicht mehr akzeptieren. Viele verzweifelte oder verärgerte Hilferufe von Nutzern, die kein Backup haben und jemanden suchen, der ihre Daten retten kann – zur Not sogar gegen viel Geld. Offenbar ist dieses Thema selbst heute noch mit großer Vorsicht zu genießen, denn wird der Container durch einen Schreibfehler beschädigt, kann es im ungünstigsten Fall passieren, dass die Gesamtheit der Dateien sich in Sekundenschnelle in unlesbaren Datenmüll verwandelt. Bei einer unverschlüsselten Festplatte hätte man hier zumindest noch die Chance, alle unbeschädigten Daten zu extrahieren. Eine Festplattenverschlüsselung bietet ein ausgezeichnetes Maß an Schutz der Daten vor fremdem Zugriff, aber macht die Datenrettung bei einem Festplattendefekt leider gleichzeitig extrem schwer, wenn nicht sogar unmöglich. Ein großer Vorteil also, der im Katastrophenfall zu einem großen Nachteil werden kann.

Festplattenverschlüsselung taugt also gar nicht für den Alltag? Viel zu unsicher? Ganz im Gegenteil! Jeder, der mit dem Gedanken spielt, seine Dateien zu verschlüsseln, sollte sich natürlich darüber im Klaren sein, dass es unverzichtbare und verzichtbare Daten gibt. Unverzichtbares wird bei mir redundant an zwei Orten gleichzeitig gelagert und verschlüsselt. Fällt ein Datenmedium aus, habe ich immer ein Backup. Wer es sich leisten kann, setzt sogar auf mehrfache Redundanz, im Idealfall räumlich getrennt. Verzichtbares kann ich logischerweise auch ohne Backup verschlüsseln. Fällt dieses Datenmedium aus, ist der Tag womöglich ruiniert, aber ich breche nicht gleich in Tränen aus. Pech gehabt, das Leben geht weiter. So handhabe ich das im Moment. Alles wird verschlüsselt, aber nur das Wichtigste wird als Backup vorgehalten. Ein bisschen Risiko ist immer im Spiel.

Wie sieht meine bisherige Erfahrung nach mehreren Monaten mit Festplattenverschlüsselung aus? Derzeit habe ich 16 vollständig verschlüsselte Festplatten im Einsatz. Davon 5 im NAS, 2 intern, und 9 extern. Das entspricht insgesamt 105 Brutto-Terabyte (rein nach Herstellerangaben). Bislang sind keine Ausfälle oder Fehler zu beklagen. Selbst das mehrfache harte „Ausstöpseln“ von USB-Datenträgern durch ein Versagen der Stromversorgung hat Veracrypt gut überstanden, obwohl es jedes Mal eine Warnmeldung ausgegeben hat. Eine Schrecksekunde gab es, als die größte Festplatte sich irgendwann nicht mehr mounten ließ. Traumatisierende Flashbacks an den großen Datenverlust von 2007 geisterten mir sofort im Kopf herum. Nach einem Neustart und einem doch noch erfolgreichen Einhängen der Platte dämmerte es mir, dass ich wohl versehentlich unter Veracrypt die falsche Partition auf dem richtigen Laufwerk mounten wollte. Es handelte sich offenbar um diese komische unzugängliche Recovery-Partition auf WD-Festplatten, die mir zur Auswahl angezeigt wurde.

Keine Probleme also bei mehr als einem Dutzend verschlüsselter Festplatten. Keine schlechte Leistung. Also alles gut? Nunja, ich rechne noch mit dem ersten Ausfall im Lauf der Zeit. Vermutlich früher als mir lieb ist. Und dann hoffe ich, dass es eine der Festplatten trifft, die von mir regelmäßig gespiegelt werden. Eine gute Datenpflege und -strategie ist dabei natürlich unerlässlich, wenn man mit sovielen Datenträgern hantiert. Veracrypt macht es mir leicht, indem es beim Anschließen einer Festplatte sofort ein Password-Prompt einblendet und unaufgefordert das Einhängen übernimmt. Bis jetzt bin ich wirklich beeindruckt wie gut es funktioniert, und es beruhigt mich sehr. Wenn ich bisher alte Festplatten entsorgen wollte, musste ich zuvor daran denken, alles komplett zu formatieren, oder falls nicht mehr möglich, die Festplatte mechanisch zu zerstören. Der Inhalt einer verschlüsselten Festplatte ist dagegen völlig unbrauchbar für andere Personen, sie enthält quasi nur unverständliches Rauschen. Ich könnte also jede meiner Festplatten einer wildfremden Person in die Hand drücken, und meine Daten wären trotzdem sicher. Viel zu wenige Menschen machen sich Gedanken über den Inhalt ihrer weggeworfenen Festplatten, und was man davon noch problemlos rekonstruieren könnte.

Aus meiner Sicht war es mittlerweile wirklich an der Zeit, künftig ausschließlich mit verschlüsselten Daten zu arbeiten. Festplattenverschlüsselung ist heute absolut kein Hexenwerk mehr, die Möglichkeiten besser als je zuvor, der Aufwand hält sich stark in Grenzen. Ja, man muss beim Booten mehr Passwörter eingeben (oder Keyfiles angeben), aber die Vorteile überwiegen die Nachteile bei weitem. Es ist fahrlässig, seine Daten offen herumliegen zu lassen. Davon wird mindestens jeder ein Lied singen können, dessen Laptop einmal gestohlen wurde, oder der bereits Opfer einer Hausdurchsuchung geworden ist. Besser kein Risiko eingehen. Aber kostet das Lesen und Schreiben auf eine verschlüsselte Festplatte denn nicht viel mehr Performance? Nein, überhaupt nicht, denn AES-Verschlüsselung wird hardwareseitig in Echtzeit unterstützt. Es macht keinen Unterschied. Und mit Veracrypt bekommt man eine leistungsfähige, sichere und offene Softwarelösung, die zudem auch nichts kostet.

Ich kann also jetzt endlich guten Gewissens einen weiteren Punkt auf meiner Datenschutz-Checkliste streichen und werde mich hoffentlich im kommenden Jahr schon um den nächsten kümmern.

Ach, ich habe die letzten Monate so wenige Beiträge geschrieben, dass ich jetzt der Meinung bin, das kompensieren zu müssen, indem ich über echt uninteressante Dinge aus meinem Leben berichte. Aber vielleicht gibt es ja jemanden, der dieselben Gedanken und Probleme wie ich hat. Also dann, kopfüber in das nächste Blog-Thema. In der heutigen Folge: Was ich mir zuletzt angeschafft habe und mein Erfahrungsbericht dazu.

Ich bin ein Mensch, der am PC gerne sehr viele Fenster offen hat. Gleichzeitig! Damit ich alles im Blick haben kann. Das ist beispielsweise sinnvoll, wenn man ständig zwischen Instant Messenger, Dateibrowser, Webbrowser, E-Mail-Programm, Emulator, Texteditor, Entwicklungsumgebung und Grafikbearbeitungsprogramm hin- und herwechseln muss. Natürlich könnte ich auch in der Taskleiste immer umschalten, oder Alt+Tab bemühen (und das mache ich meistens auch so), aber es ist praktischer, wenn ich das erst gar nicht muss. Es ist eben viel komfortabler, wenn ich meine Arbeitsgeräte und Werkzeuge immer alle direkt griffbereit vor mir liegen habe, und nicht ständig in die untere Schublade greifen muss, um zwischen Stift und Schere zu wechseln.

Schon vor dreieinhalb Jahren habe ich mir privat erstmals eine Zwei-Monitor-Konfiguration aufgebaut, die mir völlig neue Möglichkeiten eröffnet hat. Damit kann man etwa mehrere Anwendungen auf verschiedene Monitore aufteilen, und selbst Vollbildanwendungen sind jetzt kein Grund mehr, nicht doch mehrere Programme im Blick zu behalten. Man könnte auf dem linken Monitor etwas im Vollbildmodus spielen, während auf dem rechten Monitor irgendeine Webseite mit hilfreichen Tipps geöffnet ist. Oder man könnte auf dem linken Monitor einen unglaublich wichtigen Artikel für einen bedeutenden Blog schreiben, während auf dem rechten Monitor gleichzeitig irgendein spannender Stream läuft. Und dann … öh … Oh, sorry, ich war gerade ein wenig abgelenkt. Naja, beim Arbeiten sollte man vielleicht doch besser für eine ablenkungsfreie Umgebung sorgen. Weniger ist da oft mehr. Aber in den meisten Fällen bin ich schon ganz glücklich damit, viel Desktopfläche zu haben.

Beim Thema Desktopfläche habe ich kürzlich wieder einen gewaltigen Sprung gemacht. Meine neueste technische Anschaffung ist ein Business-Monitor mit 28 Zoll Bilddiagonale, der den alten 27er nochmals leicht überbietet. Aber der wichtigste Punkt ist, dass es sich um einen UHD-Monitor mit der wahnwitzigen Auflösung von 3840×2160 handelt, ergo „4K“. Damit kann ich endlich 4K-Filmmaterial in nativer Auflösung bestaunen, ohne Skalierung. Mit dem neuen Monsterdisplay auf meinem Schreibtisch wurde dann leider mein alter, tapferer 24 Zoll-Monitor mit der 1920×1200-Auflösung in den Ruhestand geschickt. Neun Jahre lang hat das kleine Kerlchen alles mitgemacht, und selbst jetzt ist er noch gut in Form, obwohl er vor einigen Jahren auf einer Autofahrt einen dicken Kratzer auf der Mattscheibe abbekommen hat. Aber als Unterwegs-Monitor für kleine LAN-Partys bleibt er mir noch erhalten, denn dann spare ich mir das viele Ab- und Wiederaufbauen meiner Monitore.

Wo war ich? Achja… Wie ist das Leben mit so einer exorbitant hohen Desktopauflösung? Auf der einen Seite schon echt klasse, weil man damit wirklich viel Raum für alle seine Fenster hat. Man muss bedenken, der Monitor hat genug Platz für vier Full-HD-Videos, in jeder Ecke eins. Auf der anderen Seite ist es jedoch nicht immer ganz einfach. Ich sollte zumindest kurz auf den größten Nachteil eingehen: Es ist alles verdammt klein. Ich schätze mal, ein 28 Zoll-Monitor ist wirklich die absolute Untergrenze, ab der 4K funktioniert. Manchmal ertappe ich mich dabei, wie ich mit den Augen näher zum Bildschirm gehe, um kleine Texte entziffern zu können. Man gewöhnt sich aber recht schnell an die Mini-Bildschirmelemente, muss beim Klicken ein wenig besser zielen und auch mehr mit der Maus rudern, vor allem wenn man von der linken Kante des linken Monitors bis zur rechten Kante des rechten Monitors fahren will. Das sind bei mir zusammen immerhin 6400 Pixel Breite.

Aber das ist alles noch kein großes Problem. Bislang normalgroße Schriften sind neuerdings eben kleine Schriften. Und bei den kleinen Schriften muss man ab jetzt genauer hingucken. Natürlich kann man das Betriebssystem auch so einstellen, dass es alle Fensterelemente, Icons und Texte automatisch hochskaliert – aber wozu dann überhaupt 4K? Dann hätte ich einfach bei meinem alten Monitor bleiben können und noch eine Menge Geld gespart. Natürlich will ich den neu gewonnenen Platz auch nutzen, und nicht gleich dadurch wieder vergeuden, indem ich alles auf dem Bildschirm größer mache. Bilddateien, die mir noch vor 15 Jahren bequem als Windows-Wallpaper dienlich waren, sind mit dem neuen Monitor nur noch unwesentlich mehr als Thumbnails. Der einsame Browser im abgebildeten Screenshot ist übrigens schon geringfügig größer als Full-HD.

Meine größte Sorge vor meiner Anschaffung war ursprünglich: Packt meine Grafikkarte überhaupt 4K-Auflösung? Ein wenig Recherche in Internetforen und zu den Grafikkarten-Spezifikationen diverser älterer Modelle hat mir Zuversicht gegeben, und tatsächlich war meine Sorge eher unbegründet, denn in den allermeisten Fällen lautet die Antwort: Ja! 4K-Desktopauflösung ist für eine halbwegs moderne Grafikkarte selbst im Low-Budget-Bereich kein großes Kunststück, sogar Onboard-Grafikchips kriegen das längst mühelos hin. Meine Grafikkarte steuert auch gerne zwei Monitore mit 4K-Auflösung an, wenn man möchte. Einfach per HDMI, DVI oder DisplayPort anschließen und los gehts. Ob man damit Spiele in 4K-Auflösung spielen sollte, ist natürlich eine gänzlich andere Frage. In den allermeisten Fällen ist das weniger empfehlenswert, außer man besitzt eine teure Gaming-Grafikkarte. Aber kann man jedes Spiel immer auch in einer niedrigeren Auflösung rendern.

Wie sieht das denn mit tollem UHD-Filmmaterial aus? Kriegt man da wenigstens ordentlich was fürs Auge geboten? Ja und nein. Zum einen muss ich gestehen, dass ein 28 Zoll-Monitor wahrscheinlich nicht unbedingt ideal ist, um Filme in so hoher Auflösung qualitativ ausreichend zu beurteilen. Kurzgesagt, in schnellen Action-Sequenzen in denen sich relativ viel bewegt, hat Ultra-HD-Material praktisch keinen wahrnehmbaren Vorteil gegenüber Full-HD, schon gar nicht wenn man sich einfach nur auf den Film konzentriert. Seine größte Stärke spielt 4K z.B. bei Nahaufnahmen von Gesichtern aus, wenn man genug Zeit hat, sich die vielen winzigen Details anzusehen und darüber zu staunen. Aber das sind eigentlich Ausnahmen. In den meisten Fällen dürfte es Durchschnittsmenschen ohne ausgeprägtes Qualitätsempfinden oder Technikwissen schwerfallen, zu erkennen, ob sie gerade einen UHD-Film sehen oder nicht, zumal sehr viele UHD-Filme auf dem Markt entweder ohnehin Upscale-Mogelpackungen sind, oder ältere Filme generell mehr durch ultrawinzigen Filmgrain bestechen als durch echte, sichtbare, ultrahohe Bildqualität.

Für mich ist der erwartete Wow-Effekt leider ausgeblieben. Nicht, dass es ein Fehlkauf gewesen wäre, aber ein wenig mehr erwartet habe ich dann doch. Man könnte nun, wie gesagt, betonen, dass 28 Zoll keine geeignete Grundlage sind, um das richtig zu beurteilen, aber dafür sitze ich am Monitor eben auch sehr viel näher dran als am 50 Zoll Fernseher, den ich immer nur von der entfernten Couch im Blick habe. Im Prinzip sollte sich das also irgendwo ausgleichen. Aber es bleibt mir in jedem Fall ein Monitor mit einer gigantischen Desktopfläche, die ich mit Fenstern zuklatschen kann. Jetzt habe ich sogar soviel davon, dass ich die Hälfte davon als Werbefläche vermieten könnte. Oh Moment, das machen Webseiten ja schon lange so.

Die Situation ist irgendwie absurd: Bei uns im Büro werden die Mitarbeiter mit Firmen-Notebooks abgespeist, die kümmerliche 250 GB Festplattenkapazität mitbringen. Im Jahr 2018! Und dabei sind das sogar recht aktuelle Modelle. Mein letztes privates Notebook habe ich mir vor rund zehn Jahren gekauft, zu einem Spottpreis, und das hatte bereits eine ebenso winzige Festplatte. Kürzlich während der Arbeit ist mir der Festplattenspeicher dann tatsächlich ausgegangen. Das war vielleicht eine Überraschung. Eine äußerst negative. Ich musste ernsthaft meine alten Projektdateien durchforsten auf der Suche nach etwas, was ich am ehesten entbehren könnte, um Platz für Neues zu schaffen. Irgendwelche wehrlosen Daten zu löschen, hat mir Schmerzen bereitet. Ich war felsenfest der Meinung, wir wären endlich dem Zeitalter entwachsen, in dem wir Speicher sparen müssten, und uns die Festplattendimensionen nicht ausreichen würden. Waren wir eigentlich auch!

Tja, und dann kamen die SSDs. Plötzlich werden wieder brandaktuelle Notebooks regulär mit Pipi-Festplatten zwischen 80 und 250 GB verkauft. Und das zu einem Preis, bei dem mir die Augen bluten. Ab in die Steinzeit. Ach, die tollen SSDs sind ja so viel schneller, das rechtfertigt natürlich, dass wir endlich wieder jedes Byte zweimal umdrehen müssen. Zwei Spiele deinstallieren, damit gerade genug Platz für ein neues ist. Das waren lustige Zeiten – jedenfalls so um 1998 rum, also vor 20 Jahren. Heute ist das in jeder Hinsicht peinlich. Da scheiße ich doch auf den Geschwindigkeitsgewinn, wenn DAS der Preis ist. Festplatten sind für mich Daten-Endlager, und was zählt ist das Fassungsvermögen, sonst nichts.

Stimmt schon, der PC startet damit viel schneller. Aber da der PC eh nur morgens einmal startet, während ich mir ohnehin gerade einen Kaffee hole, hält sich der Vorteil für mich hier stark in Grenzen. Was sich für mich aber sehr stark bemerkbar macht, ist die ständig drohende, rote Festplatten-Füllstandsanzeige von Windows, die mir permanent Sorgen macht. Das ist doch wie als würden wir irgendwann mit der ersten Generation von Raytracing-Grafikkarten den Windows-Desktop endlich in fotorealistischer Darstellung rendern können, aber nur in der Auflösung 640×480 – auf unbestimmte Zeit. Mit 256 Farben! Das muss einem die wahnsinnige Bildqualität dann schon wert sein. Dieser Rückschritt ist eben der Fortschritt. Ich will sowas nicht mehr. Hätte man mich gefragt, hätte ich eine interne 2 TB-Festplatte verlangt, also mal eben mit der achtfachen Kapazität, und die wäre noch weitaus günstiger gewesen. Ja, dann dauert das Compilen halt mal ein paar Sekunden länger, dann kann man in der Zeit wenigstens auf die zahlreichen E-Mails antworten, die tagsüber so reinkommen.

Und wie sieht das aktuell eigentlich mit der Preisentwicklung bei den SSDs aus? Gibts bald die bezahlbaren 4 TB SSDs für Jedermann? Die, die schon seit Jahren von den SSD-Fans vollmundig angekündigt werden? Die, die die antiquierte Magnetfestplattentechnik endlich ins Museum schicken werden? Nein, gibts nicht. Wer hätte es gedacht. SSDs bleiben weiterhin klein und teuer. Erst kürzlich habe ich in einem Artikel einen Ausblick auf die SSD-Preislage der kommenden Monate gelesen, nach dem nicht zu erwarten ist, dass der Preis pro GB bei SSDs signifikant fallen wird. Es scheint als würde sich das Thema allmählich einpendeln. Keine Sorge, die SSDs werden permanent größer, aber eben auch linear teurer.

Und die museumsreifen Magnetfestplatten? Wenn man mal vom hohen Preis absieht, sind 12 TB Festplatten bereits käuflich zu erwerben (derzeit bei 37 EUR/TB), die ersten 14 TB-Modelle kommen noch in diesem Jahr, die Technik für 16 TB HDDs steht für 2019 in den Startlöchern. Und wenn die HAMR-Technik mal Marktreife erlangt, werden die Magnetfestplatten sogar in Regionen jenseits der 20 TB vorstoßen. Von bis zu machbaren 100 TB im folgenden Jahrzehnt ist da die Rede. Günstige Festplatten gibt es für knapp 24 EUR/TB, wo man aktuell im Bereich zwischen 3 und 8 TB das beste Geschäft macht. Und das beste daran ist, bei dieser Art Festplatte ist der sinkende Preis quasi garantiert: Jede neue Generation auf dem Markt sorgt für einen Preisrutsch bei den vorangegangenen.

Auch nach aktuellem Stand ist nicht anzunehmen, dass SSDs so bald das alleinige, dominierende Produkt sein werden, sondern beide Formate noch viele Jahre nebeneinander existieren werden. Da können die SSD-Fans noch so sehr schimpfen über die schrottreifen, anfälligen, steinzeitlichen, (weitere Schmähbegriffe bitte hier einfügen) Magnetfestplatten, die eigentlich alle sofort vom Markt genommen und abgewrackt werden müssten. Aber zum Glück sehen das nicht alle so eindimensional.

gez. Einer, der 14 HDDs und 3 SSDs im Einsatz hat

Noch vor wenigen Jahren habe ich jedem gegenüber meine tiefste Verachtung zum Ausdruck gebracht, der mich zum Thema Festplattengrößen fragte, „wer denn soviel Platz bräuchte“. Jeder, der durch solche und ähnliche Pauschaläußerungen seine gnadenlose Beschränktheit offenbarte, ist mir meine teure Zeit und Hirnkapazität eigentlich nicht wert, erst recht keine selbsternannten IT-„Experten“, die sich dann dummerweise durch solche Sprüche entlarven. Inzwischen würde ich die Thematik vielleicht sogar schon etwas lockerer sehen, denn man ist heute in der wahnsinnig komfortablen Situation, dass man nicht nur exorbitant große Festplatten für wirklich wenig Geld bekommt, sondern auch, dass die bislang – gemessen am Preis pro Gigabyte – unbezahlbaren SSD-Festplatten längst in angenehmere Preisregionen gefallen sind.

Im Grunde genommen bin ich nun zum ersten Mal seit Beginn meiner Nutzung diverser Computer in den späten 80er Jahren nicht mehr ständig auf der Suche nach mehr Speicherplatz. Tatsächlich fällt es jetzt sogar mir als Datenhamster und -messie wirklich schwer, den verfügbaren Speicherplatz zu füllen. Wo ich früher im Prinzip täglich jede Menge Datenkrempel auf große Stapel voller CD-Rohlinge auslagern musste, da die Festplatten immer bis zum Anschlag voll waren, habe ich heute soviel Platz, dass ich mir überhaupt keine Sorgen machen muss. Ich habe sogar derart viel Platz, dass ich mir terabyteweise Redundanz leisten kann – vor 15 Jahren mit dem knappen Taschengeld eines Teenagers undenkbar, und auch vor zehn Jahren mit BAföG kaum machbar. Schlimmer noch, musste ich schon damals im Jahresabstand neue Festplatten hinzukaufen, um nicht Gefahr zu laufen, kostbare Daten löschen zu müssen: 1997 noch mit mickrigen 2,1 Gigabyte, 2005 dann mit gefühlten endlosen 500 GB. Beide waren in ungefähr der gleichen Zeit gefüllt. Das Speicherplatz-Wettrüsten war erstmals mit dem Kauf einer 6 TB-Festplatte Ende 2014 beendet, seitdem kann ich mich entspannt zurücklehnen.

Jahrelang tat sich nichts im Bereich Festplattenkapazitäten. Längst hatte ich Angst, dass bei den 4 TB-Modellen eine unüberwindbare physikalische Grenze erreicht war, quasi das Ende der Fahnenstange. Gleichzeitig änderte sich aber eine ganze Menge bei den immer populärer werdenden SSDs, und daher wollten diesen Umstand die Techniklaien dieser Welt als das (warum auch immer) herbeigesehnte Ende der herkömmlichen Festplatten verstehen. Schaut man sich heute mal bei den üblichen Hardware-Versandhändlern um, so findet man endlich 8 TB-Festplatten für nur noch 250 Euro. Die Technik für 10 TB und sogar 20 TB liegt bereits in den Schubladen der Festplattenhersteller. Solche Festplatten werden bewusst teilweise mit dem Namenszusatz „ARCHIVE“ versehen, da solche Massenspeicher sich in Sachen Zugriffszeiten, sowie Datenübertragungsraten mit den SSDs sowieso nicht messen können. Aber sie haben den gigantischen Vorteil ihrer Kapazität, und den kann noch keine SSD ersetzen. Vielleicht noch eine ganze Weile nicht. Die größten Consumer-SSDs mit 2 TB sind zwar schon im Handel erhältlich, jedoch für knapp 1000 Euro in keinster Weise vergleichbar, meiner Ansicht nach auch dann nicht, wenn man versucht, mit der höheren Geschwindigkeit zu argumentieren.

Aber eines beweist mir die aktuelle Situation dann doch: Noch vor wenigen Monaten las ich in einem Technikforum die Behauptung, dass es technisch nicht möglich sein dürfte, in den kommenden Jahren SSDs mit Kapazitäten jenseits der Terabytegrenze zu bauen, da hierfür extreme Strukturverkleinerungen nötig wären. Inzwischen zweifle ich doch sehr stark an dieser Aussage. Es würde mich schon nicht mehr wundern, wenn die Consumer-SSDs in einigen Jahren mit den magnetischen Festplatten gleichziehen würden. Aber bis es soweit ist, werde ich die verblödeten SSD-Nazis auch weiterhin in die Schranken weisen. Storage ist vielen Menschen bei Festplatten eben deutlich wichtiger als reine Geschwindigkeit.