Archiv der Kategorie: Monolog

Eine Weltsensation! Das Spiel Tubular Worlds aus dem Jahr 1994 hat endlich Einzug in das Dongleware-Spielemuseum gehalten. Es war eines der wenigen Spiele, die mir in meiner Sammlung noch komplett gefehlt haben, und völlig unverhofft kam nun endlich die Rettung. Ein sehr gut erhaltenes Exemplar der Mac-Version wurde mir von meinem langjährigen Blogleser und Mit-Atarianer Gerald Müller-Bruhnke großzügigerweise gespendet. Gerry ist Webmaster von The Thalion Source, der Anlaufstelle Nummer eins für Informationen über die legendäre Spieleschmiede aus Deutschland. Erneut an dieser Stelle ein ganz großes Dankeschön meinerseits! Bei Tubular Worlds handelt es sich um ein farbenfrohes Side-Scrolling-Shoot’em Up im Stil von beliebten Genre-Vertretern wie R-Type, Raptor oder Lifeforce, das von Creative Game Design entwickelt und von Dongleware vertrieben wurde. Es erschien seinerzeit für Amiga, PC und Macintosh. Richtig gelesen: Der Atari ST war zu diesem Zeitpunkt quasi schon abgesägt worden, und blieb leider außen vor.

Die Schachtel des Spiels mit dem schönen Cover ist im selben Design wie die von Oxyd Magnum! gehalten, die ich bereits besitze, und auch die Disketten-Etiketten im bekannten Dongleware-Stil passen mit dem Titel-Artwork perfekt zusammen. Allein für die spannende Ästhetik war ich immer sehr an dem Spiel interessiert, selbst wenn Tubular Worlds vom Gameplay her eher gewöhnliche, wenig beeindruckende Shooter-Kost ist. Außerdem liegen dem Spiel ein Schwarzweiß-Handbuch und ein einseitig bedrucktes DIN-A2-Poster bei. Dem Handbuch lässt sich entnehmen, dass die Mac-Version von Thomas Tempelmann entwickelt wurde, und auch, dass ein gewisser Meinolf Schneider bei der Ausarbeitung des Handbuches mitgewirkt hat.

Die Apple-Welt ist mir relativ fremd, da ich nie selbst einen Mac in meinem Besitz hatte, aber ich kann zumindest versuchen, die beiden 3,5-Zoll-Disketten mit einem USB-Floppy-Laufwerk einzulesen, bevor sie in ihrer neuen Rolle als formschöne Sammlerstücke für meine virtuelle Vitrine bald vollends ungestört aufgehen. Sobald ich dazu komme, werde ich außerdem versuchen, die Box nebst Inhalt auf den Scanner zu legen, um das Artwork in bestmöglicher Qualität zu erhalten und in mein ewiges Archiv wandern zu lassen.

Übrigens erschien 1998 allem Anschein nach der Nachfolger Tubular Worlds II auf CD-ROM für Windows 95 und 98. Das Low-Budget-Spiel sieht auf den ersten Blick wie eine Art Descent-Klon in vollständiger 3D-Umgebung aus. Von der Fachpresse ist das Spiel offensichtlich gänzlich ignoriert werden, möglicherweise auf Grund der mutmaßlich unterirdischen Qualität. Allein die Tatsache, dass genau dasselbe Cover-Artwork einfach wiederverwendet wurde, sagt eigentlich schon alles. Heute kann man über dieses extrem seltene Spiel kaum noch etwas in Erfahrung bringen, geschweige denn ein Exemplar erwerben oder das Spiel herunterladen. Ist vielleicht besser so, wer weiß.

Hallo? Hallooo?? Liest das hier noch irgendjemand? Schreibt hier überhaupt noch wer? Naja, zumindest die Zugriffszahlen deuten daraufhin, dass es noch vereinzelt Leser gibt, und alle paar Monate kommt doch wirklich mal ein Beitrag von mir. Also wenn euch das nicht reicht, dann müsst ihr an der Kasse euer Eintrittsgeld zurückverlangen.

Besagte Leser werden sicherlich gemerkt haben, dass ich im Prinzip aufgegeben habe – und gleichzeitig NICHT aufgegeben habe. In den letzten Monaten habe ich mich um einen neuen Job kümmern müssen, und auch sonst musste ich mir privat wieder mal über einige Dinge klarwerden. Aber das nun als den einen Grund anzuführen, wieso Success Denied vergammelt, wäre ganz einfach gelogen. Ich habe nur festgestellt, dass es mich kaum noch reizt, die Welt mit meinen kruden Ansichten zu nerven. Gleichzeitig packt mich aber dann doch selten die Schreibwut und so werde ich nun eben in wesentlich größeren zeitlichen Abständen meine wirren Beiträge in den Äther kotzen.

Das Wichtigste: Niemand hat die Absicht, Success Denied abzuschalten. Die Seite bleibt natürlich online. Das Dongleware-Museum wäre offline auch ziemlich nutzlos.

Der Grund, warum ich 2010 die Seite überhaupt ins Leben gerufen habe, war mein SPACOLA-Remake, über das ich regelmäßig schreiben wollte. Auch heute macht mir die (On-Off-)Entwicklung an dem Projekt immer noch Spaß, und meine letzten Beiträge sollten demonstriert haben, wie investiert ich in das Thema weiterhin bin: Mehr als je zuvor. Auch in Zukunft werde ich daher über die Fortschritte informieren, sofern es sie denn in nennenswerter Menge gibt.

Aber natürlich habe ich gerade in der Anfangszeit auch einige Beiträge über Politik, die Gesellschaft, Technik, und beliebige Aufregerthemen aus dem Tagesgeschehen geschrieben, von denen manche mir heute eher peinlich erscheinen. Solche Beiträge schreibe ich praktisch nicht mehr. Also kann man sagen, ich habe es aufgegeben, mir selbst Druck zu machen, wie oft ich nun in welchen Abständen Beiträge zu einem breiten Themenspektrum auf meinem Blog veröffentlichen muss. Das hat ohnehin noch nie funktioniert und wird es auch nie. Aber ich habe es nicht aufgegeben, diese Webseite zu betreiben und manchmal, oder eben manchmal auch nicht, mit neuen Informationen zu füllen.

Ich hoffe, das ergibt irgendwie Sinn. Stay tuned!

Ich beim täglichen Bad in meinem Datenschatz

Zeit meines Lebens habe ich als selbsternannter Datenmessie beinahe schon leidenschaftlich Datenhamsterei betrieben, aber gleichzeitig nie ausreichend viele Gedanken an Backups verschwendet. Wenn man das weiß, erkennt man, dass ich in der großen Datenverlust-Lotterie unverschämt viel Glück gehabt habe. Schlimmer noch, die sogenannten Single Points of Failure sind mit den Jahren immer größer geworden, angesichts immer umfassenderer Datengräber, besonders in den letzten paar Jahren. Von meinen ersten 3,5 Zoll 720 Kbyte DD-Disketten in den 80er Jahren, über 700 MB CDRs in den 90ern, den 4,7 GB DVDRs in den 00er Jahren, bis zu den heutigen 16 TB HDDs, habe ich alle verfügbaren Datenträger immer sehr gerne mit meiner Sammlung vollgeschrieben. Sammlung deshalb, weil ich in weiser Voraussicht und in schöner Regelmäßigkeit die Inhalte auf den schwächelnden, alternden Datenträgern der vergangenen Generationen auf neuere übertragen habe, und die Datenmenge so kontinuierlich anstieg, die ich als meinen ganz eigenen Schatz betrachtet habe. Zuletzt lag der gesamte Krempel von unzähligen Disketten, einer vierstelligen Anzahl von CDs, einer dreistelligen Anzahl von DVDs, und einem ganzen Stapel älterer Festplatten auf nur noch drei zentralen Datenträgern. Also Daten aus über 30 Jahren Computernutzung – und für diese hatte ich keine (echten) Backups.

Selbstverständlich wusste ich als computeraffiner Mensch schon immer um die große Bedeutung von Backups. Früh brachte mein Vater mir bei, dass man von wichtigen Original-Disketten erst einmal (mindestens) eine Sicherheitskopie macht, und dann ausschließlich diese verwendet. Beim Verstehen half mir auch die Tatsache, dass Disketten oftmals relativ schnell die Grätsche machten. Datenverlust erlebte ich daher häufig, aber es war eben immer nur eine einzelne Diskette betroffen und nicht etwa ein gigantisches Archiv, das Jahrzehnte umfasste. Im Jahr 1995 unternahmen wir gemeinsam eine große Archivierungsaktion, bei der wir hunderte unserer Atari ST-Disketten in tagelanger Kleinarbeit auf DAT-Bändern sicherten. Die Aktion war ein voller Erfolg, die Backups benötigten wir jedoch nie. Bald darauf dominierte der PC unseren Alltag und der Siegeszug der optischen Datenträger begann. Selbstgebrannte CDs, selbstgebrannte DVDs, randvolle Festplatten, bald lag das Zeug kreuz und quer im Kinderzimmer herum. Die ISDN-Flatrate und die darauf folgende heimische DSL-Leitung machten es leicht, immer verrücktere, noch unnötigere Dinge herunterzuladen und “wegzubrennen”. Mit Hilfe von Tools wie GetRight, Go!Zilla oder FlashGet musste ich mir nicht einmal Mühe geben. Nur wenige Mausklicks und komplette Seitenarchive fanden auf mysteriöse Weise den Weg auf meine Festplatte – der Download lief dann über Nacht. Ob ich diese Dateien jemals anschauen würde? Wahrscheinlich nicht, aber das war zweitrangig.

Disketten wurden auf CDs übertragen, CDs auf DVDs, DVDs auf kleine Festplatten, und kleinere Festplatten auf immer größere Festplatten. Und heute sitze ich auf einem schätzungsweise 12 TB großen Berg an Daten, wie Dagobert in seinem Geldspeicher. Der Ausfall nur einer einzelnen meiner drei zentralen HDDs würde den Verlust von mindestens 15 Jahren an gesammelten Daten bedeuten. Für mich ein Katastrophenszenario, um das ich mich wirklich kümmern musste. Im Jahr 2012, als ich endlich die nötigen finanziellen Mittel besaß, besorgte ich mir einen 15 TB Netzwerkspeicher. Mit Hilfe von Robocopy und einem Batchskript synchronisierte ich sporadisch eine Auswahl der wichtigsten Ordner auf das verschlüsselte Netzwerkverzeichnis. Dies funktionierte gut, doch der Katastrophenfall trat auch in den folgenden Jahren nie ein, weshalb ich zu selbstsicher und faul wurde und meine Bemühungen reduzierte. Endlich im Jahr 2018 konnte ich mich dazu überwinden, alle meine Festplatten vollständig mit VeraCrypt zu verschlüsseln. Nun wurden Backups jedoch sogar noch viel wichtiger, denn wenn die Live-Entschlüsselung mit VeraCrypt plötzlich nicht mehr funktionierte, wäre das gleichbedeutend mit einem Festplattenausfall.

Doch die Technik gab mir erstaunlicherweise keinen Grund zur Sorge. Nach vier Jahren täglichen Gebrauchs arbeitet die Verschlüsselung immer noch einwandfrei. Im Jahr 2020 sattelte ich auf Linux um, und so lösten “rsync” und “Grsync” das bewährte Robocopy ab, und Ext4 löste NTFS ab. Erneut überraschte mich die ausgereifte Technik positiv, denn rsync konnte mühelos die mit Robocopy erstellten Backups aufgreifen und erneuern. Seit dem Sommer 2022 habe ich radikal damit begonnen, eine vernünftige Ordnung in meinem Archiv zu etablieren, habe dazu alte Strukturen aufgebrochen. Dies schuf erneut ungewohnte Herausforderungen, denn trotz meiner schlimmen Unordnung in meinem Dateisystem wusste ich bisher von den meisten Dingen nach all den Jahren wo sie lagen. Nun habe ich zwar Ordnung ins Chaos gebracht, doch muss ich paradoxerweise vieles nun tatsächlich erst suchen. Mit Hilfe von Grsync habe ich mir außerdem Jobs erstellt, die zwei komplette Festplatten auf das NAS spiegeln. Erstmals in meinem Leben bin ich nun in der Situation, dass meine wichtigsten Datengräber vollständig ausfallen könnten, ohne dass ich spürbaren Datenverlust befürchten müsste.

Nicht nur, dass auf meinem NAS vollständige Kopien der Festplatten vorliegen, auch bieten die Paritätsinformationen des RAIDs eine weitere Stufe der Redundanz, denn selbst wenn im NAS eine der Festplatten ausfällt, können die Daten noch verlustfrei wiederhergestellt werden. Und hier hört die Geschichte noch nicht auf: Mir wurde klar, dass meine Wohnung der letzte verbliebene Single Point of Failure darstellte. Ein Wohnungsbrand, Diebstahl oder ähnliches könnte weiterhin alle meine Daten auf einen Schlag vernichten. Die Lösung hierfür ist ein sogenanntes Off-Site-Backup, also eine weitere Kopie an einem weiter entfernten Ort. Und so sicherte ich den vollständigen Inhalt des Netzwerkspeichers auf einer verschlüsselten externen Festplatte und gab sie in vertrauenswürdige Hände zwecks Lagerung für den Katastrophentag X, der hoffentlich nie kommen möge.

Endlich habe ich ausreichende Ausfallsicherheit um mich wirklich sicher zu fühlen. Wenn morgen eine Festplatte quietscht und klackert und nur noch Fehlermeldungen ausspuckt, dann muss mich das nicht mehr beunruhigen: Alles ist noch da. Und ich bin dankbar, dass ich von Ausfällen verschont geblieben bin, als meine Infrastruktur noch ziemlich fahrlässigen “Mut zur Lücke” bewies. Es hätte nämlich auch ganz anders ausgehen können. Da das Thema Backups nun für mich geklärt wäre, kann ich den nächsten offenen Punkt angehen: Das Datenarchiv systematisch durchsuchen, aufräumen und objektiv nutzlosen Müll löschen. Aber Löschen bzw. Wegwerfen ist bekanntlich etwas, das jeden Messie an seine absoluten Schmerzgrenzen bringt.

Mein Leben habe ich endlich wieder im Griff. Naja, zumindest habe ich meinen PC endlich wieder im Griff, denn ich bin seit Dezember 2020 zum ersten Mal nach 23 Jahren windows-frei(*), wohlgemerkt mit einem kleinen Sternchen, denn es gibt eine spezielle vorübergehende Ausnahme, die ich gerne erklären werde. Jedenfalls ist mein Haupt-Betriebssystem inzwischen Linux, genauer gesagt Ubuntu MATE 20.04 LTS. Diese Installation funktioniert seit zehn Monaten erstaunlich gut, und ich bin mittlerweile an einem Punkt angelangt, an dem ich mit Fug, mit Recht und auch mit Stolz sagen kann: Ich bin frei und werde nie wieder zu Windows zurückkehren! Den Spyware-Rotz von Microsoft habe ich endgültig hinter mir gelassen und genau das war mein Ziel. Aber wie kam es denn dazu? Eigentlich müsste die Frage eher lauten: Wieso kam es nicht viel früher dazu?

Wer die kleine Artikelreihe bisher verfolgt hat, wird live miterlebt haben, wie ich zuletzt 2017 an einer Installation von Linux Mint scheiterte, einem angeblich für Ein- und Umsteiger sehr gut geeigneten Betriebssystem. Tatsächlich gab es einige positive Aspekte, allerdings auch unerträgliche Eigenheiten, welches in einem insgesamt eher durchwachsenen Erlebnis für mich resultierten. Die letzten Sargnägel für Linux Mint bildeten für mich jedoch, dass sich die Updatefunktion irgendwann selbst ins Knie geschossen hatte, indem die gerade einmal 512 MB große vorkonfigurierte /boot/-Partition durch ungenutzte Kernels vollgeschrieben wurde (so meine gänzlich laienhafte Vermutung) und es in Linux Mint keinen automatischen Mechanismus gibt, um dies zu bereinigen. Inzwischen hat mir ein Kollege mitgeteilt, dass dies wohl eine alte Mint-Krankheit sei, mit der man offenbar leben müsse. Nunja. Und zuletzt beklagte ich mich darüber, dass vom Benutzer erwartet würde, immer wieder Befehle aus irgendwelchen Internetforen blind ins Terminal zu kopieren. Einmal zu oft folgte ich diesem seltsamen Linux-Paradigma, und plötzlich stand ich vor den Scherben meiner Linux-Installation. Da ich keine Tools kenne, um ein defektes Linux zu reparieren, deutete ich das Signal entsprechend und wechselte nach nur zwei Monaten zurück zu Windows 7.

Leider erzwangen die Hardware-Hersteller im vergangenen Jahr eine Abkehr von Windows 7, dem letzten wirklich brauchbaren Betriebssystem aus dem Hause Microsoft, und so wurde ich mangels Alternativen in die Ecke gedrängt. Entweder die NSA-Wanze Windows 10 installieren, oder doch wieder zu Linux ins eiskalte Wasser springen und hoffen, dass ich schnell genug schwimmen lerne, bevor mir die Luft ausgeht. Sollte ich meine Seele (und meine Daten) also dem Teufel aus Redmond verschreiben, oder mich endlich wie ein richtiger IT-Experte verhalten und Linux lernen? Schließlich war ich mir sicher, dass ich zwei entscheidende Vorteile auf meiner Seite hatte: Erstens, die Linux-Welt müsste sich doch in über drei Jahren seit meinem Fehlschlag entscheidend weitergedreht haben. Und zweitens, wenn Linux Mint für mich keine Option ist, nehme ich ganz einfach eine andere Distribution. Zum Glück hat man hier die Qual der Wahl.

Ich traf die einzig richtige Entscheidung in dieser Situation: Ubuntu sollte fortan mein Betriebssystem der Wahl werden, diesmal ohne Plan B. Im Grunde gab es da aber nicht viel zu entscheiden. Ich bin schließlich kein DAU, sondern Informatiker und arbeite täglich in der IT. Ich brauche Windows nicht und bin Windows auch nicht hilflos ausgeliefert, so wie viele andere. Für jemanden mit meinem Fachwissen gibt es überhaupt keinen Grund, nicht mit Linux arbeiten zu können, denn alles nötige lässt sich nachlesen und lernen. Ich wollte endlich wieder die Kontrolle über meine eigene Hardware haben und eben kein Betriebssystem, das permanent heimlich Nutzerdaten an den Hersteller sendet, regelmäßig Werbung einblendet, mir Nutzungs- und Updatevorschriften macht, mich am laufenden Band bevormundet und mir ein falsches Gefühl von Sicherheit vermittelt.

Zuvor sah ich mir zu Demonstrationszwecken einige Videos zu den einzelnen “Flavours” von Ubuntu an, also die verschieden ausgestatteten Varianten mit unterschiedlichen Desktops. Relativ schnell wusste ich, dass der tablet-android-ähnliche Desktop des Stock Ubuntu für mich suboptimal war. Zudem war die Systemsteuerung (Steuerzentrale) eine Frechheit, da man dort kaum das nötigste einstellen durfte. Offensichtlich war dies wohl eher die Ausgabe für Menschen ohne irgendwelche Computerkenntnisse. Glücklicherweise gibt es z.B. mit Ubuntu MATE eine stark desktop-zentrische Version mit umfassender Systemsteuerung und “oldschool”-Taskleiste und Startmenü. Da ich großen Wert auf einen klassischen Maus-Desktop lege und mein Filesystem quasi der Mittelpunkt aller meiner PC-Tätigkeiten ist, sollte das Betriebssystem dies auch in entsprechender Weise reflektieren und unterstützen. In dieser Hinsicht sind sich Ubuntu MATE und Linux Mint sogar ausgesprochen ähnlich. Eine lächerliche Wisch-und-Tatsch-Oberfläche mit interaktiven Ecken und Fingergesten wie bei einem Smartphone wäre hier vollkommen unangebracht.

Nun musste ich im Dezember vergangenen Jahres also in den kalten Entzug gehen. Da ich ohnehin nach sechs Jahren einen völlig neuen PC zusammenbauen wollte, gab es hierfür die ideale Gelegenheit. Nur die Festplatte formatieren, Windows runter, Ubuntu drauf, und schon konnte es losgehen. Die Installation verlief wie erwartet schön rund, die Hardwareunterstützung für alte sowie relativ neue Hardware ist mehr als anständig. Es dauerte nicht lange und ich wurde vom (leeren) Desktop begrüßt. Die Welt ist im Wandel. Fast Forward zum Oktober 2021: Seit zehn Monaten bin ich ein echter Linux-Nutzer und habe einige wertvolle Erfahrungen gesammelt. Die größte Erfolgsmeldung ist, dass das Betriebssystem bemerkenswerterweise immer noch läuft, und das ist schon ein gewaltiger Fortschritt wenn man meine schwierige Historie mit Linux betrachtet. Auch kann ich generell Entwarnung geben: Es liegen zwar holprige und ruckelige Zeiten hinter mir, doch inzwischen ist der Seegang wesentlich ruhiger geworden. Es kostete mich vielleicht eine Menge Nerven, brachte mir Glücksmomente und Wutausbrüche, ich bekam zusätzliche graue Haare, bis ich so halbwegs verstand, was man unter Linux tun kann, und was man besser lassen sollte. Heute kann ich mich zufrieden zurücklehnen, die Entziehungskur ist gelungen, der Patient ist im sicheren Linux-Hafen angelangt.

Ein wesentlicher Erfolgsfaktor im Umgang mit Linux ist freilich das passende Software-Angebot, und darauf möchte ich zumindest kurz eingehen: Von den vielen Programmen, die ich bisher tagtäglich unter Windows 7 genutzt habe, gibt es grob etwa 75% ganz normal auch als Linux-Build, sei es LibreOffice, GIMP, Eclipse, Firefox, VeraCrypt, CherryTree, Discord, Steam, Thunderbird, DOSBox, JDownloader, Audacity (bzw. künftig Tenacity), VLC Player/SMPlayer, OBS und viele, viele mehr. Bei den restlichen 25% hat man als Umsteiger genau zwei Möglichkeiten: Zunächst gibt es in einzelnen Fällen fertige Bundles der Windows-Version mit der Kompatibilitätsschicht Wine, oder zumindest die theoretische Option, die Software mit Wine zu starten. Dies ist nicht immer optimal, funktioniert aber besser als man glaubt, so z.B. bei Notepad++ oder IrfanView. Die Programme lassen sich sogar so ins Betriebssystem einbinden als wären es native Linux-Versionen. Und falls das auch nicht klappt, bleibt als letzte Maßnahme immerhin noch gesunder Menschenverstand und ein bisschen Wille zur Umgewöhnung, denn das Linux-Ökosystem bietet für fast jedes “unersetzbare” Stückchen Windows-Software eine Alternative. Ob diese Alternative (fast) gleichwertig oder sogar höherwertig ist, hängt vom Tool ab. Meistens ist der angeblich signifikante Unterschied in der Qualität am Ende doch nur eine subjektive Abneigung gegen alles Neue oder Andere. Ja, wir Menschen sind auch nur Gewohnheitstiere.

Für diesen letzten Schritt habe ich mir viel Zeit gelassen, habe immer wieder neue Programme installiert und ausprobiert und aus den verschiedensten Gründen wieder verworfen, weil mir deren Funktionsumfang und/oder Bedienkonzept nicht zusagte. Insbesondere wollte ich eine gute Linux-Alternative für besagtes Notepad++, und ganz so schnell wie man meint wird man hier leider doch nicht fündig. Einfache Texteditoren gibt es für Linux natürlich wie Sand am Meer, doch fast nichts ist auch nur annähernd so komfortabel und gleichzeitig so leistungsfähig wie Notepad++. Wer mir nicht glaubt, möge bitte einmal eine 100 MB große Textdatei mit einer Reihe von beliebten Editoren laden, bearbeiten und speichern. Mehrere von mir getestete Programme stürzten bei einem dieser drei Schritte grundsätzlich immer ab. Dieses Beispiel lässt sich leider relativ gut verallgemeinern, denn an Power-User wird selten gedacht. Aktuell teste ich hier “CudaText”, das viele Funktionen bietet, halbwegs schnell ist, und auch mit großen Dateien umgehen kann. Aber natürlich hat nicht jeder so hohe Ansprüche an einen Texteditor wie ich, daher wird nicht jeder dieselben Probleme haben. Um eine kleine Einkaufsliste zu schreiben, wird man so einen Aufriss selbstverständlich nicht betreiben müssen.

Auch habe ich lange mit mir um einen echten Ersatz für IrfanView gerungen. Die meisten Linux-Bildbetrachter sind sehr rudimentäre Programme, die im wahrsten Sinne des Wortes nur das Bild anzeigen, sonst aber kaum Funktionen zur Bearbeitung haben. Zusätzlich benötigt ein solches Tool für mich eine brauchbare Ordnernavigation, und zu allem Überfluss ein Tastenschema, das ich selbst definieren kann. Spätestens aber wenn ich von einem Bildbetrachter erwarte, dass er Bilder aus der Zwischenablage entgegennehmen kann (via STRG+V), fallen ohnehin 95% der Programme durch das Raster. Ja, es ist schon ein Krampf, wenn man so verwöhnt ist. Inzwischen bin ich bei “XnView MP” gelandet, das man mit ein wenig fleißiger Konfigurationsarbeit fast genau so einstellen kann, wie ich es benötige. IrfanView vermisse ich seitdem nicht mehr. Achja, und mit „KeePassXC“ habe ich eine wirklich außerordentlich gute, plattformunabhängige, und außerdem vollständig datenkompatible Alternative zum Passwortmanager-Klassiker KeePass gefunden.

Nachdem ich also alle meine wichtigen Programme beisammen habe, ist die tägliche Arbeit unter Linux viel reibungsfreier und gemütlicher geworden. Man hat nicht mehr ständig das Gefühl, mit stumpfen Werkzeugen arbeiten und mit Krücken gehen zu müssen. Tatsächlich bin ich mittlerweile in vielen Dingen routinierter und schneller, und Linux für mich zur Selbstverständlichkeit geworden. Aber ich habe natürlich nicht nur Lobhudelei und Jubelperserei für Linux übrig, sondern auch viel Kritik, denn nicht alles ist ideal im Pinguin-Wunderland. Andererseits verlangt ja auch niemand von Windows 10 ideal zu sein. Jedenfalls könnte ich wieder einmal eine komplette Artikelserie schreiben über die vielen Widrigkeiten, gegen die ich in den vergangenen Monaten ankämpfen musste. Und entgegen der allgemeinen Meinung über Linux möchte ich hier auch ganz klar betonen: Ubuntu stürzt ab! Vielleicht alle 6-8 Wochen stürzt das Betriebssystem komplett oder zumindest teilweise ab, so dass oftmals nur noch ein harter Reboot hilft. Dies ist noch kein Grund zur Panik, schließlich läuft mein PC fast 24/7 durch, aber es zeigt mir, dass Linux auch nur mit Wasser kocht und kein unerschütterliches Wunderwerk ist.

Ebenso könnte ich, wenn ich die Zeit dafür hätte, einen schönen, langen und ausgewogenen Artikel über das Thema Linux und Spiele schreiben, denn dieses Thema interessiert viele vorwiegend jüngere Menschen, und auch ich musste mich damit befassen. Um meine Erfahrungen wenigstens kurz zu umreißen: Es gibt eine gigantische Welt an Open-Source-Spielen und -Remakes, die unter Linux ganz normal laufen, darunter so namhafte Klassiker wie FreeCiv, OpenTTD, Doom, Unreal Tournament, Diablo, Daggerfall, Seven Kingdoms, Doom 3, Duke Nukem 3D, OpenXcom, Theme Hospital, FreeCol, OpenRCT2, OpenRA und sehr viele mehr. Und natürlich alles was irgendwie in einem Emulator lauffähig ist, ist für Linuxer ganz normal spielbar, egal ob mit Emulatoren für C64, Gameboy, SNES, N64, PSX oder PS3 usw., alte PC-Spiele via DOSBox oder Adventures mit Hilfe von ScummVM – über die Möglichkeiten könnte man stundenlang reden. Schwieriger wird es erst, wenn wir über Spiele reden, die exklusiv und nur nativ unter Windows laufen.

Hierbei sind Wine und Proton wahrhaftig mächtige Helferlein, wenn es darum geht, Windows-Spiele unter Linux zu verwenden. Aber sie sind leider auch bei weitem noch nicht perfekt. In gewisser Weise sind diese Tools für mich ein Hit-or-miss-Erlebnis. Manchmal staunt man geradezu, wie gut ein Spiel läuft, manchmal ist man aber nur enttäuscht, wenn man nicht einmal das Hauptmenü zu sehen bekommt. Um als aktuelles Beispiel etwa “Cyberpunk 2077” anzubringen: Laut ProtonDB läuft das Spiel bei etlichen Nutzern völlig problemlos, bei fast idealer Performance, fast ohne Grafik- und Audiofehler, während viele andere Spieler es noch nicht einmal gestartet bekommen. Ich selbst habe Cyberpunk 2077 mit Hilfe des beliebten Launchers “Lutris” installiert und getestet. In vier von fünf Fällen hängt sich das Spiel noch vor dem Intro auf. Meine längste Spielsitzung dauerte etwa 5 Minuten, dann ist nicht nur das Spiel, sondern jeweils der komplette Rechner abgestürzt. Gerne würde ich hier erzählen, wie toll und stabil das alles funktioniert, aber in Wirklichkeit sind es tendenziell eher Glücksfälle, wenn ein Spiel mit Wine/Proton gut läuft.

Insbesondere wenn man wie ich bewusst ein LTS-Betriebssystem installiert, hat man leider oft schon einen leicht angestaubten Linux-Kernel mit teilweise deutlich älteren Treibern. Als Linux-Gamer sollte man daher wohl besser auf ein LTS-Linux zugunsten aktuellerer Treiber verzichten. Und wenn man dann noch eine Grafikkarte vom falschen Hersteller nutzt, hat man ebenfalls Pech gehabt. Es gibt leider unzählige Gründe warum Spiele (trotz angeblicher Kompatibilität) entweder nicht laufen, oder viel gruselige Frickelei seitens der Nutzer erfordern. Mit Steam hat man hier jedenfalls noch mit Abstand die besten Chancen auf eine wirklich gute Out-Of-The-Box-Erfahrung. Bei aller gebotener Kritik hat Valve sich hier für Linux-Nutzer wahrlich ins Zeug gelegt.

Die einzig wasserdichte Lösung ist eine Windows 10-VM mit sogenanntem GPU-Passthrough unter Linux zu verwenden. Hier hat man sowohl eine perfekte Kompatibilität als auch eine ideale Performance. Leider ist die initiale Einrichtung nicht ganz trivial, und auch die Hardware-Anforderungen sind nicht zu verachten. Aber wenn man den Aufwand nicht scheut, gibt es etliche gute Tutorials in Foren und beispielsweise auf YouTube, die die Konfiguration sorgfältig Schritt für Schritt erklären, so dass sogar Linux-Noobs wie ich zum Ziel kommen. Am Ende wird man mit Hilfe von QEMU und KVM mit einem 100% spieletauglichen Setup unter Linux belohnt. In der Theorie kann man unter Linux bei Bedarf jederzeit die Windows-VM hoch- und wieder runterfahren, wenn man gerade etwas spielen will, und das restliche System wird davon nicht beeinflusst. In der Praxis hat die miserable Wahl meiner Grafikkarte meine Erfahrung leider doch ein wenig getrübt. Insgesamt hat es sich dennoch absolut gelohnt, und so kann ich eben auch Cyberpunk 2077 spielen wann immer ich das möchte.

Nichtsdestotrotz ist dies explizit nur eine temporäre Übergangslösung, denn der bittere Nachgeschmack bei der Verwendung von Windows 10 bleibt – trotz der “Gaming-Sandbox”, die ich extra dafür aufgebaut habe. Bei meiner nächsten Linux-Installation pünktlich zum Ubuntu-Release 22.04 im kommenden Frühjahr werde ich mehr Wert auf Spieletauglichkeit legen und darauf achten, dass ich immer die neuesten Treiber erhalte, damit auch moderne Triple-A-Spiele kein Hindernis mehr darstellen. Sobald Proton bei mir endlich vernünftig funktioniert, wird die lästige Win 10-VM in die Tonne getreten. Das Thema Spiele unter Linux ist, wie gesagt, eigentlich weitaus komplexer, daher muss es bei diesem knappen Überblick vorerst bleiben.

Wo stehe ich aktuell mit meiner Meinung? Ist Linux ein geeignetes Desktop-Betriebssystem im Jahr 2021? Nach allem was ich heute weiß: Eindeutig ja, wenn man wenigstens ein bisschen bereit ist, sich auf etwas Umgewöhnung einzulassen, und wenn man nicht vollkommen stur darauf besteht, dass sich alles immer so wie Windows anfühlen und alles exakt genau wie Windows funktionieren muss, denn das wird es bei Linux garantiert nie. Und insbesondere beim Thema Spiele wird man sich noch auf ein paar Kompromisse einlassen müssen, wobei sich hier in den vergangenen drei Jahren schon extrem viel getan hat, und in Zukunft angeblich noch einiges tun wird, wenn man etwa Valve glauben schenken mag. Linux ist längst nicht mehr das spielefeindliche Betriebssystem, das es einst war.

Die Wahl der richtigen Linux-Distribution und der richtigen und geeigneten Tools ist hier außerdem absolut entscheidend! Wie man an meinem Beispiel sehen kann, wird man mit der falschen Distro nicht glücklich und eher abgeschreckt, während eine kluge Wahl den Übergang erleichtert. Im Moment würde ich persönlich beispielsweise nicht mehr auf die Kombination Mint + Cinnamon + Nemo und auch nicht mehr auf Ubuntu + MATE + Caja setzen wollen, denn mit beidem hatte ich so meine Probleme. Nicht, dass diese Distributionen schlecht wären, aber sie passen einfach nicht perfekt zu mir und meinen Vorstellungen von einem guten Bedienkonzept. Meine derzeitig favorisierte Distro wäre eher Ubuntu + KDE Plasma + Dolphin. Wer bei diesen Details nur Bahnhof versteht, muss sich keine Vorwürfe machen, denn probieren geht über studieren. Irgendwo muss jeder mal anfangen, und mit Ubuntu oder Linux Mint liegt man als Anfänger meistens richtig.

Bleibt mir nur noch eines zu sagen: Ich bin geheilt! Und ich bin ausgeprochen froh darüber, diesen immens wichtigen und großen Schritt endlich gemacht zu haben. Die Belohnung dafür ist, mehr Souveränität über meine eigenen Daten und meine Hardware zurückzuerlangen. Etwas, das längst überfällig war. Lange habe ich mich davor gedrückt, diesen Artikel tatkräftig anzugehen, denn ich wusste, egal wieviel Zeit ich in das Schreiben investieren, egal wie umfassend ich die einzelnen Aspekte behandeln würde, es könnte der Komplexität des Themas schließlich doch nie gerecht werden, und so blieb mir nur der unbefriedigendste aller Kompromisse: Eine äußerst oberflächliche Betrachtung mit kurzen Zusammenfassungen in einem trotz aller Bemühungen doch leider ausufernden Textbeitrag.

Getreu dem Motto: Solange ich noch keine Weltsensation präsentieren kann, präsentiere ich wenigstens das bisschen an belanglosen Neuigkeiten, das ich habe. Denn ich wurde wieder einmal zertifiziert. Vor knapp siebeneinhalb Jahren, als ich im Berufsleben gerade mal so halb angekommen war, bot sich mir die Gelegenheit, eine ITIL v3 Foundation Zertifizierung (Edition 2011) – oder einfach “ITIL” – zu machen. Die mehrtägige Schulung mit anschließender Prüfung bescheinigt dem Zertifizierten nach Bestehen jedenfalls grundlegende Kenntnisse über die wichtigen Bausteine moderner IT-Dienstleister. Dieses Grundwissen ist im Berufsalltag eines ITlers enorm hilfreich, sobald man beginnt, sich für die Terminologie, die Prozesse und Workflows im Unternehmen zu interessieren, und warum die Fachbereiche genau so aufgebaut sind, wie sie sind.

Die Welt bleibt natürlich nicht stehen, alles verändert sich, und so müssen sich auch die Menschen und ihr Wissen verändern. Seit 2019 gibt es nun ITIL 4, und dieses wurde fast vollständig neu strukturiert und viele Tatsachen angepasst. Die Begrifflichkeiten sind durchweg dieselben, aber oftmals in einer neuen Konstellation. Mein Wissen aus ITIL v3 lässt sich nur noch teilweise auf die heutige IT-Welt anwenden, sofern es nicht ohnehin längst eingerostet ist. Und so entschied ich mich, als ich zufällig wieder die Chance bekam, zu einer Auffrischung und Aktualisierung mit Hilfe der ITIL 4 Foundation Zertifizierung. Diesmal aus naheliegenden Gründen nicht im Klassenzimmer, sondern im Homeoffice-Modus. Und das stellte sich für mich nicht so einfach dar, wie es klingt, denn Technik ist tückisch.

Jedenfalls kann ich stolz verkünden, dass ich am 22. Juli erfolgreich das “ITIL® Foundation Certificate in IT Service Management” erlangt habe. Eine ITIL-Anstecknadel oder ein gedrucktes Zertifikat wie zuletzt gab es diesmal nicht (oder wahrscheinlich nur gegen Aufpreis, denn bei der spottbilligen Prüfung für 250 Euro müssen die ja noch von irgendwas leben), daher muss mir das PDF als Beweis wohl reichen. Für deutsche Umlaute (Unicode!) sind die Anbieter selbst im Jahr 2021 noch zu blöd, darum musste mein Nachname in korrekter Schreibweise auf dem Zertifikat total stumpf zusätzlich ergänzt werden. Aber IT verstehen sie angeblich. Jedenfalls nehmen sie sich heraus, beurteilen zu können, ob andere IT verstanden haben.

Die Prüfung war ebenso unprofessionell, peinlich, unflexibel und technisch miserabel organisiert. Um daran teilnehmen zu dürfen, kann man nicht einfach ganz naheliegend eine Prüfungs-Webseite besuchen. Man ist stattdessen gezwungen, sich ein Programm namens ExamShield auf dem Rechner zu installieren. Dieses gibt es nur für Windows und für MacOS. Die Software mit Onlinezwang hat die Aufgabe, den PC während der Prüfung komplett zu sperren und zu überwachen. Hierzu muss es eine ganze Reihe von verdächtigen Prozessen beenden, über 20 an der Zahl, um etwaige Betrugsversuche zu verhindern. Zuvor darf man den PC einem Techniktest unterziehen, bei dem das Mikrofon, die Webcam und die Internetleitung auf ihre Funktionsfähigkeit und Konfiguration hin getestet werden. Der Test scheiterte mit VPN-Verbindung ohnehin bei mir, aber das war das kleinste Problem.

Zur Prüfung wollte das Programm schließlich die kritischen Prozesse beenden um den PC pflichtversessen sperren zu können. Aber ein einzelner Prozess zur Fernwartung ließ sich eben nicht beenden, und so weigerte sich ExamShield beharrlich, mich an der Prüfung teilnehmen zu lassen. Meine eigenen Versuche, den Prozess abzuschießen, schlugen ebenfalls fehl, da Administratorrechte benötigt wurden. Ergo hatte ich keine andere Wahl als mich bei einem Support-Mitarbeiter zu melden. Eine englischsprechende Inderin, die genau wie ich um Höflichkeit bemüht war, befragte mich zu meiner Teilnehmernummer, die ich ihr zunächst nicht nennen konnte, da ExamShield alle meine Programme geschlossen hatte, und auch keine VPN-Verbindung bestand. Ich musste also den Prüfungsversuch unterbrechen und alles neu starten um ihr die dämliche Nummer durchgeben zu können, die für die Lösung des Problems eh keine Rolle spielte. Nach dieser Hürde versuchte sie mich anzuleiten, den Prozess über den Task-Manager zu beenden, was ich aber bereits versucht hatte. Als sie selbst bemerkte, dass ich ohne Admin-Rechte nicht weiterkam, kapitulierte sie bereits, und verwies mich darauf, ich sollte statt meines Firmen-Notebooks doch den Privat-PC für die Prüfung nutzen, oder alternativ mich an den User Help Desk meiner eigenen Firma wenden, um das Problem dort lösen zu lassen.

Dass es von ihrer Schundsoftware überhaupt keine Linux-Version gab und der Privat-PC schon deswegen keine Option war, wollte ich ihr nicht umständlich erklären müssen, daher bedankte ich mich für ihre nutzlose, hilflose Hilfe und beendete die Konversation. Zu diesem Zeitpunkt hatte ich schon überhaupt keinen Nerv mehr für ihre blödsinnige Prüfung und dachte ernsthaft daran, es hinzuschmeißen. Die Prüfungsbedingungen sind ein großes Ärgernis und für mich so nicht mehr tragbar. Schließĺich setzte ich mich mit dem Help Desk in Kontakt und bat darum, den problematischen Prozess für mich zu beenden. Dies ließ sich zum Glück überraschend schnell und problemlos umsetzen, und so war ExamShield endlich mit meinem Setup zufrieden und die Schikanen konnten weitergehen.

Der Prüfungsmodus beinhaltet, dass man sich über seine Webcam von einem “Proctor” während der gesamten Prüfung beobachten lässt. Einen deutschen Proctor bekommt man hier sowieso nicht angeboten, daher muss man mit dem englischen vorlieb nehmen. Nachdem sich in meinem Fall eine weitere englischsprachige Inderin zugeschaltet hatte, musste ich ihr mit der Webcam eine Führung durch mein Wohnzimmer anbieten, ihr jeden einzelnen Winkel, mein Privat-Handy und auch den Schreibtisch zeigen, damit sie sich versichern konnte, dass ich alleine bin und nicht betrügen könnte. Zuletzt sollte ich ihr die beiden Türen zeigen und berichten, welche davon sich von außen öffnen ließe. Daraufhin verlangte sie von mir, den Schreibtisch so hinzudrehen, dass sie gleichzeitig mich und die Küchentür im Auge behalten konnte. Eigentlich eine lächerliche Forderung, die ich nur erfüllen konnte, weil ich an einem provisorischen, kleinen und leichten Schreibtisch saß. Nach dem peinlichen Möbelrücken zu ihrer Zufriedenheit saß ich dann relativ unbequem im richtigen Winkel vor der Kamera, aber immerhin durfte ich so mit einer knappen Stunde Verspätung an der Prüfung teilnehmen.

Die Prüfung ging knapp eine Stunde und beinhaltete 40 Multiple-Choice-Fragen. Es war leider nicht so einfach, wie ich gehofft hatte, und so musste ich bei einigen Fragen raten, deren Fragestellung und Wortlaut mir aus den Übungen zur Vorbereitung nicht bekannt war. Mein Bestehen hing davon glücklicherweise nicht ab, denn dafür war ich ausreichend gut vorbereitet. Schlappe 65% der Punkte benötigte man zum Bestehen, 85% erreichte ich. Zwar etwas weniger als bei der letzten ITIL-Prüfung, aber das war schon ok. Für das trockene Thema ein durchaus vorzeigbares Ergebnis.

Bis dann die nächste Iteration von ITIL in zehn Jahren erscheint, bin ich damit also vorerst mal sicher. Eine weitere Online-Prüfung von dieser Sorte will ich mir möglichst nicht mehr antun, dafür sind mir meine Nerven zu schade. Bis dahin sollten die Verantwortlichen für diesen Mist ihre Software bitteschön verbessert haben. Und jetzt entschuldigt mich, ich bin ITIL! Und zwar sowas von!