Schlagwort-Archive: Windows

Einige Wochen ist Linux Mint inzwischen bei mir im Betrieb, und ich muss zugeben, die erste Euphorie hat sich schnell gelegt, und auch von meinem Optimismus ist heute nicht mehr allzu viel übrig. Die ersten Erfahrungen mit dem neuen Betriebssystem sind auch begleitet von erster Ernüchterung über die vielen kleinen und mittelgroßen Steinchen, die es mir in den Weg legt. Im großen und ganzen läuft Linux Mint stabil und arbeitet ordentlich, aber ich bin dennoch nicht der Meinung, dass alles Sonnenschein ist. Ich wollte ursprünglich einen Artikel schreiben über positive und auch negative Aspekte des Betriebssystems, die mir bislang aufgefallen sind, aber die negativen Punkte liegen in einer solchen Vielzahl vor, dass ich alleine daraus einen Artikel schreiben kann. Im Folgenden also eine Liste der Störungen, die mir begegnet sind, geordnet von den schwerwiegendsten, über solche mit dem größten Nerv-Faktor, bis hin zu den unbedeutendsten.

Der Knaller zuerst: Die Linux-Updates funktionieren bei mir schon nicht mehr. Nach einem der letzten Updates zeigte mir Mint plötzlich an, dass die Boot-Partition voll ist, und seitdem scheitern sämtliche Updates. Bei genauerer Betrachtung fällt auf, dass die Boot-Partition wohl nur 500 MB groß ist (hat Mint genau so angelegt, ich habe nichts dergleichen konfiguriert!), und Linux hat das Ding jetzt vollgemüllt und gibt den Platz nicht mehr frei. Super! Es ist erbärmlich für ein Consumer-Betriebssystem, dass es nicht „einfach funktioniert“, sondern im Gegenteil durch falsche Standardkonfiguration garantiert schon nach wenigen Updates die Updatefunktion komplett lahmlegt. Das ist dilettantisch. Dann muss ganz offensichtlich jemand dafür sorgen, dass die Standardkonfiguration eine andere ist. Inzwischen habe ich nachgelesen, dass ich Terminal-Befehle eingeben muss, um das Problem zu beseitigen. Keine GUI-Systemtools oder dringend nötige Betriebssystemautomatismen, die mir diese Arbeit abnehmen. Immer nur Terminalbefehle, um doofe Linux-Probleme zu beheben, die ich in anderen Betriebssystemen erst gar nicht hätte.

Einen Befehl zur Systemreinigung habe ich wieder einmal entgegen meiner Intention aus dem Internet ins Terminal kopiert (irgendwas mit „autoremove“ und „purge“), und sogar DER wirft Fehler („No space left on device“) und die Boot-Partition ist davon auch nicht freigeworden. Die üblichen Zeilen aus den Linux-Foren möge man sich hier als Echo in meinem Kopf vorstellen („Das ist so einfach!“, „Das kann wirklich jeder!“, „Einfach nur diesen Befehl hier eingeben und schon…“). Ich muss jetzt also eine Problemlösung im Internet suchen, um die defekte manuelle Systemreinigung zu reparieren, die nur nötig ist, weil es Mint nicht selbst gebacken bekommt seine Daten richtig zu ordnen? Liebe Ubuntu- und Mint-Entwickler, müssen die Nutzer eures Betriebssystems wirklich ein Informatikstudium absolvieren, damit sie es richtig bedienen können? Das kann doch nicht euer Ernst sein. Das sind Dinge, die das OS selbst verwalten können MUSS! Windows KANN das! Ich kann gar nicht soviel kotzen wie mich das jetzt schon nervt.

Beim Starten des Rechners, wenn ich das Kennwort für die Festplattenentschlüsselung eingeben soll, sind die USB-Geräte dummerweise noch gar nicht aktiv, so dass ich die Tastatur nicht verwenden kann. Ich muss dann den Resetknopf betätigen, damit Linux mir das Bootmenü anzeigt. Anschließend erscheint ein alternativer Bildschirmdialog, der ebenfalls das Kennwort für die Entschlüsselung erfragt – und hier ist die Tastatur zum Glück eingeschaltet und erlaubt die Eingabe. Aber jedes Mal bei einem erneuten Start des Systems muss ich wieder den Resetknopf drücken. Offenbar ist das ein altbekanntes Ubuntu-Problem, das in mehreren Jahren nie behoben wurde, obwohl es als kritisch eingestuft ist: https://bugs.launchpad.net/ubuntu/+source/plymouth/+bug/1386005

Der Filemanager meldet mir in schöner Regelmäßigkeit, dass es ein Problem mit meinem Thumbnail-Cache (Vorschaubildpuffer) gibt, das angeblich nur mit Root-Rechten beseitigt werden kann. Wieso muss der Nutzer mit solchem Kleinkram belästigt werden, und wieso kann das Betriebssystem den Fehler wieder nicht selbst beheben? Windows hat sich noch nie darüber beklagt, aber Linux muss da natürlich so wehleidig sein. Den Nutzer interessiert der Thumbnail-Cache überhaupt nicht, und er will nicht jedes Mal sein Passwort eingeben müssen, wenn – warum auch immer – mal wieder ein Vorschaubildchen kaputt gegangen ist.

Die Thumbnail-Generierung ist ohnehin der allergrößte Schwachsinn, das hätte man sich doch bitte bei Windows abgucken können. Wenn ich unter Linux ein sehr großes Verzeichnis mit tausenden Bildern öffne und irgendwo in die Mitte scrolle, dann berechnet der Dateimanager die Thumbnails. Alle Thumbnails. Von A bis Z berechnet er Thumbnails – minutenlang – und hört auch nicht mehr damit auf, erst wenn er irgendwann fertig ist. Die Festplatte rödelt sich tot, die CPU dreht hoch, es werden unnötig Ressourcen verschwendet. Und das geilste: Das macht er jedes Mal von vorne, wenn ich das Verzeichnis erneut öffne. Nemo berechnet die ganze Zeit Thumbnails für das ganze Verzeichnis und zeigt diese nach und nach an, während die Ansicht dabei permanent nach unten rutscht. Es ist kaum möglich in dieser Bewegung irgendwelche Dateien anzuklicken, weil alles an dir vorbeiscrollt. Wieso reicht es nicht, einfach nur die Thumbnails zu berechnen, die man aktuell im Fenster sehen kann? Große Verzeichnisse werden so automatisch zur Qual. Ich kann auch nicht so einfach zwischen Symbol-, Listen- oder Kompaktansicht hin- und herschalten, denn das dauert jedes Mal 1-2 Minuten, je nach Ordnergröße.

Meine externen Festplatten wurden beim ersten und zweiten Mal nach der Installation automatisch mit eingehängt, danach plötzlich nicht mehr. Scheint doch sehr willkürlich zu sein. Offenbar hängt Linux Festplatten beim Systemstart nicht immer automatisch ein. Ich musste erst einmal recherchieren, wie man Festplatten „manuell automatisch“ einhängen kann. Wieso muss ich Festplatten überhaupt manuell automatisch einhängen, wenn ich sie doch immer angeschlossen habe? Ach Mensch…

Das Tool zur Analyse der Festplattenbelegung funktioniert bei mir nicht richtig: Ich bekomme angezeigt, dass der größte Teil der Festplatte durch ein Verzeichnis „ecryptfs“ verbraucht wird, und darin sind nur …nunja … kryptische Dateien, die viel Platz brauchen. Wieso bekommt das Analysetool die Dateien nur in verschlüsselter Form zu sehen, wo ich im Dateimanager entschlüsselte Daten sehe?

Ich bin absolut kein Fan dieser unsichtbaren Mouseover-Scrollbalken, die Linux Mint überall forciert, also Scrollbalken die nicht sichtbar sind, erst wenn man den Fensterrand erreicht, werden sie eingeblendet. Das große Problem hierbei ist, dass mehrere Programme (wie z.B. Eclipse) den Bereich für die Scrollbalken dadurch nicht mehr RESERVIEREN, sondern als nutzbare Fensterfläche verwenden. Möchte ich also mit der Maus dort den Cursor hinter das letzte Zeichen einer langen Textzeile setzen, klicke ich unabsichtlich auf den vertikalen Scrollbalken, der dort sofort erscheint, weil der Scrollbalken ÜBER DEN TEXT gelegt wird. Es ist also mit der Maus überhaupt nicht mehr möglich, den Cursor an die richtige Stelle zu setzen, weil der Scrollbalken immer im Weg ist. Wer entwickelt so eine dämliche Scheiße?

Ganz zu schweigen von diesen extraschmalen Fenster-Titelleisten, die sich farblich nicht einmal von der Menüleiste unterscheiden und dadurch größer aussehen als sie sind. Möchte ich das Fenster also kurz an der Titelleiste anklicken um es irgendwohin zu ziehen, klicke ich fast immer erst daneben, nämlich in den Bereich der Menüleiste, weil da viel mehr Fläche zum Anklicken ist. Könnte man die Fenster nicht einfach auch im leeren Bereich der Menüleiste verschiebbar machen?

Gelegentlich, mehrmals täglich, flackern alle möglichen Fenster schwarz, manchmal der Desktophintergrund, manchmal der halbe Bildschirm, manchmal nur kleinste Teilbereiche von geöffneten Fenstern. Alle paar Stunden flackert irgendwas für ein paar Sekunden, und hört dann plötzlich wieder auf. Ich müsste Linux dafür nicht unbedingt die Schuld geben, da es vermutlich ein Treiberproblem ist, aber da ich nunmal eine Nvidia-Grafikkarte von der Stange verwende, und den offiziellen Treiber, und da Windows keine solchen Probleme hat, stört es mich doch sehr. Auch ein neuer Nvidia-Treiber hat nichts geändert. Offenbar ein steinaltes Ubuntu-Problem, und offenbar auch nach Jahren noch nicht behoben: http://askubuntu.com/questions/263996/fixing-the-nvidia-graphics-screen-flicker-issue

Manchmal, wenn ich via DRUCK-Taste bzw. mit ALT-DRUCK einen Screenshot anfertigen will, erkenne ich auf dem Bild mehrere merkwürdige schwarze Streifen, bzw. schwarze schmale Blöcke, mittig und rechts, die (offenbar immer an denselben Stellen) Bereiche des Bildes verdecken. Nicht immer, aber immer öfter.

Bei großen Dateitransfers von bzw. auf USB-Platten, bewegt sich der Mauszeiger plötzlich nur noch ruckartig durchs Bild, scheint immer wieder kurz hängenzubleiben, trotz gleichmäßiger Bewegung der Maus. Auch Tastatureingaben scheinen immer wieder für Bruchteile von Sekunden zu hängen, und auch Fenster bauen sich oft erst mit Verzögerung und erkennbar schrittweise auf. Es scheint mir so, dass Linux Probleme mit der Höherpriorisierung von USB-Eingabegeräten bzw. der CPU-Priorisierung hat, und dem Kopiervorgang alles andere unterordnet. Kein großes Problem, aber ein ziemlich dämliches, unnötiges.

Ich bin nicht besonders begeistert davon, wie unrund und ungeschliffen das Betriebssystem in vielen Kleinigkeiten ist. Vieles wirkt irgendwie ambitioniert, aber dann leider nicht ausreichend gut durchdacht. Im Endeffekt kommt alle paar Tage etwas dazu, was mir die ganze Sache noch ungenießbarer macht, mich noch mehr ärgert. Einiges davon mag daher rühren, dass es „nicht wie Windows ist“, und ich mich eigentlich nur richtig daran gewöhnen müsste, andere Probleme, wie die defekte Updatefunktion, die flackernden Fenster, dass die USB-Geräte beim Hochfahren nicht rechtzeitig eingeschaltet werden, und dass das Betriebssystem bei Kopiervorgängen manchmal grundlos herumruckelt, haben definitiv nichts mit meiner Windows-Sichtweise zu tun.

Ich fürchte an dieser Stelle muss ich meine vorschnelle Empfehlung von Linux als Betriebssystem für Windows-Umsteiger zurückziehen. Linux ist tatsächlich NUR Leuten zu empfehlen, die wirklich großen Spaß daran haben, kryptische Befehle aus Foren in das Terminal zu kopieren und Konfigurationsdateien von Hand anzupassen. Für alle anderen, die nicht basteln wollen, für die das Betriebssystem „einfach nur funktionieren“ soll, sind Windows und macOS die WEITAUS bessere Wahl, auch im Jahr 2017, so schwer es mir fällt, das zu bestätigen. Die Linuxer sind stolz darauf, wenn sie ihre geliebten Befehle ins Terminal tippen dürfen, und darum wird sich an der Usability des Betriebssystems vermutlich auch nie etwas ändern.

Die zurückliegende Woche war eine, die mich nachdenklich gemacht hat. Der geschätzte Mit-Atarianer und Blogbesucher Frank hat mit Hilfe unserer spannenden E-Mail-Korrespondenz dafür gesorgt, dass ich mich erneut eindringlich mit Linux beschäftigt habe. Schließlich ließ mich das Thema dann tatsächlich nicht mehr los. Sollte ich wirklich die kommenden fünf Jahre auf dem alternden Windows 7 aussitzen und mich erst dann ratlos nach Alternativen umsehen? Ich entschied mich, den Sprung ins kalte Wasser sofort zu wagen. Keine Test-VMs mehr, keine halben Sachen, einfach installieren und los. Und so kaufte ich spontan eine kleine SSD, warf Windows kurzerhand raus und dafür die DVD für Linux Mint 18.1 ein.

So kann ich nun stolz verkünden, dass ich inzwischen windowsfrei bin. Bis jetzt ist mir der Umstieg relativ leicht gelungen, ein paar Stunden Arbeit waren es zwar schon, aber die meisten neuen Tools habe ich mir jetzt zu Eigen gemacht, den Rest kannte man schon lange aus der Windowswelt. Sogar echte Festplattenverschlüsselung verwende ich jetzt. Ein paar Kleinigkeiten fehlen mir hier, aber im Großen und Ganzen bin ich sehr zufrieden. Ich möchte in diesem Beitrag auf meine positiven und auch negativen Erfahrungen bisher eingehen.

Zunächst muss ich anmerken, dass die Installation für meinen Geschmack doch noch etwas einfacher sein könnte: So musste ich zunächst entscheiden, ob ich „/dev/sdb“ vor der Installation aushängen will, weil das irgendwelche Nachteile haben könnte. Bitte was? Keine Ahnung, was heißt das? Der unbedarfte Anwender kapituliert hier sofort. Und dann diese UEFI-Warnung, weil Linux erkannt haben will, dass zuvor ein Betriebssystem im alten BIOS-Modus installiert wurde. Auch hier: Keine Ahnung, was mache ich denn kaputt, wenn ich mich falsch entscheide? Ratloses Recherchieren im Internet, das mich am Ende nicht weiterbringt. Dann eben doch der Leap of Faith. Kein Anwender würde hier guten Gewissens weitermachen ohne einen Linux-Profi zu fragen. Und das bei Linux Mint. Das muss nicht sein.

Dann die ersten positiven Überraschungen. Mint bringt ein dickes Softwarepaket als Starthilfe mit: u.a. Firefox, Thunderbird, Pidgin, diverse Medienspieler (z.B. VLC-Player) und Codecs, Libreoffice, GIMP, sogar den BitTorrent-Client Transmission. Mint hat ungefähr einhundert Bildschirmschoner. Sound funktioniert auf Anhieb, Internetzugriff funktioniert auf Anhieb. Nicht so toll: Obwohl Linux meine Grafikkarte korrekt erkennt und scheinbar auch einen freien Treiber dafür hat, startet er im lahmen Software-Renderer-Modus. Der Wechsel auf den Nvidia-Treiber gelingt kinderleicht mit wenigen Mausklicks, und sofort gibt es 2D- und 3D-Grafikbeschleunigung. Super!

Dazwischen stürzt mir Linux das erste Mal ab: Direkt nach der Installation des Nvidia-Treibers fährt Linux nicht mehr hoch – die Eingabe des Entschlüsselungskennworts klappt nicht, der Rechner reagiert gar nicht. Nach einem Hard Reset gehts dann aber zum Glück doch wieder. Und dann der erste kleine Härtetest: 1080p-Videos laufen im VLC-Player absolut problemlos und flüssig. Im alternativen „Xplayer“ dagegen stockt die Wiedergabe leicht, ist also eher nicht zu gebrauchen.

Der nächste Test war deutlich witziger: Mint hat meine beiden anderen NTFS-Festplatten auf Anhieb erkannt und als Datenträger eingehängt. Ich klickte mich so durch die Verzeichnisse und fand einige meiner Windows-Spiele. Die EXE-Dateien werden freundlicherweise mit einem Windows-Symbol dargestellt. Ein Rechtsklick offenbart die Option „Mit Wine starten“. Kurzerhand doppelklickte ich Amnesia – The Dark Descent und das Spiel startete zu meiner gigantischen Überraschung sofort. Ich stellte die Auflösung 2560×1440 ein und spielte einige Minuten. Und ja, ich weiß dass es eine Linux-Version von Amnesia gibt, aber sogar die Windows-Version läuft ohne Schwierigkeiten. Es ist erfreulich und befremdlich zugleich, zu sehen, dass ich Windows-Programme unter Linux starten kann, so als wär das was ganz normales. Wine scheint doch deutlich leistungsfähiger zu sein als ich das vermutet hätte. Ein Blick in die AppDB von Wine offenbart, dass tatsächlich nicht wenige (ganz moderne wie auch sehr alte) Windows-Spiele perfekt (oder nahezu perfekt) mit Wine laufen.

Der Vorteil beim Umgang mit NTFS-Festplatten ist auch, dass mir die fehlenden Dateiberechtigungen nie auf die Nerven fallen. Das ist keinem Anfänger zuzumuten, dass er sich immer erstmal mit der Meldung „Keine Berechtigung“ herumschlagen muss, und für jedes gottverdammte Verzeichnis entscheiden soll, wer darauf Lesen und Schreiben darf. Ich kenne Informatiker, die in solchen Fällen irgendwann keinen Bock mehr haben und einfach flächendeckend „777“ einstellen – also quasi alle Rechte für jeden. Und ich kann sie gut verstehen. Wie oft habe ich stundenlang herumgerätselt, wieso ein bestimmtes Programm nicht startet. Und was war es am Ende? Keine Leserechte für ein popeliges Verzeichnis. Das muss nicht sein.

Der Anwender in mir stört sich nach wie vor sehr an dem unnötig kryptischen Linux-Dateisystem (/mnt/ (Maintenance?), /proc/ (Processor?), /srv/ (Server?), /sbin/ (Super Binaries?) ???), da ist Windows mit seinen sprechenden Namen doch noch weiter, so ungern das die Linuxer hören. Ich hab keine Ahnung was /opt/ (Options?) bedeutet und was da reinkommt. Ich hab Eclipse dort entpackt (und vorher die Berechtigungen anpassen müssen, duh!). Wahrscheinlich war das falsch, keine Ahnung. Es ist nicht intuitiv. Nein, absolut nicht. Man kann sich daran gewöhnen und man kann es auswendig lernen, aber intuitiv wird das nie sein.

Die Anwendungsverwaltung ist der nächste Hit: Die Linux-Fans bringen sie gern als das Top-Argument gegen Windows, wo immer erstmal ein Installer heruntergeladen werden muss. Mit der Anwendungsverwaltung entfällt das händische Updaten der vielen Programme auf dem Rechner, denn die kümmert sich automatisch darum. Dumm nur, dass die Anwendungsverwaltung eben nicht alle Programme kennt, und man dann in Einzelfällen doch wieder im Internet nach Installationsdateien suchen darf – wie unter Windows. Außerdem kam mein Linux Mint mit einer älteren Version von Libreoffice daher (5.1.x), und die Anwendungsverwaltung wollte nicht auf 5.2.5 aktualisieren. Und schlimmer: Sie hat mir Version 3.8 von Eclipse installiert – diese ist fünf Jahre alt! Version 4.6 musste ich also doch wieder von Hand installieren. Das ist einfach schlecht gemacht. So wirklich gut kann das mit den automatischen Updates also nicht funktionieren, wenn fünf Jahre alte Programmversionen als „aktuell“ durchgehen.

Die Konsole ist super. Und zwar nicht, weil ich damit so extrem effizient und schnell arbeiten kann, sondern weil ich sie bisher noch nicht gebraucht habe. Es geht nichts über Konsolenbefehle, damit der Profi sein Ziel in Rekordzeit erreichen kann, sofern er alle Befehle und die Parameterreihenfolge auswendig kann. Aber wenn ein Anfänger, der überhaupt keinen Bezug zu Konsolenfenstern hat, plötzlich gezwungen ist, damit zu arbeiten, weil es keinen Mausklickweg zu einer bestimmten Funktion oder Einstellung gibt, dann ist das einfach nur Mist. Im Jahr 2017 muss es zumindest möglich sein, alles irgendwie mit der Maus zu erreichen. Ja, das ist langsamer, aber es liegt Anfängern näher. Profis werden mir jetzt vehement und wüst schimpfend widersprechen. „Linux muss so sein, das ist auch gut so! Wenn’s nach mir ginge, gäbe es gar keine grafische Oberfläche mehr, bla blub…“.

Anstelle von Firefox versuche ich es jetzt einmal mit dem Vivaldi-Browser. Das ist der geistige Nachfolger des alten Opera-Browsers, der noch auf Funktionsvielfalt und nicht auf hirnlosen Minimalismus gesetzt hat. Ich bin bis jetzt äußerst begeistert davon, da er einige Features mitbringt, die ich sonst meist per Addon nachrüsten muss (Mausgesten, Tabgruppen, Tab-Hibernation, Schnellwahl, Tab-Preview etc.). Ich denke, ich bleibe erstmal dabei.

Wie ist mein Fazit bisher? Linux wirklich als Desktop-Betriebssystem? Als Windows-Ersatz, sogar für Linux-Neulinge? Ja, grundsätzlich schon – wenn es denn auf Anhieb funktioniert. Leider ist das nicht immer der Fall. Fehlender Sound, fehlende Grafikbeschleunigung, Linux fährt direkt nach der Installation nicht mehr hoch, Probleme mit Dateiberechtigungen … alles schon erlebt, und schon muss man wieder ins Linux-Forum und darf die doofe Konsole aufmachen. Die Liste potentieller Probleme ist lang. Mit Standard-Hardware hat man es zum Glück leichter. Ein einmal eingerichtetes Linux ist dagegen eine echte Erleichterung und Freude, umgewöhnt hat man sich schnell. Man muss sich zwangsläufig ein paar neue Tools suchen, und auch bei den Spielen muss man natürlich einige Abstriche machen, aber Wine federt das ganze schon deutlich ab. Alles andere funktioniert wie man es kennt: Surfen im Internet, E-Mails abrufen, Musik hören, Filme schauen, ein bisschen Grafikbearbeitung und Softwareentwicklung, das alles ist kein Problem.

Bis jetzt bin ich wirklich zufrieden und auch überrascht davon, wie gut es funktioniert. So kann es meinetwegen bleiben. Ich werde in ein paar Wochen einen weiteren, etwas fundierteren Erfahrungsbericht abliefern. Sicherlich werden mir noch mehr Probleme auffallen, über die es dann zu berichten gilt.

Es könnte alles so einfach sein, würde Microsoft sich nicht entschließen, es unnötig kompliziert zu machen. Es mag Ideen geben, die für die Entwickler auf dem Papier Sinn ergeben, sich in der Praxis aber als ziemliche Scheiße entpuppen. Seit ich mir privat einen zweiten Monitor zugelegt habe, bin ich mein 27-Zoll + 24-Zoll Monitor-Setup gewohnt, und auch beruflich im Büro sind zwei Monitore längst Standard. Die diversen Fenster, die ich normalerweise permanent geöffnet habe, also etwa der Browser, die Softwareentwicklungsumgebung, den E-Mail-Client, den MP3-Player, Bildbearbeitungssoftware, Instant Messenger, Texteditor (und oft noch einige mehr), verteile ich nach meinem ganz eigenen System auf die beiden Monitore. Ich weiß genau wo ich was finde, und was ich möglichst immer gleichzeitig links und rechts sehen will.

multimonitor

Wenn ich mal für ein paar Stunden nicht am Rechner bin, die Kiste aber weiterlaufen soll, schalte ich die Monitore gerne aus. Das hat in der Vergangenheit teilweise funktioniert. Jedenfalls hat es das mit dem zweiten (DVI-)Monitor. Wenn ich den primären – via DisplayPort angeschlossenen – Monitor ausschalte, dann erkennt Windows 7 das Gerät genialerweise als nicht mehr angeschlossen und verschiebt alle meine offenen Fenster ungefragt auf den zweiten Bildschirm. Ich war jedes Mal äußerst dankbar dafür, dass ich meine Fenster alle wieder von Hand umsortieren durfte. Umgekehrt war das bislang kein Thema, weil Windows das Ausschalten über DVI offenbar nicht bemerkt hat. In der Folge durfte ich also nur noch den sekundären Monitor ausschalten, der Primäre musste eingeschaltet bleiben, weil sonst meine Fenster irgendwohin wanderten.

Die Notlösung war der Windows-Energiesparplan, mit dem ich die Monitore nach einer gewissen Zeit softwareseitig abschalten konnte, beide Monitore aber weiterhin als angeschlossen galten. Das hat lange Zeit ganz gut funktioniert. Bis zu einem der letzten Windows 7-Updates oder möglicherweise auch dem letzten Grafikkarten-Treiberupdate, so ganz sicher bin ich mir da nicht mehr. Ich war überrascht, dass fortan auch der DVI-Monitor beim Ausschalten den Windows-Systemton auslöst, den man üblicherweise dann hört, wenn ein Gerät abgestöpselt wird. Beim sofortigen Wiedereinschalten war der zweite Desktop natürlich leer.

Schlimmer war allerdings, dass Windows neuerdings beide Monitore vom System trennt, wenn sie durch den Energiesparplan ausgeschaltet werden. Nach zehn Minuten Inaktivität wurden beide Monitore dunkel und man konnte nun immer jeweils zweimal den Gerät-Entfernt-Systemton hören. Windows trennt intern die beiden Monitore, verschiebt alle Fenster kurzerhand ins Nirvana, und schmeißt sie dann bei erneuter Benutzeraktivität auf den erstbesten Monitor, der zuerst wieder aus dem Tiefschlaf erwacht – begleitet von dem zweimaligen Gerät-Angeschlossen-Systemton. Windows interessiert es nicht, wo die Fenster ursprünglich waren, es wird immer alles auf einen Haufen geworfen. Das ist so dermaßen ätzend, dass ich meine Begeisterung kaum im Zaum halten kann.

Ausschalten ist also nicht mehr drin, wenn ich nicht zufällig Spaß daran habe, mehrmals täglich sämtliche Fenster von neuem zu sortieren. Auch der Energiesparplan fällt so für mich weg. Was bleibt ist einzig der Windows-Bildschirmschoner, wenn ich will, dass die Monitore (halbwegs) dunkel bleiben. Dann werden sie wenigstens nicht sofort sinnlos vom Gerätetreiber ausgehängt, sondern bleiben aktiv. Zu gerne würde ich die automatische Erkennung, ob der Monitor ein- oder ausgeschaltet ist, einfach per Häkchen deaktivieren, doch so einfach macht es uns Microsoft nicht. Diese Erkennung lässt sich natürlich gar nicht abschalten. Meine Recherche hat ergeben, dass dieses „Feature“ aus Sicht von Microsoft richtig und beabsichtigt ist. Also eine wieder einmal an vielen Nutzern vorbeientwickelte Funktion.

Es gibt einen Workaround für den Fall, dass man bereit ist, seine Monitore über HDMI anzuschließen und am Stecker den Pin Nummer 19 abzukleben, der für diese automatische Erkennung nötig ist. Bei DisplayPort-Steckern gibt es einen solchen Pin ebenfalls, ist aber zu klein, um ihn einfach abzukleben. Und auch für Titan-Grafikkarten von Nvidia scheint es einen Workaround zu geben, der mir aber genausowenig hilft. Mit einer simplen Einstellung in den Optionen für die Bildschirmauflösung in der Art wie „Diesen Monitor beim Ausschalten nicht vom System trennen“ wäre das Problem für alle erledigt, doch so denkt Microsoft nicht. Ich bezweifle, dass jemand bei Microsoft hier überhaupt gedacht hat.

Hier einige Links zu dem leider schon recht lange bekannten Problem:

Nun habe ich erneut etliche Wochen verstreichen lassen, ohne etwas Textliches für meinen Blog hervorzubringen. Das möchte ich heute ändern, indem ich Microsoft-Fans gegen mich aufbringe. Mit dem vorliegenden Beitrag beginne ich eine Mini-Artikelserie über Dinge, die mich an Microsoft-Produkten stören. In letzter Zeit entdecke ich gehäuft Bugs in Software von Microsoft, wobei sich nach längerer Recherche herausstellt, dass der Hersteller überhaupt keine Ambitionen hat, die Probleme, die daraus resultieren, irgendwie zu lösen. Im Gegenteil: Voller Hohn stellt man sich dort immer öfter mit symbolisch verschränkten Armen hin und sagt, dass das eine bewusste Design-Entscheidung sei. Wunderbar! Dann ist es ja in Ordnung, dass nichts richtig funktioniert. Meine Beobachtung möchte ich anhand von Beispielen erläutern, um mir nicht substanzlose Hassbeiträge unterstellen lassen zu müssen. Im Folgenden also ein kleines Beispiel.

Schon vor Jahren fiel mir ein großes Ärgernis in Windows 7 auf: Bei vielen Spielen kommt es vor, dass Windows sich nach 30 Sekunden entscheidet, die visuellen Designs auszuschalten, um die „festgestellte“ beeinträchtigte Leistung des Computers auszugleichen: „Änderung des Farbschemas zum Verbessern der Leistung“ nennt sich das dann. Durch den Warnhinweis wird man von Windows freundlicherweise komplett aus dem Spiel geworfen. Das wäre für das erste Mal gar kein Problem, denn ich kann mich ja bewusst dagegen entscheiden: Keine Ahnung was Windows da genau „festgestellt“ haben will, aber mein Rechner ist definitiv leistungsfähig genug, um Spiele auch flüssig bei aktiviertem Aero auszuführen. Ich kann immerhin auswählen „Aktuelles Farbschema beibehalten und diese Meldung nicht mehr anzeigen“, und damit ist das Thema dann endgültig gegessen.

aeroperformance

Ist es das? Nein, leider doch nicht. Der Bug ist nämlich der, dass Windows den Teil mit „und diese Meldung nicht mehr anzeigen“ komplett ignoriert, so als hätte ich die Alternative ausgewählt, die den Zusatz „aber erneut fragen“ trägt. Diese Option wähle ich bewusst nicht aus, aber es macht überhaupt keinen Unterschied. Windows merkt sich die gewählte Einstellung nicht für das Spiel, und nicht einmal für die laufende Windows-Sitzung. Beim nächsten Spielstart wird Aero nämlich gleich wieder deaktiviert und es erscheint wieder dieselbe doofe Meldung, die ich wieder wegklicken muss. Wieder mit dem Hinweis, dass ich bitte nicht mehr belästigt werden möchte. Es bringt nichts. Windows wirft den Nutzer jedes verdammte Mal raus und fragt jedes Mal nach. Ich kann mich dagegen nicht wehren. Windows 7 ist leider zu alt, Microsoft hat keinen Grund mehr, diesen steinalten Bug zu beheben, also muss ich damit leben.

Microsoft sieht in seinem Betriebssystem auch keine Möglichkeit vor, diesen Warnhinweis komplett abzustellen und die Erkennung von Leistungsproblemen (welcher Art auch immer) einfach zu unterbinden. Wie so oft wird man hier entmündigt und bekommt auch keine Optionen für fortgeschrittene Nutzer angeboten, die wirklich hilfreich wären. Es scheint für einzelne Fälle Workarounds zu geben, und es gibt natürlich die Möglichkeit, visuelle Designs schon proaktiv auszuschalten, damit die Meldung wegbleibt, aber ich will die Designs eigentlich nicht jedes Mal ausschalten müssen, will mich nicht verbiegen müssen für einen Fehler, der eindeutig beim Betriebssystem liegt. Es nervt einfach nur extrem.

Hier einige Links zu dem leider schon recht lange bekannten Problem:

Linux und ich, wir beide haben eine schwierige Beziehung. Wir verstehen uns nicht besonders gut, aber wir kommen zur Not miteinander aus, wenn es sich nicht vermeiden lässt. Ich kann den Linux-Desktop bedienen, wenn ich muss, und ich bin auch in der Unix-Shell nicht völlig hilflos, auch wenn ich die Konsolenbefehle meistens trotzdem immer wieder nachlesen muss. Ich empfinde oft eine gewisse prinzipielle Sympathie für Linux, aber ich habe auch Vorbehalte und in mancher Hinsicht wiederum sogar eine Abneigung. Schon im Jahr 2000 begann ich mich grundsätzlich für Linux zu interessieren. Im Juli 2003 besuchte ich sogar den LinuxTag in Karlsruhe und hörte mir einige Vorträge an. Ich wollte mich informieren. Meine ersten eigenen Gehversuche in der Linux-Welt machte ich dann tatsächlich erst im Jahr 2005 mit SUSE Linux in einer virtuellen Maschine.

Ich wollte eigentlich gar nicht viel machen, nur einen Apache Webserver installieren, dann darin eine OTRS-Installation laufen lassen. Nur so zum Spaß und zum Testen. Ich rechnete bereits fest damit, dass nichts funktionieren würde, und so ging die Installation von Apache wie erwartet total in die Hose. Jeder Fliegenschiss unter Linux musste umständlich über die Konsole gemacht werden, der Linux-Desktop war vermutlich nur als Gag dabei, um Windows-Nutzer zu trollen. Meine Arbeit bestand hauptsächlich darin, kryptische Fehlermeldungen aus der Shell bei Google einzutippen, im Internet nach einer Lösung zu suchen, daraus wiederum kryptische Befehle in die Shell einzutippen, und das dann jeweils für die nächsten 200 Fehlermeldungen. Da werden reihenweise Pfade nicht gefunden, irgendwelche Pakete fehlen, die Zeichenkodierung ist falsch, Dateien können nicht gelesen werden, Berechtigungen sind falsch gesetzt, der Mond steht nicht im richtigen Verhältnis zur Sonne, man kennt das ja. Schöne, gemütliche Linux-Welt.

Schon im Jahr 2008 startete ich einen erneuten Versuch, mich endlich so richtig mit Linux anzufreunden, die Chancen standen besser denn je: Linux war offenbar so richtig ausgereift und benutzerfreundlich geworden. Linux ist die Zukunft, wie könnte ich dem Betriebssystem da eine zweite Chance verweigern? Ich glaube ich installierte Fedora oder Debian oder sowas. Ich konnte tatsächlich schon recht viel mit dem Desktop arbeiten, da störte es mich auch nicht, dass die Soundtreiber für das Notebook unter Linux nicht funktionierten. Es sah schließlich alles so schön aus. Ich wollte einen Compiler für C++ ausprobieren und versuchte nach einer Internet-Anleitung über die Konsole (wie denn auch sonst?) den GCC zu installieren. Die Installation war mir nach anfänglichen Problemen irgendwann geglückt. Dummerweise wusste ich leider nicht, wohin der Compiler eigentlich installiert worden war oder auf welchen Namen er hörte. Die Installation über die Konsole kommt einem doch sehr spartanisch vor, wenn man die bunten Windows-Installer gewohnt ist, die brav nach dem Pfad fragen. Ich kratzte mich hilflos am Kopf während ich versuchte, aus dem Linux-Dateisystem schlau zu werden. Wo ist Laufwerk C? „etc“? „opt“? „var“? Hilfe, wie kann ich Dateien suchen?

Okay, ich hätte mich schlauer anstellen können, aber es macht einfach keinen Spaß, sich wie der größte Anfänger zu fühlen, und Linux gab mir genau dieses unangenehme Gefühl. Und so verschwand Linux wieder von meinem Notebook. Dennoch verwarf ich meinen ursprünglichen Plan nie, es irgendwann doch einmal ganz ernsthaft zu versuchen, wenn die Zeit reif ist. Aber dazu müsste Linux mir schon noch ein ganzes Stück entgegenkommen.

Januar 2016: Microsoft gibt sich seit Monaten mit der aktuell noch kostenfreien Spyware Windows 10 alle Mühe, mir den Spaß an Windows endgültig zu verderben. Ein Wechsel zu Windows 10 kommt für mich derzeit aus mehreren Gründen überhaupt nicht in Frage. Es ist also der perfekte Zeitpunkt, einen Blick auf eine aktuelle Linux-Distribution zu werfen, die zudem besonders anfänger- und umsteigerfreundlich zu sein scheint: Ubuntu. Schon vor Monaten habe ich mich bei echten Linux-Fans unter meinen Arbeitskollegen informiert und mich beraten lassen. Ubuntu sei so wundervoll, sehr benutzerfreundlich und wirklich extrem leicht zu bedienen. Die Probleme der Vergangenheit sind alle längst behoben, sogar die Treiberunterstützung wurde deutlich verbessert. Prima, dann ist ja alles klar.

Ich installierte mir also Ubuntu 15.10 in Virtualbox:

ubuntu

Oh, ja, in der Tat sehr wundervoll. Ubuntu lässt sich nicht starten. Schon kurz nach der Installation ist meine Abenteuerreise beendet, der Zeichensalat auf dem Bildschirm sah jedenfalls nicht nach dem Betriebssystem aus, das ich haben wollte. Ich musste wohl irgendetwas falsch gemacht haben. Sogleich wurde die VM gelöscht, neu angelegt und Ubuntu nochmals installiert. Diesmal aber richtig und mit doppelt soviel Konzentration bei den Details.

Nachdem auch die zweite Installation zu meinem Entsetzen scheinbar missglückt war und Ubuntu sich partout nicht starten ließ, beschloss ich entgegen meiner eigentlichen Vorsätze die Fehlermeldung wie gewohnt bei Google einzutippen. Dadurch fand ich tatsächlich heraus, dass ich die Bootreihenfolge der Laufwerke ändern musste, so dass die VM zuerst von der Festplatte startet (obwohl keine DVD im Laufwerk ist). Für aussagekräftigere Fehlermeldungen ist in der Linux-Community offenbar auch kein Geld da. Es ist mir schleierhaft, wie ich aus dem hingerotzten Output erkennen soll, dass die Bootreihenfolge falsch ist oder warum sie falsch ist. „I/O Error“, „Unable to read page“, „squashfs_read_data failed to read block“, „SQUASHFS error“, alles klar, das hilft mir natürlich weiter. Auch hätte ich doch von Geburt an wissen müssen, dass „dev sr0“ das DVD-Laufwerk ist. Aha.

Ubuntu fängt also wieder GENAU so an, wie ich Linux seit vielen Jahren kenne und hasse: Ich muss jedes Mal nach Fehlermeldungen googlen, um das Betriebssystem halbwegs nutzen zu können. Egal wie ich es anfange, endet es irgendwie immer damit, dass ich Fehlermeldungen in eine Suchmaschine eintippe um jemanden zu finden, der irgendwo die Lösung gepostet hat. Wieso geht das bei Linux nicht anders? Ich kann es mir absolut nicht erklären. Ich will das nicht, ich habe darauf keine Lust. Ich versuche es vielleicht in 4 Jahren nochmal. Merci, dass es dich gibt, Windows 7.