Archiv der Kategorie: Technik

Ach, ich habe die letzten Monate so wenige Beiträge geschrieben, dass ich jetzt der Meinung bin, das kompensieren zu müssen, indem ich über echt uninteressante Dinge aus meinem Leben berichte. Aber vielleicht gibt es ja jemanden, der dieselben Gedanken und Probleme wie ich hat. Also dann, kopfüber in das nächste Blog-Thema. In der heutigen Folge: Was ich mir zuletzt angeschafft habe und mein Erfahrungsbericht dazu.

Ich bin ein Mensch, der am PC gerne sehr viele Fenster offen hat. Gleichzeitig! Damit ich alles im Blick haben kann. Das ist beispielsweise sinnvoll, wenn man ständig zwischen Instant Messenger, Dateibrowser, Webbrowser, E-Mail-Programm, Emulator, Texteditor, Entwicklungsumgebung und Grafikbearbeitungsprogramm hin- und herwechseln muss. Natürlich könnte ich auch in der Taskleiste immer umschalten, oder Alt+Tab bemühen (und das mache ich meistens auch so), aber es ist praktischer, wenn ich das erst gar nicht muss. Es ist eben viel komfortabler, wenn ich meine Arbeitsgeräte und Werkzeuge immer alle direkt griffbereit vor mir liegen habe, und nicht ständig in die untere Schublade greifen muss, um zwischen Stift und Schere zu wechseln.

Schon vor dreieinhalb Jahren habe ich mir privat erstmals eine Zwei-Monitor-Konfiguration aufgebaut, die mir völlig neue Möglichkeiten eröffnet hat. Damit kann man etwa mehrere Anwendungen auf verschiedene Monitore aufteilen, und selbst Vollbildanwendungen sind jetzt kein Grund mehr, nicht doch mehrere Programme im Blick zu behalten. Man könnte auf dem linken Monitor etwas im Vollbildmodus spielen, während auf dem rechten Monitor irgendeine Webseite mit hilfreichen Tipps geöffnet ist. Oder man könnte auf dem linken Monitor einen unglaublich wichtigen Artikel für einen bedeutenden Blog schreiben, während auf dem rechten Monitor gleichzeitig irgendein spannender Stream läuft. Und dann … öh … Oh, sorry, ich war gerade ein wenig abgelenkt. Naja, beim Arbeiten sollte man vielleicht doch besser für eine ablenkungsfreie Umgebung sorgen. Weniger ist da oft mehr. Aber in den meisten Fällen bin ich schon ganz glücklich damit, viel Desktopfläche zu haben.

Beim Thema Desktopfläche habe ich kürzlich wieder einen gewaltigen Sprung gemacht. Meine neueste technische Anschaffung ist ein Business-Monitor mit 28 Zoll Bilddiagonale, der den alten 27er nochmals leicht überbietet. Aber der wichtigste Punkt ist, dass es sich um einen UHD-Monitor mit der wahnwitzigen Auflösung von 3840×2160 handelt, ergo „4K“. Damit kann ich endlich 4K-Filmmaterial in nativer Auflösung bestaunen, ohne Skalierung. Mit dem neuen Monsterdisplay auf meinem Schreibtisch wurde dann leider mein alter, tapferer 24 Zoll-Monitor mit der 1920×1200-Auflösung in den Ruhestand geschickt. Neun Jahre lang hat das kleine Kerlchen alles mitgemacht, und selbst jetzt ist er noch gut in Form, obwohl er vor einigen Jahren auf einer Autofahrt einen dicken Kratzer auf der Mattscheibe abbekommen hat. Aber als Unterwegs-Monitor für kleine LAN-Partys bleibt er mir noch erhalten, denn dann spare ich mir das viele Ab- und Wiederaufbauen meiner Monitore.

Wo war ich? Achja… Wie ist das Leben mit so einer exorbitant hohen Desktopauflösung? Auf der einen Seite schon echt klasse, weil man damit wirklich viel Raum für alle seine Fenster hat. Man muss bedenken, der Monitor hat genug Platz für vier Full-HD-Videos, in jeder Ecke eins. Auf der anderen Seite ist es jedoch nicht immer ganz einfach. Ich sollte zumindest kurz auf den größten Nachteil eingehen: Es ist alles verdammt klein. Ich schätze mal, ein 28 Zoll-Monitor ist wirklich die absolute Untergrenze, ab der 4K funktioniert. Manchmal ertappe ich mich dabei, wie ich mit den Augen näher zum Bildschirm gehe, um kleine Texte entziffern zu können. Man gewöhnt sich aber recht schnell an die Mini-Bildschirmelemente, muss beim Klicken ein wenig besser zielen und auch mehr mit der Maus rudern, vor allem wenn man von der linken Kante des linken Monitors bis zur rechten Kante des rechten Monitors fahren will. Das sind bei mir zusammen immerhin 6400 Pixel Breite.

Aber das ist alles noch kein großes Problem. Bislang normalgroße Schriften sind neuerdings eben kleine Schriften. Und bei den kleinen Schriften muss man ab jetzt genauer hingucken. Natürlich kann man das Betriebssystem auch so einstellen, dass es alle Fensterelemente, Icons und Texte automatisch hochskaliert – aber wozu dann überhaupt 4K? Dann hätte ich einfach bei meinem alten Monitor bleiben können und noch eine Menge Geld gespart. Natürlich will ich den neu gewonnenen Platz auch nutzen, und nicht gleich dadurch wieder vergeuden, indem ich alles auf dem Bildschirm größer mache. Bilddateien, die mir noch vor 15 Jahren bequem als Windows-Wallpaper dienlich waren, sind mit dem neuen Monitor nur noch unwesentlich mehr als Thumbnails. Der einsame Browser im abgebildeten Screenshot ist übrigens schon geringfügig größer als Full-HD.

Meine größte Sorge vor meiner Anschaffung war ursprünglich: Packt meine Grafikkarte überhaupt 4K-Auflösung? Ein wenig Recherche in Internetforen und zu den Grafikkarten-Spezifikationen diverser älterer Modelle hat mir Zuversicht gegeben, und tatsächlich war meine Sorge eher unbegründet, denn in den allermeisten Fällen lautet die Antwort: Ja! 4K-Desktopauflösung ist für eine halbwegs moderne Grafikkarte selbst im Low-Budget-Bereich kein großes Kunststück, sogar Onboard-Grafikchips kriegen das längst mühelos hin. Meine Grafikkarte steuert auch gerne zwei Monitore mit 4K-Auflösung an, wenn man möchte. Einfach per HDMI, DVI oder DisplayPort anschließen und los gehts. Ob man damit Spiele in 4K-Auflösung spielen sollte, ist natürlich eine gänzlich andere Frage. In den allermeisten Fällen ist das weniger empfehlenswert, außer man besitzt eine teure Gaming-Grafikkarte. Aber kann man jedes Spiel immer auch in einer niedrigeren Auflösung rendern.

Wie sieht das denn mit tollem UHD-Filmmaterial aus? Kriegt man da wenigstens ordentlich was fürs Auge geboten? Ja und nein. Zum einen muss ich gestehen, dass ein 28 Zoll-Monitor wahrscheinlich nicht unbedingt ideal ist, um Filme in so hoher Auflösung qualitativ ausreichend zu beurteilen. Kurzgesagt, in schnellen Action-Sequenzen in denen sich relativ viel bewegt, hat Ultra-HD-Material praktisch keinen wahrnehmbaren Vorteil gegenüber Full-HD, schon gar nicht wenn man sich einfach nur auf den Film konzentriert. Seine größte Stärke spielt 4K z.B. bei Nahaufnahmen von Gesichtern aus, wenn man genug Zeit hat, sich die vielen winzigen Details anzusehen und darüber zu staunen. Aber das sind eigentlich Ausnahmen. In den meisten Fällen dürfte es Durchschnittsmenschen ohne ausgeprägtes Qualitätsempfinden oder Technikwissen schwerfallen, zu erkennen, ob sie gerade einen UHD-Film sehen oder nicht, zumal sehr viele UHD-Filme auf dem Markt entweder ohnehin Upscale-Mogelpackungen sind, oder ältere Filme generell mehr durch ultrawinzigen Filmgrain bestechen als durch echte, sichtbare, ultrahohe Bildqualität.

Für mich ist der erwartete Wow-Effekt leider ausgeblieben. Nicht, dass es ein Fehlkauf gewesen wäre, aber ein wenig mehr erwartet habe ich dann doch. Man könnte nun, wie gesagt, betonen, dass 28 Zoll keine geeignete Grundlage sind, um das richtig zu beurteilen, aber dafür sitze ich am Monitor eben auch sehr viel näher dran als am 50 Zoll Fernseher, den ich immer nur von der entfernten Couch im Blick habe. Im Prinzip sollte sich das also irgendwo ausgleichen. Aber es bleibt mir in jedem Fall ein Monitor mit einer gigantischen Desktopfläche, die ich mit Fenstern zuklatschen kann. Jetzt habe ich sogar soviel davon, dass ich die Hälfte davon als Werbefläche vermieten könnte. Oh Moment, das machen Webseiten ja schon lange so.

Die Situation ist irgendwie absurd: Bei uns im Büro werden die Mitarbeiter mit Firmen-Notebooks abgespeist, die kümmerliche 250 GB Festplattenkapazität mitbringen. Im Jahr 2018! Und dabei sind das sogar recht aktuelle Modelle. Mein letztes privates Notebook habe ich mir vor rund zehn Jahren gekauft, zu einem Spottpreis, und das hatte bereits eine ebenso winzige Festplatte. Kürzlich während der Arbeit ist mir der Festplattenspeicher dann tatsächlich ausgegangen. Das war vielleicht eine Überraschung. Eine äußerst negative. Ich musste ernsthaft meine alten Projektdateien durchforsten auf der Suche nach etwas, was ich am ehesten entbehren könnte, um Platz für Neues zu schaffen. Irgendwelche wehrlosen Daten zu löschen, hat mir Schmerzen bereitet. Ich war felsenfest der Meinung, wir wären endlich dem Zeitalter entwachsen, in dem wir Speicher sparen müssten, und uns die Festplattendimensionen nicht ausreichen würden. Waren wir eigentlich auch!

Tja, und dann kamen die SSDs. Plötzlich werden wieder brandaktuelle Notebooks regulär mit Pipi-Festplatten zwischen 80 und 250 GB verkauft. Und das zu einem Preis, bei dem mir die Augen bluten. Ab in die Steinzeit. Ach, die tollen SSDs sind ja so viel schneller, das rechtfertigt natürlich, dass wir endlich wieder jedes Byte zweimal umdrehen müssen. Zwei Spiele deinstallieren, damit gerade genug Platz für ein neues ist. Das waren lustige Zeiten – jedenfalls so um 1998 rum, also vor 20 Jahren. Heute ist das in jeder Hinsicht peinlich. Da scheiße ich doch auf den Geschwindigkeitsgewinn, wenn DAS der Preis ist. Festplatten sind für mich Daten-Endlager, und was zählt ist das Fassungsvermögen, sonst nichts.

Stimmt schon, der PC startet damit viel schneller. Aber da der PC eh nur morgens einmal startet, während ich mir ohnehin gerade einen Kaffee hole, hält sich der Vorteil für mich hier stark in Grenzen. Was sich für mich aber sehr stark bemerkbar macht, ist die ständig drohende, rote Festplatten-Füllstandsanzeige von Windows, die mir permanent Sorgen macht. Das ist doch wie als würden wir irgendwann mit der ersten Generation von Raytracing-Grafikkarten den Windows-Desktop endlich in fotorealistischer Darstellung rendern können, aber nur in der Auflösung 640×480 – auf unbestimmte Zeit. Mit 256 Farben! Das muss einem die wahnsinnige Bildqualität dann schon wert sein. Dieser Rückschritt ist eben der Fortschritt. Ich will sowas nicht mehr. Hätte man mich gefragt, hätte ich eine interne 2 TB-Festplatte verlangt, also mal eben mit der achtfachen Kapazität, und die wäre noch weitaus günstiger gewesen. Ja, dann dauert das Compilen halt mal ein paar Sekunden länger, dann kann man in der Zeit wenigstens auf die zahlreichen E-Mails antworten, die tagsüber so reinkommen.

Und wie sieht das aktuell eigentlich mit der Preisentwicklung bei den SSDs aus? Gibts bald die bezahlbaren 4 TB SSDs für Jedermann? Die, die schon seit Jahren von den SSD-Fans vollmundig angekündigt werden? Die, die die antiquierte Magnetfestplattentechnik endlich ins Museum schicken werden? Nein, gibts nicht. Wer hätte es gedacht. SSDs bleiben weiterhin klein und teuer. Erst kürzlich habe ich in einem Artikel einen Ausblick auf die SSD-Preislage der kommenden Monate gelesen, nach dem nicht zu erwarten ist, dass der Preis pro GB bei SSDs signifikant fallen wird. Es scheint als würde sich das Thema allmählich einpendeln. Keine Sorge, die SSDs werden permanent größer, aber eben auch linear teurer.

Und die museumsreifen Magnetfestplatten? Wenn man mal vom hohen Preis absieht, sind 12 TB Festplatten bereits käuflich zu erwerben (derzeit bei 37 EUR/TB), die ersten 14 TB-Modelle kommen noch in diesem Jahr, die Technik für 16 TB HDDs steht für 2019 in den Startlöchern. Und wenn die HAMR-Technik mal Marktreife erlangt, werden die Magnetfestplatten sogar in Regionen jenseits der 20 TB vorstoßen. Von bis zu machbaren 100 TB im folgenden Jahrzehnt ist da die Rede. Günstige Festplatten gibt es für knapp 24 EUR/TB, wo man aktuell im Bereich zwischen 3 und 8 TB das beste Geschäft macht. Und das beste daran ist, bei dieser Art Festplatte ist der sinkende Preis quasi garantiert: Jede neue Generation auf dem Markt sorgt für einen Preisrutsch bei den vorangegangenen.

Auch nach aktuellem Stand ist nicht anzunehmen, dass SSDs so bald das alleinige, dominierende Produkt sein werden, sondern beide Formate noch viele Jahre nebeneinander existieren werden. Da können die SSD-Fans noch so sehr schimpfen über die schrottreifen, anfälligen, steinzeitlichen, (weitere Schmähbegriffe bitte hier einfügen) Magnetfestplatten, die eigentlich alle sofort vom Markt genommen und abgewrackt werden müssten. Aber zum Glück sehen das nicht alle so eindimensional.

gez. Einer, der 14 HDDs und 3 SSDs im Einsatz hat

Noch vor wenigen Jahren habe ich jedem gegenüber meine tiefste Verachtung zum Ausdruck gebracht, der mich zum Thema Festplattengrößen fragte, „wer denn soviel Platz bräuchte“. Jeder, der durch solche und ähnliche Pauschaläußerungen seine gnadenlose Beschränktheit offenbarte, ist mir meine teure Zeit und Hirnkapazität eigentlich nicht wert, erst recht keine selbsternannten IT-„Experten“, die sich dann dummerweise durch solche Sprüche entlarven. Inzwischen würde ich die Thematik vielleicht sogar schon etwas lockerer sehen, denn man ist heute in der wahnsinnig komfortablen Situation, dass man nicht nur exorbitant große Festplatten für wirklich wenig Geld bekommt, sondern auch, dass die bislang – gemessen am Preis pro Gigabyte – unbezahlbaren SSD-Festplatten längst in angenehmere Preisregionen gefallen sind.

Im Grunde genommen bin ich nun zum ersten Mal seit Beginn meiner Nutzung diverser Computer in den späten 80er Jahren nicht mehr ständig auf der Suche nach mehr Speicherplatz. Tatsächlich fällt es jetzt sogar mir als Datenhamster und -messie wirklich schwer, den verfügbaren Speicherplatz zu füllen. Wo ich früher im Prinzip täglich jede Menge Datenkrempel auf große Stapel voller CD-Rohlinge auslagern musste, da die Festplatten immer bis zum Anschlag voll waren, habe ich heute soviel Platz, dass ich mir überhaupt keine Sorgen machen muss. Ich habe sogar derart viel Platz, dass ich mir terabyteweise Redundanz leisten kann – vor 15 Jahren mit dem knappen Taschengeld eines Teenagers undenkbar, und auch vor zehn Jahren mit BAföG kaum machbar. Schlimmer noch, musste ich schon damals im Jahresabstand neue Festplatten hinzukaufen, um nicht Gefahr zu laufen, kostbare Daten löschen zu müssen: 1997 noch mit mickrigen 2,1 Gigabyte, 2005 dann mit gefühlten endlosen 500 GB. Beide waren in ungefähr der gleichen Zeit gefüllt. Das Speicherplatz-Wettrüsten war erstmals mit dem Kauf einer 6 TB-Festplatte Ende 2014 beendet, seitdem kann ich mich entspannt zurücklehnen.

Jahrelang tat sich nichts im Bereich Festplattenkapazitäten. Längst hatte ich Angst, dass bei den 4 TB-Modellen eine unüberwindbare physikalische Grenze erreicht war, quasi das Ende der Fahnenstange. Gleichzeitig änderte sich aber eine ganze Menge bei den immer populärer werdenden SSDs, und daher wollten diesen Umstand die Techniklaien dieser Welt als das (warum auch immer) herbeigesehnte Ende der herkömmlichen Festplatten verstehen. Schaut man sich heute mal bei den üblichen Hardware-Versandhändlern um, so findet man endlich 8 TB-Festplatten für nur noch 250 Euro. Die Technik für 10 TB und sogar 20 TB liegt bereits in den Schubladen der Festplattenhersteller. Solche Festplatten werden bewusst teilweise mit dem Namenszusatz „ARCHIVE“ versehen, da solche Massenspeicher sich in Sachen Zugriffszeiten, sowie Datenübertragungsraten mit den SSDs sowieso nicht messen können. Aber sie haben den gigantischen Vorteil ihrer Kapazität, und den kann noch keine SSD ersetzen. Vielleicht noch eine ganze Weile nicht. Die größten Consumer-SSDs mit 2 TB sind zwar schon im Handel erhältlich, jedoch für knapp 1000 Euro in keinster Weise vergleichbar, meiner Ansicht nach auch dann nicht, wenn man versucht, mit der höheren Geschwindigkeit zu argumentieren.

Aber eines beweist mir die aktuelle Situation dann doch: Noch vor wenigen Monaten las ich in einem Technikforum die Behauptung, dass es technisch nicht möglich sein dürfte, in den kommenden Jahren SSDs mit Kapazitäten jenseits der Terabytegrenze zu bauen, da hierfür extreme Strukturverkleinerungen nötig wären. Inzwischen zweifle ich doch sehr stark an dieser Aussage. Es würde mich schon nicht mehr wundern, wenn die Consumer-SSDs in einigen Jahren mit den magnetischen Festplatten gleichziehen würden. Aber bis es soweit ist, werde ich die verblödeten SSD-Nazis auch weiterhin in die Schranken weisen. Storage ist vielen Menschen bei Festplatten eben deutlich wichtiger als reine Geschwindigkeit.

Ende vergangener Woche, es muss bereits am Freitag oder Samstag gewesen sein, da bildete ich mir ein, dass mein neuer PC unter dem Schreibtisch irgendwie ein bisschen anders klang als normalerweise. Es war nicht lauter oder spürbar höher, es war vielleicht nur eine geringfügig andere Tonlage, jedenfalls bei weitem nichts Alarmierendes. Ich dachte natürlich zuerst an einen der vielen Lüfter im Gehäuse, am Prozessor oder an der Grafikkarte. Allerdings hätte ich mich mit dem merkwürdigen Klang auch sehr leicht täuschen können, daher hakte ich das Thema ab. Der Rechner, der bei mir wie seit je her an freien Tagen im Dauerbetrieb läuft, machte auch keine Probleme, alles lief wie gewohnt angenehm und schnell.

Gestern zur Mittagszeit – also etwa vier Tage später – wollte ich nach längerer Pause mal wieder „Ori and the Blind Forest“ weiterspielen, an dem ich mir hin und wieder in masochistischen Phasen gepflegt die Zähne ausbeiße oder die Haare ausreiße. An sich absolut kein hardwarefressendes Spiel, auch bei schwindelerregenden Bildschirmauflösungen nicht. Als schon die kleinen einleitenden Videoclips stockten, machte mich das höchstens stutzig. Die darauf folgende Ladezeit für das Hauptmenü, die üblicherweise 2-3 Sekunden beträgt, war inzwischen auf 20-25 Sekunden angewachsen. Hier war ich schon sehr beunruhigt. Im Spiel selbst offenbarte sich das gesamte Ausmaß des Grauens: Meine Spielfigur bewegte sich dermaßen ruckelig über den Bildschirm, dass an Spielen überhaupt nicht mehr zu denken war. Selbst der Ton stotterte gequält vor sich hin.

Der reflexartige Windows-Neustart änderte leider überhaupt nichts. Okay, dann war vielleicht das Spiel irgendwie durch ein Windows- oder Geforce-Treiberupdate kaputtkonfiguriert worden. Wär doch möglich. Ein anderes Spiel war schnell gestartet, doch auch hier zeigten sich deutliche Performance-Probleme. Die Prozessorauslastung habe ich überprüft, sah jedoch nicht ungewöhnlich aus: Für meinen Geschmack vielleicht eine Spur zu hoch, aber noch lange nicht am Anschlag. Alles klar, die Grafikkarte ist das Problem, dachte ich. Das kleine Tool „GPU-Z“ wurde heruntergeladen und die gemessenen Werte abgelesen. Selbst im Spielbetrieb hat die Grafikkarte kaum was zu tun, auch die Temperatur ist normal.

Als nächstes verdächtigte ich die Windows-Updates, die ich ungefähr zur selben Zeit installierte, als das Problem aufgetreten sein muss. Das war die ideale Gelegenheit, mal wieder diese ominösen Wiederherstellungspunkte auszuprobieren, die das Betriebssystem fleißig vor jedem Updatevorgang anlegt. Ein Zeitpunkt von vor etwas weniger als zwei Wochen wurde ausgewählt, die Zeitreise initiiert, das System entsprechend zurückgesetzt. Nach dem Neustart startete ich mit Spannung eines der problematischen Spiele, doch nach wie vor ruckelte dieses entsetzlich. Einige weitere Versuche mit anderen Spielen zeigten Leistungseinbußen unterschiedlichen Grades, je nachdem wie alt das Spiel war. Wegen der extremen Ladezeiten verdächtigte ich jetzt auch die Festplatte und den Arbeitsspeicher. Die Paranoia griff um sich.

Ein im Umgang mit Hardware sehr viel versierterer Kumpel hatte schon früh ein mögliches Temperaturproblem angesprochen, doch dafür gab es so gut wie keine Anzeichen. Dennoch öffnete ich auf seinen Rat hin das Gehäuse, und fand einen einwandfrei laufenden Prozessorlüfter vor, der auch nicht etwa zugestaubt war. Kein Hitzestau im Gehäuse oder in der Nähe des Kühlers, also alles bestens. Eine insgesamt etwa zwanzigsekündige Internetsuche führte mich zu dem kleinen Tool „Core Temp“, das mir prompt eine (CPU-)Kerntemperatur von nur knapp unter 100°C bescheinigte. Wow, das wäre ja heftig. Wahrscheinlich ein Messfehler, mutmaßte ich. Das Problem mit dem „Offset“ bei den Temperatursensoren war mir schließlich schon lange bekannt. Auf die Anzeige war wohl kein Verlass. Ich sollte doch mal kurz am Kühler wackeln, wurde mir vorgeschlagen. Ungläubig folgte ich dieser Anweisung. Tatsächlich war der Kühler unerwartet wackelig.

Als die Temperatur schlagartig auf unter 40°C fiel, stellte ich erschrocken fest, dass ich den Rechner möglichst sofort ausschalten sollte. Offensichtlich lief mein Core i7 seit mindestens 96 Stunden mehr oder weniger ungekühlt bei fast 100°C ohne Last, was definitiv keine gesunde Betriebstemperatur ist. Es hatte den Anschein als hätten sich die vier Haltestifte gelöst, die den Kühler auf dem Prozessor fixieren sollten. Es grenzt an ein Wunder, dass er das alles schadlos überstanden hat. Tapfer und ohne Meckern hat er diese Tortur die ganze Zeit mitgemacht, und im Desktopbetrieb war tatsächlich keine Einschränkung zu bemerken. Erst bei den Spielen war es mir möglich, festzustellen, dass etwas nicht in Ordnung war.

Mich ärgert nur, dass es keinerlei Sicherheitsmechanismen gab, die gegriffen haben, und auch keine Warnungen. Wo ist die Notabschaltung hin, die schon vor 15 Jahren den Rechner zuverlässig abschaltete, wenn er zu heiß wurde? Wo ist die dynamische Lüftersteuerung, die mich schon vor 5 Jahren beinahe in den Wahnsinn trieb, wenn der Rechner im Sommer manchmal genauso klang wie ein Flugzeugtriebwerk? Eines dieser Anzeichen hätte gereicht, und ich hätte sofort gewusst, was zu tun ist. Wo bleiben denn die sonst so nervtötenden Balloon-Tooltips der Art „Es gibt ein Temperaturproblem“, wenn man sie mal ganz dringend bräuchte? Jeden Scheiß meldet Windows dem Benutzer, aber hier lässt es mich so lange im Unklaren, bis der 300 Euro teure Prozessor irgendwann sang- und klanglos abgeraucht wäre? Ich finde doch zu einem Betriebssystem gehört es auch, die Betriebstemperatur der „lebenswichtigsten“ Komponenten zu kennen.

Sehr verehrte Leser und Nichtleser, die Artikelarmut der vergangenen Tage möchte ich erneut entschuldigen, doch sie beruht dieses Mal nicht etwa auf Schreibfaulheit – nunja, doch auch – aber weitestgehend auf der Tatsache, dass ich mit viel wichtigeren Dingen beschäftigt war: Ich habe mein wunderbares Weihnachtsgeschenk für das Jahr 2014 an mich selbst bestellt, ausgepackt, zusammengeschraubt, verkabelt, aufgestellt und mühsam eingerichtet. Die Rede ist von meinem leistungsfähigen Arbeitsgerät, meinem inzwischen fünften Desktop-PC, der jetzt mein kleines Homeoffice schmückt. Mit stundenlangen terabytegroßen Backups und allem drum und dran war ich so tatsächlich einige Tage mit dem Thema befasst.

Beinahe sechs Jahre lang habe ich meinem tapferen Zweikerner die Treue gehalten, doch inzwischen war er altersschwach geworden, genügte den Ansprüchen leider nicht mehr. Ich bin stolz auf ihn, dass er in dieser Zeit trotz 24/7-Dauerbetriebs nie schlapp gemacht hat. Von Hardware-Defekten bleibe ich irritierenderweise meistens verschont, und wenn dann fallen nur unkritische Teile aus. Das machte es mir aber nur noch schwerer, die alte Kiste in den Ruhestand zu schicken, wo sie doch noch einwandfrei funktioniert hat. Der Rechner davor – übrigens von 2004 – wurde ebenfalls in Rente geschickt, obwohl er noch fleißig arbeitete. So musste ich mir also wieder irgendeinen Vorwand ausdenken, weswegen ein neuer PC dringend nötig wäre, wenn ich nicht noch weitere unzählige Jahre darauf warten wollte, bis der Prozessor den Staubtod stirbt.

homeoffice

Dieses Mal durfte es endlich eine Vierkern-CPU (4 x 3,6 GHz) sein, dazu 16 GB Arbeitsspeicher und einer GeForce GTX 970 mit 4 GB 3,5 GB Grafikspeicher. Als Massenspeicher dienen eine 500 GB SSD fürs Betriebssystem und die Programme, und eine weitere 6 TB HDD als Datengrab. Kaum zu glauben, dass es so große Festplatten schon wieder halbwegs bezahlbar gibt. Außerdem habe ich einen Blu-ray-Brenner eingebaut. Als Bonus gab es neue Peripherie, denn die alte sah auch schon sehr abgenutzt aus. Und der Höhepunkt ist ein neuer 27-Zoll-Monitor mit einer nativen Auflösung von 2560×1440. Als Zweitmonitor für den erweiterten Desktop bleibt mir der alte 24-Zöller erhalten, was mir als Fenster- und Icon-Messie sehr gut passt, denn jetzt habe ich wirklich viel Platz.

Die Aufrüstung war leider nicht ganz billig, so dass das Gerät mein bisher teuerster Rechner ist, und das obwohl ich bei so ziemlich allen Komponenten bei den Sparversionen geblieben bin. Für einen Aufpreis von 50 oder 100 Euro hätte es meine Grafikkarte in der übertakteten oder in der Extreme-Version gegeben, für weitere 50 Euro hätte es meine CPU mit größerem Takt und verbesserter Architektur gegeben, der Monitor ist ebenfalls einer der günstigsten mit dieser technischen Ausstattung. Auch bei den SSDs gibt es nach oben keine Grenze, weshalb ich mich auch hier ziemlich genau an der unteren Grenze orientiert habe. Wie gesagt, ein teurer Spaß trotz allem, aber der Rechner wird wieder frühestens in 6 Jahren abgelöst, daher habe ich im Moment kein schlechtes Gewissen.

Wichtig ist mir beispielsweise, dass der Rechner die nächsten Jahre spieletauglich bleiben wird, und daran werden moderne Rechner ja schließlich oft gemessen. GTA5, Dragon Age Inquisition oder Alien Isolation – es gibt so einiges, das mein alter PC nicht mehr problemlos mitgemacht hätte. Auch wollte ich definitiv gerüstet sein, wenn es die Oculus Rift (oder gerne auch ein vergleichbares Konkurrenzprodukt) in einer Consumer-Version geben wird, dass ich dann nicht auch noch um die benötigte Mindestleistung der Grafikkarte zittern muss. Das Ding wird angeschlossen und hat gefälligst sofort ruckel- und latenzfrei zu laufen.

Beim Zusammenschrauben ist mir aufgefallen, dass ich nach all den Jahren ein wenig aus der Übung gekommen bin, aber positiv muss ich anmerken, dass man heute nicht mehr viel falsch machen kann. Mainboard ins Gehäuse schrauben, Prozessor und Kühler einsetzen, das ist alles kein Hexenwerk mehr. Fast jeder Handgriff wird in den Handbüchern beschrieben, so Dinge wie Jumper-Einstellungen sind heute ja zum Glück ausgestorben, auch muss man längst nicht mehr mit Kühlpaste rumschmieren. Es war nach dem ersten Einschalten doch wirklich erleichternd zu sehen, dass ich auf Anhieb alles richtig gemacht habe. Ein IKEA-Regal ist schwieriger zusammenzubauen als ein PC, und dauert zudem noch länger.

Jetzt kann ich Artikel für meine Webseite endlich noch flüssiger schreiben und E-Mails noch viel schneller lesen. Die Technik bleibt eben nicht stehen. Und BioShock Infinite hab ich jetzt endlich auch mal angespielt. Ich müsste nun mal schauen ob ich mit der neuen Hardware ein Video von SPACOLA Eclipse mit höherer Bildrate mitschneiden kann, denn bei 26 fps ist der alte Prozessor bislang eingeknickt, obwohl das Spiel in der doppelten Framerate läuft. Momentan ist der Unterschied zwischen Video und echtem Spiel wirklich nicht zu vernachlässigen.