Admins Weblog

Winfried Mueller, www.reintechnisch.de

12.01.2022 :: USB-Stick Geschwindigkeiten

Mal wieder ein paar Sticks getestet. Mit AS SSD Benchmark. 1GB Daten, nur Seq-Test.

StickRead MB/sWrite MB/s
Kingston Exodia 128GB11527
Kingston Exodia 64GB8512
Kingston Exodia 32GB8612
Kingston Datatraveler 16GB ws/bl717
Toshiba 8GB USB2355
Verbatim Pinstripe 128GB24013
Transcend JetFlash 790 sw/bl 32GB8816

Interessant, dass die Kingston Exodia der gleichen Baureihe bei 128GB deutlich schneller sind, als 64/32 GB.

24.01.2020 :: Upload auf Samba Freigabe bricht nach einer Minute ab

  • Umfeld: Windows 10 bei Zugriff auf Samba Freigabe, die über DSL-VPN kontaktiert wird
  • Problem taucht bei Datentransferraten <136KB/s unter W10 auf und ist Timeout bedingt.
  • Lösung: SessionTimeout von 60 auf 600 hochstellen
    • Admin-Powershell: Set-SmbClientConfiguration -SessionTimeout 600
      • Abfrage des Wertes mit Get-SmbClientConfiguration
  • Bug ist hier dokumentiert:

28.11.2019 - Schraubenabstände 3,5 Zoll Festplatten

Beim Umbau auf SSD braucht es in der Regel einen Umbaurahmen von 3,5 Zoll auf 2,5 Zoll. Öfter gibts da Probleme, weil diverse Einbaurahmen zu kurz sind.

Eine 3,5 Zoll Festplatte hat pro Seite 3 Schraublöcher. Vom hinteren Loch (Nähe Steckverbinder) zum mittleren Loch sind es 41,5mm. Zum nächsten Loch 60,5mm. Ein Einbaurahmen muss als deutlich länger als 60,5 mm + 41,5mm = 102mm sein. Rechnet man 10mm Reserve vorne und hinten dazu, sind es 122mm.

Zahlreiche Einbaurahmen nutzen nur 2 Löcher, um an Länge zu sparen. Umgedreht gibts zahlreiche Rechner, die brauchen für den Einbau die äußeren beiden Löcher, weil das auch die übliche Schraubposition ist. Es gibt hier auch Plastikrahmen, die ebenfalls an den äußeren Löchern einhängen (z.B. Dell).

Kleine Orientierung: Hat ein Einbaurahmen pro Seite 3 Löcher, wo das mittlere auch deutlich asymmetrisch angeordnet ist (41,5/60,5mm), dann sollte es passen.

24.11.2019 - Outlook Internas

Gut vertraut bin ich nicht mit Outlook, weil ich es nicht nutze. Hatte aber letztens einen Bekannten, wo ich Outlook nach einem Computerausfall auf einem neuen Rechner wieder ans Laufen bringen musste. Die .pst Dateien waren als Backup vorhanden.

Hier ein paar Erkenntnisse:

  • In einer pst-Datei sind alle Mails einer Mailadresse enthalten.
  • Damit Mails einer Mailadresse in eine pst-Datei hineingehen, muss diese Mailadresse damit verbunden sein. Unter Kontoeinrichtung kann man die Mailkonten anlegen und dort erfolgt auch die Zuordnung zu der pst-Datei. Die pst-Datei muss glaube ich vorher schon unter der Dateiliste hinzugefügt werden, die man auch unter den Konteneinstellungen im Reiter "Datendateien" findet.
  • In den .pst Dateien werden keine Mailzugangsdaten gespeichert, was ein Problem ist. So hat man nämlich im Backup keine Zugangsdaten. Die Zugangsdaten liegen in der Registry, also nicht mal so eben zu sichern.
  • Ein Rücksetzen von Outlook, falls man es falsch eingerichtet hat, empfiehlt sich, weil Outlook teilweise sehr störisch ist, einmal gemachte Einstellungen wieder sauber zu entfernen. Gelungen ist es mir mit mobackup, welches im Menü diese Möglichkeit bietet. Wenn man die Registry-Schlüssel kennt, kann man diese auch löschen.

28.10.2019 - Geschwindigkeiten USB3 Sticks + SDCard

Testverfahren:

  • Testdatei mit Randomdaten 1000MB groß.
  • Testdatei von interner HDD auf Stick kopieren (=Schreibgeschwindigkeit)
  • Testdatei von Stick auf interne HDD kopieren (=Lesegeschwindigkeit)
  • Kopieren mit copy auf cmd-Line
  • USB 3 Port, Dell Optiplex 9020, i5
  • 2 Durchläufe, um grobe Fehler auszuschließen
  • FAT32 Format
  • ACHTUNG: Vor Lesen immer Kaltstart des Systems, weil sonst Daten noch im Rechner-Cache sind und das Ergebnis völlig verzerrt.

Getestete Hardware:

  • Kingston DataTraveler G4, 32GB, USB3: (Kauf: 10/19)
    • Schreiben: 5,49 MB/s
    • Lesen: 22,7 MB/s
  • Verbatim PinStripe 128GB, USB3: (Kauf: 10/19)
    • Schreiben: 12,6 MB/s
    • Lesen: 200 MB/s
  • Sandisk Ultra USB3.0, 32GB:
    • Schreiben: 35,0 MB/s
    • Lesen: 125 MB/s
  • Kingston DTSE9 G2, USB3.0, 32GB:
    • Schreiben: 10,7 MB/s
    • Lesen: 32 MB/s
  • Transcend 32GB Micro SDHC, Class 10 (Kauf: 11/18)
    • Schreiben: 23,25 MB/s
    • Lesen: 83,33 MB/s

30.05.2018 - Norton Security neuen Schlüssel eingeben

In der neuen Version hat Norton den Ort schön versteckt, wo man einen neuen Produktschlüssel eingeben kann. Der befindet sich jetzt unter Hilfe. Dort dann unten rechts "Produktschlüssel eingeben".

Die Preisunterschiede sind immer wieder erstaunlich. Verlängert man sein Abo mit der eingebauten Funktion, würde man 44,90 Euro für eine Lizenz für ein Jahr bezahlen. Über andere Anbieter z.B. über Ebay bekommt man eine 5er Lizenz für 20-25 Euro.

03.05.2017 - Windows 7 Update geht nicht mehr

Kommt blöderweise immer häufiger vor, dass das automatische Windows-Update nicht mehr funktioniert und man auch nicht gewarnt wird.

Hier ein Werkzeug, mit dem man es evtl. wieder ans Laufen bekommt:

Tipp: Bei jedem Windows 7 Rechner prüfen, ob die Updates aktuell sind.

30.05.2015 - Rechner hängt regelmäßig - SSD

Ein Lenovo R61i Notebook hing immer wieder alle paar Minuten, so dass gar nichts mehr ging. Auffällig war, dass die Festplatten-LED ständig leuchtete. Und es wurde vor Kurzem die Festplatte durch eine SSD ausgetauscht. Im Logfile fand man auch Timeout-Fehler von iaStor: "Das Gerät \Device\Ide\iaStor0 hat innerhalb der Fehlerwartezeit nicht geantwortet."

Erlösung von diesem blöden Phänomen brachte dieser Artikel: http://www.hyperraumumgehungsstrasse.de/573/das-gerat-deviceideiastor0-hat-innerhalb-der-fehlerwartezeit-nicht-geantwortet-ssd-vertex-3

Hier nochmal kurz die Einstellungen in der Registry, die angepasst werden müssen:

 
[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\services\iaStor\Parameters\Port0]
“AN”=dword:00000000
“LPM”=dword:00000000
“LPMSTATE”=dword:00000000
“LPMDSTATE”=dword:00000001
“GTF”=dword:00000000
“DIPM”=dword:00000000

24.04.2015 - Fiese Falle - Festplattenpasswort

Ich hatte noch ein paar 2,5 Zoll Laptopfestplatten rumliegen. Wir hatten ein paar Geräte mit SSD nachgerüstet und so lagen die alten Platten jetzt 1 Jahr rum. Ich wollte die jetzt mal sicher mit DBAN löschen. Also an einen USB-SATA-Adapter angeschlossen, an USB angestöpselt und DBAN gestartet.

DBAN lief, wenn auch irgendwie mit 4MB/s sehr langsam. Irgendwann brach es aber mit einem Fehler ab.

Ich hab dann diverse andere Tools versucht, die sich aber durchweg sehr merkwürdig verhielten. Von einer Linux-Livedisk wurde die Platte zwar erkannt, ein Lesen oder Schreiben per dd schlug aber fehl. Acronis fand sie erst gar nicht. Windows 7 fand sie, konnte aber nicht mal einen MBR drauf schreiben.

Zuerst dachte ich, die Festplatte wäre defekt. Merkwürdig war aber, dass mehrere Platten sich genauso verhielten. Den USB-Sata Adapter hatte ich dann auch im Verdacht, ein neu gekaufter Adapter verhielt sich aber genauso.

Irgendwann kam mir der gewünschte Geistesblitz wie aus heiterem Himmel. Richtig, auf den Platten ist ja ein Festplattenpasswort. Das ist ein Passwort, was die Festplatte selber vor Zugriffen abriegelt und über das Bios vergeben wird. Das Bios des Ursprungsrechners speichert es selber nicht, sondern gibt es an die Festplatte weiter und dort wird es auf irgendeinem Sektor außerhalb des normalen Bereiches abgelegt. Diese Funktionalität besitzen nahezu alle Sata-Platten der letzten 8 Jahre. Auch die SSDs können das.

Eine so geschützte Platte ist zwar nicht verschlüsselt, aber ein Zugriff ist ohne Kennwort nicht möglich. Und noch mehr: Nicht mal ein Formatieren mit den üblichen Werkzeugen ist möglich. Lediglich eine Lowlevel-Formatierung mit speziellen Werkzeugen des Festplattenherstellers ist machbar.

Weil diese Festplattenpasswörter relativ spät in der Festplattenentwicklung Einzug hielten, klappt da einiges nicht optimal. Wenn man so eine Platte nämlich per USB anschließt, wird nirgendwo ein Passwort abgefragt. Betriebssysteme haben oft keine Funktionalität in diese Richtung und das Bios kümmert sich nicht um USB-Platten. Vermutlich kann noch nicht mal der SATA-USB-Controller damit umgehen, womit sich der Betriebssystem-Support eh erledigt.

Auch die ganzen Werkzeuge erkennen nicht, dass es sich um eine gesicherte Festplatte handelt und versuchen ihren normalen Job und das führt dann zu diesem unklaren Fehlerbild. Das ist hier ja das Problem: Wäre der Fehler eindeutig rückgemeldet worden, hätte ich mir die stundenlange Fehlersuche sparen können.

FAZIT: Bevor man eine Festplatte aus einem Gerät ausbaut, immer erstmal das Festplattenkennwort zurücksetzen. Das geht im Bios, in dem man zuerst das richtige Passwort eingibt und dann ein neues Leerpasswort (ohne Eingabe) vergibt.

24.01.2015 - Geschwindigkeitstests USB-Sticks

Hier mal die Geschwindigkeiten von aktuell gekauften Sticks.

Testbedingungen: 1GB Random Testfile, was von lokaler Festplatte auf Stick geschrieben wird bzw. vom Stick gelesen und auf lokale Platte geschrieben. Rechner Lenovo Edge E531. Kopiert in cmd-Fenster mit copy. Filesystem NTFS.

  • Stick: Kingston DataTraveler DT101G3 32GB (USB3)
  • USB3 lesen: 93MB/s
  • USB3 schreiben: 16,5MB/s
  • USB2 lesen: 32MB/s
  • USB2 schreiben: 11MB/s
  • Stick: Toshiba TransMemory-MX 64GB Black (USB3)
  • USB3 lesen: 113MB/s
  • USB3 schreiben: 30MB/s
  • USB2 lesen: 32MB/s
  • USB2 schreiben: 15,3MB/s
  • Stick: Kingston DataTraveler DTSE9H 8GB (USB2)
  • USB2 lesen: 20,48MB/s
  • USB2 schreiben: 3,68MB/s
  • Stick: Intenso Alu Line 64GB (USB2)
  • USB2 lesen: 15,75MB/s
  • USB2 schreiben: 4,1MB/s

Fazit: USB3 Sticks sind auch im USB2 Betrieb deutlich schneller. Vor allem beim Schreiben. Der Toshiba Stick ist nicht der Schnellste, aber mit 29 Euro bei 64GB recht preisgünstig. Der wesentlich langsamere Intenso USB2 Stick kostete 20 Euro. Technisch hat der ein Problem: Die Kappe ist so leichtgängig, verliert man sofort. Der Kingston Traveler 8GB ist mit 5,07 Euro sehr günstig und sehr klein.

Die Herstellerwerte weichen stark von den gemessenen Werten ab. Intenso z.B. 28MB/s lesen und 6,5MB/s schreiben.

Die USB2-Sticks haben sich auch nicht weiter entwickelt. Ein 6 Jahre alter Kingston Data Traveler schaffte 11,3MB/s beim schreiben. Die gerade gekauften Sticks sind Faktor 3 langsamer.

Vergleich mit ermittelten Werten aus 2012, alles USB2.0:

DatenträgerSchreiben (MB/s)Lesen (MB/s)
Sandisk Cruzer Slice 64GB3,816,0
Sandisk Cruzer Blade 8GB2,715,1
Transcend 8GB Jetflash 30011,314,0
cnemory 4GB4,414,6
Kingston Data Traveler 16GB11,314,0
WD 2,5 Zoll 500GB HDD24,432,0

17.01.2015 - Leitungssuchgeräte

Hab mir letztens ein Leitungssuchgerät zugelegt, um die Adern der Netzwerkverkabelung zu verfolgen. Nach etwas Recherche fand ich den Testboy 26 passend, der zudem für 90 Euro relativ preisgünstig zu haben ist. Ein wenig rumgespielt hab ich schon damit, aber noch keine echten Erfahrungen aus der Praxis.

Heute war der Telekomtechniker im Haus, da interessierte mich doch auch gleich, was der für ein Gerät hat. Es war ein Rose PTS93 für etwa 200 Euro. Ein Vorteil hab ich schon gesehen: Der Testboy hat eine feste Kunststoff-Tastspitze, was nicht immer optimal ist. Am Rose Tester kann man beliebige Detektier-Spitzen über eine Klinkenbuchse anschließen.

Wer ein absolut alltagsgeprüftes Gerät sucht, sollte sich auf jeden Fall den Rose anschauen. Was die Telekom tagtäglich einsetzt, muss schon irgendwie Hand und Fuß haben.

Weblinks:

11.01.2015 - Mehrere Netzwerke an einem Windows PC

Die Situation kann schnell entstehen, dass auf einem PC mehrere Netzwerke auflaufen.

Ein typisches Szenario:

  • Ein Laptop geht mit einem UMTS-Stick Online. Dieser Stick baut ein Netzwerk auf.
  • Gleichzeitig hängt der Laptop über einen WLAN-Router an einem NAS und einem Drucker. Dieses Netzwerk hat keinen Zugriff auf das Internet.

In so einem Szenario geht dann schnell etwas schief. Der Computer bezieht über DHCP eine Adresse für das interne WLAN-Netzwerk. Gleichzeitig schickt DHCP noch ein Default-Gateway mit, was auf den Router selber zeigt. Das Default-Gateway ist ja immer die Route, die Windows für alle Pakete wählt, deren IP-Zieladresse außerhalb des eigenen Netzwerkes liegen. Wenn man also ins Internet will, werden all diese Pakete ans Default-Gateway weitergereicht, welches dann weiß, wohin es diese Pakete weiterschickt.

Klar ist, dass es nur ein Default-Gateway geben kann. Denn Pakete ins Internet sollen ja einen eindeutigen Weg haben. In unserem Fall sollen sie eben nicht über das interne Netz laufen, weil dort zwar ein Router hängt, der ist aber nicht mit dem Internet verbunden.

Solange der Surfstick noch nicht angeschlossen ist, macht dieses fehlerhafte Default-Gateway nichts. Die landen einfach beim Router, der sie nicht weiterreicht. Weil wir eh nicht mit dem Internet verbunden sind, ist das egal.

Wenn wir aber den Surfstick anschließen, macht der nochmal das Gleiche: Auch er definiert ein Default-Gateway zu sich, was ja sinnvoll ist. Allerdings: Windows hat nun 2 Default-Gateways konfiguriert, was eigentlich Unsinn und inkonsistent ist. Und es führt in der Tat auch zu unsinnigen Ergebnissen, die auch noch zufällig sind und damit ein scheinbar unstabiles System bilden.

Welches Default-Gateway jetzt verwendet wird, bestimmt die Metrik des Eintrages. Weil die Metrik aber typischerweise den gleichen Wert hat, ist das Ergebnis wirklicih zufällig. Mal gehen Pakete über den Stick, mal gehen sie übers interne Netzwerk. Genau das hab ich tatsächlich schon in der Praxis erlebt: Ein Zugriff auf das Web per Firefox funktionierte, das Abrufen von Mails ging hingegen nicht, weil diese Pakete im internen Netz landeten. Das ist eine sehr üble Misskonfiguration, die man sich nicht so schnell erklären kann.

Was wir eigentlich bräuchten: Internes Netzwerk bitte kein Default-Gateway. Nur der Surfstick soll ein Default-Gateway setzen. Aber: Das funktioniert mit DHCP und den üblichen Consumer-Routern nicht. Die sind etwas narzisstisch veranlagt und meinen grundsätzlich, sie wären der Mittelpunkt der Welt. Man kann die nicht dazu überreden, beim DHCP-Austausch kein Default-Gateway weiter zu geben.

Der einzige Ausweg aus dieser Misere ist: Wir müssen eine statische IP-Konfiguration für das WLAN/interne Netzwerk vornehmen. Hier ist es dann möglich, das Default-Gateway leer zu lassen. Sinnvollerweise lassen wir auch DNS leer.

So funktioniert es dann auch mit dem Surfstick. Greifen wir auf Adressen innerhalb unseres Netzwerkes zu, geht das Paket übers WLAN. Alle anderen Pakete gehen über das einzige Default-Gateway, was es jetzt gibt und das zeigt auf den Surfstick.

Nachteilig ist, dass die IP-Konfiguration an den Adapter und nicht an die WLAN-Verbindung gebunden ist. Wollen wir uns als nun mal schnell in einem anderen WLAN anmelden, geht das nicht, weil unsere statische IP garantiert nicht kompatibel sein wird. Wir müssten dann immer die IP-Konfiguration auf DHCP ändern.

Für solche Szenarien gibt es aber auch Programme wie netsetman, mit denen man mehrere Profile verwalten kann, womit man dann sehr schnell die WLAN-Konfiguration umschalten kann.

Jetzt gibts allerdings noch ein total dämliches Problem. Ein typisches Windows-Problem, worüber man aus der Linux-Ecke nur den Kopf schütteln kann. Windows versucht, jedes Netzwerk automatisch zu erkennen. Das versucht es vor allem über das Gateway, aber noch ein paar andere magische Sachen, die keiner so richtig kennt. Wenn man nun ein Netzwerk ohne Gateway anlegt, meldet Windows "Nicht identifiziertes Netzwerk" und schaltet es auf "Öffentliches Netzwerk". Damit sind natürlich die Firewall-Einstellungen sehr restriktiv. Ich hab ja nichts gegen Automatiken, aber das man die nicht manuell irgendwie überschreiben kann, ist schon unglaublich. Es scheint in der Tat keine Möglichkeit zu geben, Windows davon zu überzeugen, dass dieses Netzwerk ohne Gateway vertrauenswürdig ist, damit man es z.B. als Arbeitsplatznetzwerk einbindet.

Für einen Zugriff auf Drucker oder eine Dateifreigabe reichen die Rechte, die man als "öffentliches Netzwerk" hat. Wenn das aber nicht reichen sollte, fällt mir nur dieser Weg noch ein: Man belässt das interne Netzwerk auf DHCP, setzt aber den Wert für Metrik höher. Dies geht in den IPV4 Einstellungen der Schnittstelle unter erweitert. Typischerweise liegt die Metrik für das Default-Gateway bei 25 oder 26. Setzt man den Wert z.B. auf 40, sollte immer das andere Default-Gateway des USB-Sticks verwendet werden, weil das einen kleineren Metrik-Wert hat. Ich hab auch schon gesehen, dass Surfsticks die Metrik automatisch auf über 3000 setzen, um andere Gateways aus dem Weg zu räumen.

Statt der DHCP Adresszuweisung kann man natürlich auch feste IP vergeben und dort dann das Gateway setzen und die Metrik erhöhen. Als Gateway kann man übrigens irgendeine Adresse eines Gerätes eintragen, was zumindest erreichbar ist. Benutzt wird das Gateway ja sowieso nicht. Es geht nur darum, Windows dazu zu bewegen, dass Netzwerk als identifiziert anzusehen.

Ob das in allen Fällen sicher funktioniert, muss erst die Praxis zeigen.

Nicht überprüft: Es soll angeblich gehen, dass man das Gateway des anderen Netzwerkadapters einträgt. Hat also der UMTS-Stick z.B. die 192.168.0.1 als Gateway, so könnte man im internen Netz 10.0.0.0 einfach dieses Gateway eintragen. Nachtrag: Getestet, funktionierte nicht, das Netzwerk blieb trotzdem vom Typ Nicht identifiziert. Geht zudem deshalb auch nicht, weil der UMTS Stick ja nicht immer steckt und wenn der nicht da ist, gibts kein Gateway und dann ist das Netzwerk sowieso vom Typ "Nicht identifiziert".

Nicht überprüft: Man kann trotz DHCP zumindest weitere Standard-Gateways für eine Verbindung definieren. Hierzu unter IPV4 Konfiguration auf erweitert klicken und dort in die Liste der Standardgateways ein weiteres eintragen. Hier lässt sich auch die Metrik einstellen. Ob das irgendwie helfen könnte, müsste man mal durchdenken.

Fachbegriffe:

  • Network Location Awareness (NLA) - Windows Mechanismus, mit dem Netzwerke identifiziert werden.

Weblinks:

Avira wird vom Betriebssystem nicht erkannt

Betrifft den Fehler von Avira, dass trotz korrekter Funktion es nicht vom Betriebssystem erkannt wird und das Wartungscenter 2 Virenschutzwarnungen raushaut.

Wer sich diesen Weg nicht zumuten will, deinstalliert am besten einmal komplett Antivir und installiert es neu. Bringt den selben Effekt.

Audacity Aufnahme von Soundcard nicht möglich

Permalink

Hab ewig rumgefummelt, immer kam eine Meldung auf einem Dell 755 "audacity error while opening sound device", wenn man den Sound aufnehmen wollte, der gerade über die Soundkarte ausgegeben wird, z.B. zum youtube-Mitschnitt.

Ein Indiz war, dass unter Systemsteuerung > Sound > Aufnahme der Stereomix zwar als Standardgerät definiert und auch aktiviert war, aber dort auch "nicht verfügbar" angezeigt wurde.

Irgendwo las ich dann, dass immer nur ein Gerät aktiv sein kann und dies standardmäßig das Mikrofon ist. Und in der Tat war das Mikrofon auch einsatzbereit. Also hab ich das deaktiviert und jetzt funktionierte Audacity tatsächlich. Unter Stereomix (Systemsteuerung > Sound > Aufnahme) stand nun auch "SoundMAX Integrated Digital HD Audio Standardgerät" anstatt "Nicht verfügbar".

Taucht Stereomix hier erst gar nicht auf, kann man mal rechte Maustaste klicken und "Deaktivierte Geräte anzeigen" wählen. Anschließend aktiviert man das Gerät.

Audacity wurde übrigens so eingestellt:

  • MME
  • Lautsprecher: Soundmax
  • Mikrofon: Stereomix (Soundmax) Stereo
  • Projektfrequenz: 44100

Weblinks:

Schärfe Einstellung bei TFT-Monitoren

Permalink

Windows 7 eine scharfe Schriftdarstellung beizubringen, ist nicht einfach. Eigentlich wird die Schrift ja absichtlich unscharf dargestellt, um Pixeligkeit zu verbergen. Je nach Hardware ist das aber alles andere, als benutzerfreundlich und man wünscht sich sein Windows 2000/XP zurück. Das Auge versucht ständig, scharf zu stellen und schafft es nicht. Das überfordert mit der Zeit und ist unergonomisch.

Als ich nun alle möglichen Tricks befolgt hatte, die man zu dem Thema im Internet findet, war der Bildschirm immer noch nicht scharf. Zufällig fand ich die Ursache dafür heraus: Neuerdings erzeugen verschiedene TFT-Monitore selber eine unscharfe Darstellung. Wenn man sich durch das Menü des Monitors hangelt, findet man es irgendwo. Dieser letzte Schritt fehlte mir, die Schärfe war hier zu gering eingestellt. Mir ist aber auch aufgefallen: Stellt man den Wert zu hoch, so hat man einen anderen unangenehmen Effekt: Hinter schwarzer Schrift auf grauem Hintergrund gibt es helle Streifen. Das erkennt man z.B. gut bei der Schrift von Fensterrahmen oben. Bei meinem Samsung Syncmaster 943B Monitor scheint ein Wert von 68 optimal.

Klar auch, dass eine Überlagerung von 2 Unschärfe-Quellen zu schlechten Ergebnissen führen kann. Hier müssen beide System (Windows + Monitor) optimal aufeinander abgestimmt sein.

Tasten umbelegen

Permalink

Bei einem Lenovo-Notebook hatte ich ein großes Problem mit der Tastenbelegung. Direkt neben den Cursortasten lagen 2 Spezialtasten, mit denen man auf die vorherige oder folgende Webseite wechseln konnte. Also das, was man mit den Browserbuttons Vor/Zurück macht. Nun konnte man versehentlich beim Scrollen darauf kommen. Öfters passierte es, dass ich in einem Wiki oder Forum einen Text schrieb und dann versehentlich auf diese Tasten kam. Der ganze eingetippte Text war damit weg. Das ist sehr ärgerlich. Mittlerweile hat auch Lenovo erkannt, dass so eine Tastenbelegung nicht gut ist und hat bei neueren Geräten diese Tasten mit PgUp und PgDown belegt.

In einem ersten Anlauf montierte ich die Tastenköpfe erstmal ab. Jetzt kam ich auf die Idee, dass es doch bestimmt ein kleines Tool gibt, womit man Tasten umbelegen kann. Und tatsächlich gibt es das, nennt sich SharpKeys. Das ist ein kleiner Assistent, mit dem man die Tasten neu belegt und er schreibt die Infos dann dauerhaft in die Registry. Man kann sowohl in einer Liste die Taste auswählen wie auch die betreffende Taste drücken (über Button "Type Key"), er übernimmt dann den ermittelten Tastenwert. Dann drückt man einfach die Taste, die stattdessen ausgelöst werden soll und schon hat man eine geänderte Tastenbelegung. Links steht immer die Originalbelegung, rechts die zu ersetzende.

Funktioniert unter Windows 7, Vista, XP und Windows 2000. Zur Installation und Neubelegung braucht es Adminrechte.

Weblink:

Drucker Installationsprobleme: Brother MFC-7460DN

Permalink

Brother-Drucker zählen zu den soliden Arbeitstieren, nicht sonderlich schick oder ausgeklügelt, aber sie tun ihren Dienst. Also hab ich mal einen Multifunktionslaser vom Typ MFC-7460DN gekauft. Die erste Sache, die mir unangenehm auffiel war das Lüftergeräusch. Wer etwas auf leise Lüfter achtet, wird mit diesem Gerät nicht glücklich und sollte sich sowas nicht auf den Schreibtisch stellen. Blöd ist hier vor allem der lange Nachlauf - nachdem der Drucker bereits nach wenigen Minuten in den Energiesparmodus gegangen ist, dauert es noch 10 Minuten, bis er in den Ruhezustand geht und so lange läuft der Lüfter! Technisch eigentlich unnötig, aber man kann diese Zeit nicht herunterstellen. Sobald man also eine Kopie oder einen Ausdruck macht, hat man wieder mindestens 10 Minuten Lüftergeräusch. Das es auch anders geht, zeigen andere Hersteller. Zumal Brother 1 Euro mehr für einen leisen Lüfter und entsprechend dämpfende Befestigung hätte investieren können.

Ein großes Problem kam dann bei der Installation der Treiber. Ich wollte nicht per USB anschließen sondern den Drucker übers Netzwerk einbinden. Also hab ich die Netzwerkinstallation angeschubst. Diese Installation lief aber auf einem XP-System nicht sauber durch. Es kam die wenig aussagekräftige Fehlermeldung "Die Argumente sind ungültig". Zweimal. Echt nervig, wenn man im Fehlerfall durch nichtsaussagende Fehlermeldungen im Regen stehen gelassen wird. Ein erneuter Durchlauf brachte den gleichen Fehler. Eine saubere Deinstallation aller Brothertreiber mit dem Deinstallations-Tool und erneuter Versuch der Installation brachte auch nichts.

Die Hotline von Brother war erstaunlicherweise recht gut und schnell erreichbar und schien mir für Standardprobleme auch recht geschult. Hier aber gab es auf diese Fehlermeldung auch nur eine Antwort, die mit meinem Problem nichts zu tun hatte. Wir kamen dann aber gemeinsam auf die Idee, dass ich zuerst mal das USB-Setup vollständig durchlaufen lasse und dann einfach dem USB-Drucker einen neuen Anschluß unterschiebe, der auf den TCP-IP Port des Druckers verweist. Das klappte auch, nun konnte ich zumindest schon einmal drucken. Gleiches ging auch für den Scanner. Leider funktionierten aber diverse Werkzeuge nicht, wie z.B. das Controlcenter, weil dies wohl von einem USB-Setup ausging und nicht übers Netzwerk zu griff.

Irgendwann deinstallierte ich dann nochmal alles und versuchte nochmal das Netzwerk-Setup. Und diesmal funktionierte es! Wie das? Ich vermute, es lag an dem noch vorhandenen TCP-Port, den ich manuell eingerichtet hatte (Start > Drucker und Faxgeräte, Menü Datei > Servereigenschaften > Anschlüsse, Hinzufügen > Standard TCP/IP Port). Irgendwie stolperte die Installation wohl über diesen Punkt. Das es an der Installation des Druckertreibers liegen musste, hatte ich schon vorher herausgefunden, nachdem ich die Installation immer weiter reduzierte, bis nur noch der Druckertreiber übrig blieb und auch hier dann der Fehler auftrat.

Diese ganze Rumfummelei mit unzähligen Installationen und Deinstallationen hat mich 6 Stunden Zeit gekostet. Ich vermute, dass die Treiber vom Hersteller für Windows XP nicht sauber durchgetestet wurden. Wenn man mal marktübliche Stundensätze von 50-70 Euro ansetzt, dann hat die Einrichtung mehr gekostet, als der Drucker selbst.

Ein paar Tipps, was man machen kann, um solche Widrigkeiten zu umgehen:

  • Geräte erst kaufen, wenn sie mindestens 6-12 Monate schon am Markt sind
  • Bewertungen z.B. bei Amazon aufmerksam durchlesen, ob sich Problembereiche eines Produktes herauskristallisieren.
  • Nicht die Original-CDs zur Installation benutzen, die sind meist veraltet, beinhalten also Fehler, die später ausgemerzt wurden. Besser erstmal die aktuellen Treiber von der Hersteller-Homepage herunterladen. Mitunter fehlt aber diverse Software im Internet-Download, die man dann nur auf der CD findet. Diese dann nachinstallieren, falls man sie überhaupt benötigt.
  • Ein Testsystem mit einem frisch aufgesetzen Betriebssystem ist gold wert, um Probleme zu erkennen, die sich aufgrund eines irgendwie defekten Betriebssystems ergeben. Am besten hat man ein Image mit einer Windows-Grundinstallation, die man mal schnell aufspielen kann.
  • Grundsätzlich Virenscanner, zusätzliche Software-Firewall und ähnliche Software bei der Installation deaktivieren. Diese greifen tief ins System ein, überwachen permanent und verhindern manche Installationsschritte. Zudem können Hersteller ihre Software nicht in Bezug auf Kompatibilität all solcher Softwaretools hin testen.
  • Finger weg von billiger Hardware, bei der jeder Cent eingespart wurde. Hier erlebt man nicht selten schlecht getestete Treiber.
  • Sich Zeit nehmen und nicht mal eben schnell einen Treiber installieren. Treiber greifen tief ins System ein und deshalb kann es hier auch zu gravierenden Problemen kommen. Aufgrund von Hektik vergisst oder übersieht man wichtige Dinge. Manchmal kann schon ein hektischer Klick zu viel eine Installationsroutine durcheinander bringen.
  • Keine Vorführgeräte o.ä. kaufen, besser originalversiegelte Ware. Es ist nicht selten, dass Produkte zurückgegeben werden, weil sie irgendwelche sporadischen Fehler zeigt. Kommt diese wieder in den Handel, ist man der Dumme, der dann wieder jede Menge Zeit damit verbringt, Merkwürdigkeiten zu verstehen, um schlussendlich dann auch wieder das Gerät zurückschicken zu müssen. Gerade die Billigstanbieter im Internet handeln gerne mit Warenrückläufern, insofern kaufe ich nie bei den billigsten Läden.
  • Wenn möglich, erstmal Firmware-Updates der Geräte machen. Veraltete Firmware (Steuerungs-Software, die auf dem Gerät läuft) kann noch zahlreiche Bugs enthalten.
  • Die Qualität von Hotlines ist sehr unterschiedlich, es besteht aber die Chance, bei gut bekannten Bugs schnell Hilfe zu bekommen.
  • Fast alle Druckerhersteller haben Deinstallationswerkzeuge, mit denen man alle Treiberreste rückstandslos entfernen kann. Dies ist wichtig, damit eine Neuinstallation überhaupt zum Erfolg führen kann. Man findet diese Werkzeuge auf den Download-Seiten der Hersteller. Von Hand sollte man nicht nur den Drucker entfernen, sondern auch unter Datei > Servereigenschaften > Treiber den entsprechenden Treiber.
  • Hat man mehrere Geräte eines Herstellers an einem Computer, kann es sinnvoll sein, erstmal alle Treiber zu deinstallieren, falls die Einrichtung des neuen Gerätes nicht klappt. Es kann sein, dass ältere Treiber eines Herstellers die korrekte Installation des neuen Gerätes blockieren.
  • Möglichst Geräte kaufen, die weit verbreitet sind. Je mehr Menschen etwas benutzen, um so schneller werden für den Hersteller Probleme erkennbar und um so mehr Unterstützung findet man auch im Internet. Mit Exoten steht man oft alleine auf weiter Flur. Keiner weiß was, nicht mal die Hersteller-Hotline kennt die Probleme. Anhand von Rezensionen im Internet erkennt man die Verbreitung von Geräten.
  • Nicht alles, was beworben wird, funktioniert auch. Viele Geräte haben zusätzliche Funktionalitäten als Verkaufsargument, die aber nicht richtig durchentwickelt und getestet sind. Alles, was die Masse der Anwender nicht benutzt, enhält oftmals Fehler.
  • Neben der Möglichkeit, die Installation benutzergeführt über die Installations-CD zu machen, funktioniert fast immer auch der von Windows vorgegebene Weg (z.B. über Start > Drucker und Faxgeräte > Neuer Drucker oder bei diverser Hardware über den Gerätemanager). Man muss dann nur die Treiberdateien des Herstellers finden, entweder in einem Unterverzeichnis auf der Installations-CD oder herunterladbar im Internet.

Windows 7: Immer noch Schriftgrößenproblem

Permalink

Ich hatte gehofft, dass mit Windows 7 das Schriftgrößenproblem endlich mal gelöst ist, was seit Windows 95 existiert. Doch manche Probleme scheint man nicht ausmerzen zu können.

Es geht konkret darum: Je mehr Pixel pro Zoll ein Bildschirm hat - je höher er also auflöst, um so kleiner wird zwangsläufig die Darstellung einer Schrift und auch der Grafiken. Hat man z.B. zwei Monitore mit identischer Auflösung (z.B. 1024x768 Pixel), wobei aber einer nur halb so groß ist, ist die dargestellte Schrift auch halb so groß.

Möchte man nun doch eine größere Darstellung, so lässt sich das unter Windows 7 unter Systemsteuerung > Darstellung > Anzeige > Benutzerdefinierte Textgröße festlegen. Problem ist dabei aber, dass die Dialoge und die Steuerelemente (Buttons usw) nicht größer werden. Resultat ist, dass Schriften aus dem darstellbaren Bereich rauslaufen und nicht mehr lesbar sind. Das führt dann zu unbenutzbaren Dialogen.

Diese undurchdachte Vergrößerung der Darstellung ist ein Erbe von älteren Windows-Versionen. Wollte man es korrekt machen, müsste natürlich alles vergrößert werden - Dialogfenster, Steuerelemente, Icons, Grafiken und Schriften. Das geht wohl unter Windows 7 dann auch, wenn man das Häkchen "dpi Skalierung im stil von windows xp verwenden" rausnimmt. Das scheint aber z.B. in der Windows 7 Starter nicht zu funktionieren, weil hier keine Aero-Oberfläche verfügbar ist, die es dazu wohl braucht. Auch sonst gibt es ja immer wieder Situationen, wo man die Aero-Oberfläche nicht haben will, z.B. um schmalbrüstige Rechner nicht zu sehr zu belasten. Hier ist man also wieder in einer Sackgasse und der einzige Workaround heißt: Benutze bei der Skalierung nur 100% und lebe mit den zu kleinen Schriften. Alles andere führt früher oder später zu Inkompatibilitäten.

Aber selbst wenn Aero aktiviert ist und man den alten Windows-XP Stil ausschaltet, gibt es noch technische Hürden. Wenn das Betriebssystem nun nämlich alle Grafiken hochskaliert, wirken diese pixelig und verwaschen. Man bräuchte eigentlich Grafiken, die selber eine höhere Auflösung haben. Aber woher soll ein Betriebssystem die nehmen, wenn die Anwendung sie nicht anbietet? Es braucht also Anwendungssoftware, die damit umgehen kann und entsprechend höher aufgelöste Grafiken und Steuerelemente zur Verfügung stellt. Damit ist die Verantwortung bei den Software-Entwicklern und die gehen nicht selten den Weg des geringsten Widerstandes und verzichten ganz auf diese Funktionalität. Nach dem Motto: "Viele andere machen es auch nicht, das ist eh ein kaputtes Feature, was in der Praxis nicht richtig funktioniert und deshalb nicht genutzt wird." Und so hält sich das Problem wohl noch viele Jahre. Das ist ungefähr so, wie die frühere Unsitte, dass Programme Administratorrechte brauchen, um lauffähig zu sein. Mittlerweile sieht es hier aber schon wesentlich besser aus.

Eine Möglichkeit gibt es noch: Man kann eine sinnvolle Einstellung machen, die für die meisten Programme funktioniert. Programme, die sich nicht korrekt verhalten, kann man unter Eigenschaften > Kompatibilität von der DPI-Veränderung ausnehmen.

Mein Tipp: Will man mit diesem Sumpf nicht in Berührung kommen, wählt man am besten einen Monitor, der eher geringe Pixel pro Zoll hat. Also große Monitore mit geringer Auflösung. Ein 19 Zoll Monitor mit altem 4:3 hat z.B. ein gutes Verhältnis. Bei Notebooks kann man oft zwischen mehreren Displayvarianten wählen, die bei gleichen Abmessungen unterschiedliche Auflösungen haben.

Manche gehen auch den Weg und stellen eine abweichende Auflösung ein, die also nicht der realen Auflösung des Displays entspricht. Dies führt aber zu schwammiger bzw. verwaschener Darstellung. Manchmal ist das aber der einzig sinnvolle Kompromiss, um allen technischen Anforderungen und dem Benutzer gerecht zu werden.

Die optimale Schriftgröße liegt nach Ergonomierichtlinien irgendwo zwischen 2,5-3,2 mm, hängt natürlich auch vom Sehvermögen des Benutzers ab. Schrift in Büchern ist auch oft ca. 2,5mm hoch - ein Wert, der sich als massenkompatibler Kompromiss seit vielen Jahren bewährt hat.

<< | Übersicht | Archiv 2009 >>