Aktuell Archiv 2011

16.12.2011 :: Festplattenpreise extrem angestiegen

Noch im August schrieb ich hier darüber, dass es immer weniger Festplattenhersteller gibt. Alles konzentriert sich auf 3 Hersteller: Seagate, Western Digital und Toshiba. Wenn man sich vorstellt, dass alle Computer der Welt von diesen 3 Herstellern abhängen, beschleichen einen schon unangenehme Gefühle. Ob das gut geht?

Wie man gerade sieht, kann das zu massiven Problemen führen. Viele Zulieferteile und auch die Festplatten selber werden in Fabriken in Thailand gefertigt. Durch die Flutkatastrophe in Thailand können viele dieser Fabriken nicht mehr produzieren. Die Instandsetzung kann sich bis Ende 2012 hinziehen, wie Experten prognostizieren. Das bedeutet einen massiven Engpass bei Festplatten für die nächsten 1-2 Jahre.

Die Preise sind inzwischen extrem angestiegen. Noch im September habe ich eine 1TB 2.5 Zoll externe Festplatte für gerade mal 75 Euro gekauft, die liegt derzeit bei 145 Euro. Eine 500GB 2.5Zoll Platte kaufte ich für 40 Euro, die liegt jetzt bei 90 Euro. Man kann derzeit also etwa mit dem doppelten Preis rechnen. Damit steigen natürlich auch die Preise für Computer und Notebooks.

Alle 3 Hersteller sind direkt betroffen, weil alle in Thailand fertigen oder von dort Zulieferteile bekommen. Dies zeigt auch mal wieder, dass die Konzentration der Herstellung wichtiger Teile auf ein Land eine große Gefahr sein kann. Besonders hart trifft es wohl WD und Toshiba. Bleibt zu hoffen, dass nach dieser Krise nicht nur noch 1 Hersteller übrigbleibt.

In den nächsten Monaten fehlen ungefähr ein Drittel der benötigten Festplatten am Markt.

15.12.2011 :: Taschenrechner-Ersatz

Zu rechnen gibt es immer wieder mal was. Gewohnt bin ich an meinen guten alten Casio FX-880 Rechner. Angenehm ist dort die Möglichkeit, Variablen anzulegen und eine Übersicht zu haben, was man berechnet bzw. eingetippt hat. Das hilft, nochmal zu prüfen, ob man nicht irgendwelche Rechenfehler gemacht hat.

Der mitgelieferte Rechner zu Windows war mir schon immer zu spartanisch und deshalb wenig nützlich. Jetzt hab ich seit ein paar Tagen SpeedCrunch im Einsatz. Das Teil macht richtig Spaß, ich glaub, damit habe ich einen guten Alltagsrechner gefunden.

Nachtrag 17.01.2012: SpeedCrunch hat sich im Alltag als gute Taschenrechnerlösung bewährt.

Homepage: http://speedcrunch.org/de_DE/index.html

10.12.2011 :: Keine beschlagene Autoscheiben mehr

Jetzt hab ich mich mal wieder dazu aufgerafft und die Innenseiten der Autoscheiben einer Spezialbehandlung unterzogen. Unser Auto neigt stark dazu, von innen zu beschlagen, gerade jetzt im Winter. Ich bin mal wieder beeindruckt über die gute Wirkung eines Hausmittels, welches ich schon länger dafür einsetze.

Man nehme dazu ein Microfasertuch und mache es ordentlich nass. Es sollte so viel Wasser aufgenommen haben, dass man es mit kräftigem Druck noch auswringen kann. Nicht zu nass und nicht zu trocken. Dann gibt man einen halben Teelöffel Spülmittel mittig drauf. Ich verwende dafür Fit, es sollte aber auch jedes andere Standardspülmittel funktionieren. Aber nicht solche Spülmittel mit rückfettenden Handpflegesubstanzen verwenden. Nun knetet und walgt man das Tuch gut durch, so dass sich das Spülmittel gut verteilt. Zum Schluß wringt man nochmal ordentlich aus.

Mit diesem noch feuchten Tuch kann man nun alle Innenseiten der Scheiben wischen. Den leichten Seifenfilm lässt man auf der Scheibe trocknen. Denn der sorgt jetzt dafür, dass die Scheiben nicht mehr beschlagen.

Das Tuch lässt man nun in der Wohnung trocknen und legt es dann trocken ins Auto. Sollte irgendwann wieder die Scheibe beschlagen, wischt man damit. Dadurch wird wieder ein Seifenfilm auf die Scheibe aufgebracht, der erneutes Beschlagen verhindert.

Für außen finde ich auch die Regenabweiser-Produkte interessant. Man muss halt nur daran denken, sie regelmäßig aufzutragen. Regentropfen perlen dadurch super ab und über 70 Km/h braucht man auch bei starkem Regen keinen Scheibenwischer mehr. Die Tropfen fliegen einfach sofort weg. Solche Produkte findet man in jedem Autozubehörhandel. Ein recht bekanntes Produkt ist z.B. Rain-X. Zuvor muss auf jeden Fall gründlichst die Scheibe gereinigt werden. Auch Seitenscheiben, die Heckscheibe und Spiegel können damit behandelt werden. Es gibt allerdings auch Anwender, die negative Erfahrungen mit solchen Produkten auf Frontscheiben gemacht haben. Gefällt nicht jedem und in bestimmten Situationen können perlende Tropfen auch nachteilig sein, z.B. bei Nacht und Gegenlicht. Wischer hinterlassen meist auch Mikrowasserperlen, die kurzzeitig wie ein störender Film wirken. Tipp: Mal die Bewertungen zu Rain-X auf Amazon lesen.

Weblinks:

24.11.2011 :: Aufgabenmanagment mit TaskCoach

Die letzten 10 Jahre habe ich meine Aufgaben mit dem Palm Desktop verwaltet. Bis vor ein paar Jahren hatte ich passend dazu auch noch den Palm Handheld. Eigentlich war diese Kombination gut praxistauglich. Vor allem der Palm Desktop, den man sich auch heute noch kostenlos im Internet herunterladen kann, ist ein gutes Stück Software. Lief die ganzen Jahre völlig problemlos, hat nie was vergessen, ist schnell gestartet und in vielen Details gut durchdacht. Leider gab es aber auch einige Einschränkungen, wo einfach etwas Funktionalität für mich fehlte. Eine Weiterentwicklung hätte dem Programm gut getan, aber leider waren Handhelds eine reine Modeerscheinung, die heute keinen mehr interessieren. Die Entwicklung der Software wurde schon vor Jahren eingestellt. Heute arbeitet man lieber mit dem Smartphone und in der Cloud.

In den letzten Monaten hab ich mich immer mal wieder auf die Suche nach Ersatz begeben. Anfangs war ich nicht so erfolgreich, brauchbare Lösungen zu finden. Die ganzen Cloud-Lösungen sind für mich uninteressant. Ich mag meine Daten nicht auf fremden Servern ablegen. Hierfür bin ich nicht gut genug, die Gefahren des Datenmissbrauchs zu verdrängen. Andere können das besser. Cloud-Lösungen mit Webinterface erscheinen mir zudem etwas zu träge oder umständlich, um im Alltag komfortabel mit arbeiten zu können.

Ich hatte auch das Gefühl, dass in Deutschland das Thema Terminplanung ganz groß geschrieben wird, das Thema Aufgabenplanung aber vernachlässigt. Auch wenn ich mal in meinem Umfeld herumfragte: Fast alle kennen oder nutzen elektronische Terminplaner. Aber Aufgabenplanung scheint weit weniger verbreitet zu sein.

Im englischsprachigen Raum hat das Buch "Getting Things Done" von David Allen, auch kurz als GTD bekannt, einen richtigen Hype ausgelöst und es entstanden hier viele Programme zur Aufgabenplanung, die dem GTD-Prinzip folgen. Seit 2007 ist das Buch auch unter dem deutschen Titel "Wie ich die Dinge geregelt kriege: Selbstmanagement für den Alltag" zu bekommen.

An einem Tag hatte ich Glück und bin auf der englischsprachigen Seite http:\\www.taskcoach.org gelandet. TaskCoach sprach mich gleich an. Es sah auf den Screenshots recht aufgeräumt aus, hat schon eine längere Entwicklungs-Historie, die 2005 beginnt, und wird auch heute noch sehr aktiv entwickelt. Dazu ist es Opensource. Die Features klangen vielversprechend. All das war Grund genug, es mal zu installieren und auszuprobieren.

Ich hab jetzt ungefähr 6 Stunden damit gearbeitet. Auch ein reales Projekt wird damit nun gemanagt. Ich bin positiv überrascht, das Programm hat echt Potenzial, was weit über das hinaus geht, was ich bisher mit dem PalmDesktop gewöhnt bin.

Zuerst einmal zu einigen Basismerkmalen: Die Daten werden in einer einzigen XML-basierten Datei gespeichert. Genial. Damit ist alles kompakt an einem Ort und man kann sogar notfalls mit einem Texteditor oder Zusatzwerkzeugen auf die Daten zugreifen. Sollte es mal zu einem Datencrash kommen, hat man noch die Möglichkeit, von Hand zu reparieren oder noch was zu retten. Das Programm kann mit beliebig vielen solcher *.tsk Dateien arbeiten. Man kann also unterschiedliche Projekte in unterschiedlichen Dateien verwalten. Das macht es schon hier unglaublich flexibel. Natürlich kann man dem Programm als Startparameter auch gleich mitgeben, welche Datei geöffnet werden soll. Damit lassen sich also Verknüpfungen anlegen, die direkt eine Aufgabendatei mit dem Programm öffnen. Aufgabendateien lassen sich so auch gut auf einem USB-Stick mitnehmen oder per Mail verschicken. Selbst vom Programm gibt es eine Portable-Version, die direkt auf dem USB-Stick installiert werden kann.

Das Programm lässt sich mit verschiedenen Aufgabendateien mehrfach öffnen. Das ist wichtig, wenn man an mehreren Projekten gleichzeitig arbeiten will, die man in verschiedenen Dateien organisiert hat. Man kann allerdings nicht per Drag&Drop Aufgaben zwischen 2 Programmfenstern austauschen.

Die einfachste Form der Nutzung wäre eine einfache Aufgabenliste. Aufgaben lassen sich Kategorien zuordnen, nach denen man filtern kann. Aufgaben können eine Priorität bekommen, ein Startdatum, ein Enddatum und ein Fälligkeitsdatum. Damit lassen sich also auch gut terminierte Aufgaben überwachen, die dann rot erscheinen, wenn das Fälligkeitsdatum erreicht wird. Es gibt auch einen Vorwarnzeitbereich, kurz bevor Aufgaben fällig werden.

Ein großer struktureller Vorteil des Programms ist die hierarchische Organisation von Aufgaben. So können Aufgaben auch Unteraufgaben bekommen und diese wiederum Unteraufgaben. Man kann also eine Baumstruktur von Aufgaben erzeugen. Dies ist ein sehr leistungsstarkes Strukturierungswerkzeug, gerade wenn man umfangreichere Aufgabensammlungen hat. So kann man z.B. Aufgaben zu Projekten zusammenfassen und so auch Komplexität ausblenden, wenn man gerade nicht an diesem Projekt arbeitet.

Zu jeder Aufgabe kann man Anlagen/Anhänge machen, also Verweise auf Dateien. Diese Anlagen kann man, wie auch in einem E-Mailprogramm, direkt von dort öffnen. Das führt zu einem effizienten Arbeiten.

An eine Aufgabe kann man auch beliebig viele Notizen anheften. Notizen erkennen Hyperlinks, was sehr praktisch ist: Ein Klick darauf und schon öffnet sich der Browser und geht zur entsprechenden Seite. Mit file://e:/test.txt kann man auch direkt auf beliebige Dokumente im Dateisystem verlinken und mit einem Klick öffnen. Das sind alles Features, die im praktischen Alltag viel Zeit sparen und als komfortabel erlebt werden.

Für Aufgaben gibt es einen Fortschrittsbalken, für manche Projektarbeit kann das wichtig sein, um den Fortschritt unter Kontrolle zu haben. Zu Aufgaben kann man auch ein Budget anlegen, eine Sollzeitvorgabe mit Stundensatz. Das Programm zeigt über eine Istzeiterfassung dann an, welche Kosten schon entstanden sind und wieviel Restzeit für diese Aufgabe noch im Budget sind. Die Istzeiterfassung kann manuell erfolgen oder Live über eine Stoppuhr, die man für eine Aufgabe starten und stoppen kann. Man kann sich hier auch anzeigen lassen, wie viele Stunden man an einem Tag, in einer Woche oder in einem Monat an einer Aufgabe gearbeitet hat. Natürlich werden hier in der übergeordneten Aufgabe alle Zeiten der darunterliegenden Aufgaben mitberücksichtigt.

Für Aufgaben kann man auch Vorlagen definieren. Eine neue Aufgabe ist dann nicht "leer", sondern schon vorbelegt mit bestimmten Vorgaben. Ähnlich wie bei Dokumentvorlagen in Word.

Daten lassen sich auch exportieren. Es gibt eine einfach HTML-Aufbereitung. Das ist praktisch, möchte man jemandem eine Aufgabenübersicht schicken, der das Programm nicht installiert hat. Ansonsten gibt es noch CSV, iCalender und todo.txt.

Gibt es auch Schattenseiten? Ein paar Dinge sind mir aufgefallen:

  • Netzwerkbetrieb ist derzeit noch nicht möglich, also der gleichzeitige Zugriff auf eine *.tsk Aufgabendatei von mehreren Computern. Soll aber in den nächsten Monaten kommen.
  • Das Benutzerinterface wirkt an manchen Stellen noch nicht ganz optimal, da ist noch Verbesserungspotenzial drin. So wäre es z.B. praktisch, auf der rechten Seite ein Textfeld zu haben, wo man beim Anklicken einer Aufgabe sofort die Beschreibung sieht. Die vielen Möglichkeiten der Oberfläche können anfangs auch erstmal etwas verwirren. An manchen Stellen könnte das Benutzerinterface auch etwas schneller sein, ist aber alles noch in gut benutzbarem Rahmen. Wenn man das Programm schließt, kommt manchmal eine Fehlermeldung. Im Logfile kann man dann nachlesen, was aufgetreten ist. In meinem Test waren es nur irgendwelche Oberflächen Kontroll-Elemente aus der wxwidget-Bibliothek, die sich mit irgendwelchen Widersprüchlichkeiten beendeten. Datenverlust hatte ich bisher nicht. Die Umsetzung des Programms mit der Skriptsprache Python und der wxwidget-Oberfläche wird sicherlich an einigen Stellen leichte Einschränkungen in Geschwindigkeit und Möglichkeiten an Oberflächenkontrollelementen bedeuten. Andererseits bedeutet dies auch gute Portierbarkeit, so dass TaskCoach für Windows, Linux, MacOS X und BSD verfügbar ist.
  • Die Filterung über Kategorien ist nicht ganz intuitiv. Man muss hier verstehen, dass es Oder- bzw. Und-Filterung gibt, was aber unverständlich umschrieben steht ("Nach allen ausgewählten Kategorien filtern" bzw. "nach allen markierten Kategorien einzeln filtern").
  • Die deutsche Übersetzung ist an ganz wenigen Stellen noch unvollständig oder hölzern. Die Online-Hilfe taugt sehr gut als Einstiegswerk, ist aber leider nur Online lesbar. Ich hab keine Möglichkeit gefunden, die mal auszudrucken. Auch im Internet hab ich kein druckbares Handbuch gefunden. Für manch kniffelige Details fehlt es an guter Dokumentation, das muss man sich per Try&Error selber erschließen.
  • Was auch noch fehlt, ist ein Reportgenerator, mit dem man erfasste Informationen aufbereiten und drucken kann. Durch das XML-Format der Datenablage können Programmierer sich aber auch gut eigene Tools schreiben, die Informationen aufbereiten.

Alles in allem sehe ich ganz viel Möglichkeitsspielraum bei diesem Programm, womit man viele Anforderungen des Alltags abbilden und bewältigen kann. Ich bin gespannt, wie es sich im Alltag bewährt.

Bei der Auswahl solcher Werkzeuge bleibt auch die Frage, ob man separate Werkzeuge für Aufgaben, Termine, Mail, Kalender, Zettelkasten und Adressen haben will oder ob man kombinierte PIM-Werkzeuge einsetzen möchte, die all das integrieren. Beides hat Vor- und Nachteile.

Nachtrag 17.01.2012: TaskCoach ist intensiv im praktischen Einsatz und hat sich bewährt. Ein paar kleinere Bugs waren in einigen Releases, die aber schnell behoben wurden.

Weblinks:

21.11.2011 :: Qualititätsmanagment

Ich beschäftige mich gerade beruflich mit Qualitätsmanagment. Manche Bücher wirken auf mich echt befremdlich. Was da alles dokumentiert, gemessen und kontrolliert werden soll. Ich habe einige Bekannte, die die katastrophalen Auswirkungen von falsch verstandenem Qualitätsmanagment schon leidvoll in der Praxis erleben müssen. Alles ist gut dokumentiert, aber zum eigentlichen Arbeiten kommt keiner mehr. Oder die beschriebenen Prozesse haben rein gar nichts mit dem zu tun, wie wirklich gearbeitet wird, weil man die komplexe Realität nur sehr eingeschränkt zu Papier bringen kann. Und dann die lächerlichen Ideen, wie man Mitarbeiter dazu bringen will, immer bessere Leistungen zu erbringen. Das erinnert mich schon ganz stark an die DDR-Planwirtschaft, die schlussendlich auch stark an der Realität vorbei war. Die Menschen in diesem System hatten auch einen gespaltenen Bezug zu solchen Manipulations- und Motivationssystemen, die von oben kamen. Man lachte hinter vorgehaltener Hand viel und herzlich darüber :-)

Einen köstlichen Witz zum Thema hab ich gerade hier gefunden: http://www.betriebskomiker.de/beispiele/rudern/index.html

Ist Qualitätsmanagment völliger Unsinn? Nein, ich denke keinesfalls. Es fällt nur schwer, die vielen unsinnigen und überschießenden Gedanken von den wirklich wertvollen Ansätzen zu trennen. Noch dazu müssen sie für das konkrete Umfeld geeignet sein, in meinem Fall sind es kleine Unternehmen. Viele Bücher und Konzepte gehen aber von großen Firmen und Organisationen aus.

Ich glaub, dass es sehr wichtig ist, die Qualität von Geschäfts- und Produktionsprozessen stetig zu verbessern. Das ist für viele auch so selbstverständlich, dass sie es automatisch praktizieren. Gleichzeitig kann ein Reflexionsprozess darüber viele neue Möglichkeiten erschließen. Oder man knackt vielleicht Problempunkte, die seit Jahren nicht richtig funktionieren.

Die größte Kraft ginge vielleicht von einer inneren Haltung aus, die möglichst viele in einem Unternehmen verinnerlichen: Wie kann ich das, was ich tue, sinnvoller machen? Hier gibt es in der Tat oft einen Mangel, so dass ineffiziente und ressourcenbelastende Dinge über Jahre unverändert gemacht werden. Einfach weil nie jemand darüber nachgedacht hat, wie es besser gehen kann.

Ein paar Anregungen findet man im Kaizen.

Weblinks:

18.11.2011 :: Erste Erfahrungen Norton Antivirus

Virenscanner sind in den letzten Jahren ein ganz dunkles Kapitel, was Benutzerfreundlichkeit angeht. Meine Erwartung an solche Programme ist, dass sie ihren Job weitgehend unbemerkt im Hintergrund erledigen. Man sollte sich darauf verlassen können, das die immer funktionieren und man nur im ernsten Fehlerfall benachrichtigt wird.

Realität ist, dass einem Virenscanner oft tierisch auf die Nerven fallen. Nachdem mein Schmerz-Limit jetzt nach mehreren Jahren Avira Antivir erreicht war, musste was Neues her. Ich konnte das Teil einfach nicht mehr ertragen. Im Großen und Ganzen ist diese Software eigentlich gar nicht so schlecht, aber diverse Macken schleppen die seit Jahren mit sich herum. Und jetzt wollte ich nicht mehr. Es ging z.B. darum, dass kurz nach dem Hochfahren der Rechner so ausgelastet wird, dass man die ersten 5 Minuten nicht mit arbeiten kann. Aber man fährt doch einen Rechner hoch, weil man mal schnell irgendwas machen will. Es ist vor allem die Sache, dass so unverständlich dumme Dinge so penetrant über Jahre gemacht werden, ohne das eine Verbesserung in Aussicht ist. Auch das automatische Update ist seit vielen Jahren die reinste Katastrophe. Es gibt immer wieder Computer, da funktioniert es aus unerfindlichen Gründen monatelang nicht. Unter Windows 2000 war das sogar so, dass man nicht mal drüber informiert wurde. Peinlich für eine Sicherheitssoftware...

Norton Antivirus war ganz früher mal gut, dann kam eine lange Phase, wo viele davon abgeraten haben. Es klaute dem Rechner jede Menge Leistung. Seit ein paar Jahren jedoch hatte ich wahrgenommen, dass die Kritiken zum Produkt immer besser wurden. Gerade in Sachen Performance sollte sich viel getan haben. Und auch die Strategien für Virenerkennung sollen gut sein. Virendefinitionsdatenbanken erscheinen mir sehr gut gepflegt. In Tests schneidet es meist hervorragend ab.

Seit 4 Wochen teste ich jetzt Norton Antivirus 2012. Der erste Eindruck war sehr gut. Vieles erscheint mir rund, das Programm nervt und stört auch nur wenig. Die Übersichtlichkeit der Benutzeroberfläche ist mäßig. An zahlreichen Stellen muss man erst umständlich eine Online-Hilfe im Web bemühen, weil es sich nicht von selbst erklärt. Aber egal, Hauptsache das Teil funktioniert und stört mich nicht. Die Zeit, das Teil einmal richtig zu konfigurieren, nehme ich mir gern.

In den letzten Tagen nervte mich allerdings wieder ein Umstand: Mitten in der Arbeit wurde mein Rechner dermaßen ausgebremst, dass ein Arbeiten kaum noch möglich war. Ich beobachtete, wie die Festplatten-LED fast ununterbrochen an war. Also jede Menge Fesplattenzugriffe. Bloß welches Programm verursacht dies? Unter Windows bekommt man keine einfache Antwort auf so eine Frage. Ein erster Griff zum Task-Manager offenbarte noch nicht sehr viel, weil der zwar CPU und Speicherauslastung anzeigen kann, nicht aber Festplatten-IO-Auslastung. Aber darum geht es ja oft bei Performance-Problemen, wie auch hier. Man kann dann nur raten, welcher Prozess da gerade was macht. Ein Prozess tauchte mit 2% Aktivität auf und auch sein Speicherbedarf veränderte sich immer etwas: ccsvchst.exe Mit google mal geguckt, wer das ist: Gehört zu Norton. Aha! Hört sich logisch an, mal wieder der Virenscanner, der mir hier die Performance klaut.

Also bedeutet das nun doch wieder, mich mal in diversen Foren schlau zu machen. Dadurch bekam ich schnell heraus, dass es der sogenannte Quickscan ist, den Norton mindestens einmal am Tag für vielleicht 5 Minuten macht. Aber warum passiert das bei mir öfters? Also weiter Foren lesen und irgendwann kam heraus, dass der Quicksan wohl immer dann aktiv wird, wenn neue Virendefinitionen heruntergeladen wurden. Und das kann mehrfach am Tag sein.

Ich werde also mehrfach am Tag so ausgebremst, dass ich nicht mehr mit dem Computer arbeiten kann. Wer denkt sich sowas aus? In Foren wird aber auch behauptet, dass Quickscan pausiert, sobald man was am Computer macht. Bei mir nicht, der läuft munter weiter. Hier spürt man auch die Informationsarmut vom Hersteller. Würde der mal genau erklären, was wann warum passiert, würde sich das Rätselraten in Foren erübrigen. Auch tonnenweise Fehlinformationen, durch die man sich durchackern muss.

Natürlich lässt der Quickscan sich auch nicht ausschalten. Könnte der nicht wenigstens so gedrosselt laufen, dass er mir maximal 20% meiner Festplattenleistung klaut? Warum müssen solche Programme immer 100% den Computer beanspruchen? Das hab ich nämlich herausgefunden, nachdem ich hdiskperf gestartet habe. Interessanterweise hat auch Norton einen Performance-Monitor drin, in dem zu erkennen ist, wie viel Systemleistung Norton braucht. Aber auch hier wird nur die CPU-Leistung grafisch dargestellt. Nicht aber die Festplatten-IO-Zugriffe, um die es ja eigentlich geht.

Workaround? Ja, es gibt einen: Rechter Mausklick auf das Symbol und "Silentmode einschalten" auswählen. Dies dann z.B. für den ganzen Tag machen. Nachteil: Jetzt werden auch keine Updates mehr gemacht. Am besten schaltet man also in einer Pause den Silentmode wieder ab, damit der dann fleißig seine Aufgaben tut. Das bedeutet aber wieder, sich regelmäßig um den Virenscanner zu kümmern, wozu ich im Alltag vermutlich zu faul bin. Übrigens: Wenn der Quickscan einmal läuft, hilft auch kein Silentmode mehr. Der Quickscan läuft erst zu Ende, erst dann greift der Silentmode.

Da gab es dann noch einen anderen Trick: Man kann bestimmte Programme definieren. Sind diese festgelegt, wird automatisch in den Silentmode gewechselt, wenn die offen sind. Tolle Sache, dacht ich mir: Ich werde einfach Firefox eintragen, der ist sowieso fast immer offen, wenn ich arbeite. In Pausen mache ich den einfach zu und dann darf der Virenscanner auch seine Arbeit machen. Sehr praktisch wäre das. Aus unerfindlichen Gründen funktioniert das aber nicht. Obwohl Firefox offen ist, wird Quickscan ausgeführt. Vielleicht komme ich noch dahinter, woran das liegt...

Eine Kleinigkeit, die mich auch gestört hat: Ich hatte so konfiguriert, dass das Symbol unten rechts in der Taskleiste immer angezeigt wird. Das ist praktisch, kann ich doch so schnell das Programm starten oder den Silentmode aktivieren. Gleichzzeitig hab ich das Icon auf dem Desktop entfernt. Das braucht man ja nicht, es bringt keinerlei Zusatznutzen, wenn das Symbol in der Taskleiste da ist. Gedacht, getan. Funktionierte alles. Nach 3 Tagen gab es wohl ein größeres Update und damit wurde mir wieder ein Icon auf den Desktop gepflanzt und das Symbol in der Taskleiste wieder ausgeblendet. Jetzt kann ich mich entscheiden, entweder das so zu akzeptieren oder regelmäßig wieder umzukonfigurieren.

Fazit: Ich hab mich jetzt auf das konzentriert, was nervt. Das auch deshalb, weil ich sowieso schon ziemlich wund gefahren bin, was nervige Virenscanner angeht. Davon mal ab muss ich sagen, macht Norton noch einen recht guten Gesamteindruck. Ich bleibe jetzt erstmal dabei, eine 5er Lizenz ist bereits gekauft. Ich habe sowieso den Eindruck, dass alle Virenscannerhersteller mehr oder weniger ihre Probleme haben, ein Produkt mal wirklich rund zu machen. Und selbst wenn es einmal rund ist, spätestens bei der nächsten Version gibt es doch wieder diverse Sachen, die nerven. Eine gute langfristige Lösung, die zudem auf unterschiedlichsten Computern stabil läuft, kann ich noch nicht sehen. Ich vermute hier auch, dass zwischen Virenscannern und Betriebssystem einiges im Argen liegt. Entwickler von Virenscannersoftware müssen dann viele Handstände machen, um Funktionalität überhaupt sinnvoll integriert zu bekommen. Nur so kann ich es mir erklären, dass manche Macken in jedem Produkt mehr oder weniger ausgeprägt zu finden sind.

Was mir bei vielen Virenscanner-Tests auffällt: Das, worum es eigentlich geht, wird oft nicht getestet. Da werden unter Laborbedingungen irgendwelche Parameter ermittelt. Aber die Dinge, die wirklich in der Praxis relevant sind, kommen dort nur wenig zum Ausdruck. Hierzu bräuchte es Kenner eines Produktes, die die Schwächen aus dem alltäglichen Einsatz kennen. Nicht nur auf Hochleistungsmaschinen, sondern auch auf einem 5 Jahre alten Computer mit mäßiger Ausstattung. Würden solche Ergebnisse dann von großen Fachzeitschriften auch publiziert, hätte das die Chance, dass die Hersteller mal wirklich ihre Hausaufgaben machen.

29.10.2011 :: Windows - Diagnose unmöglich

Man hat sich so dran gewöhnt, dass es keinem mehr sonderlich auffällt. Windows Fehlerdiagnose ist ganz oft ein Stochern im Nebel. Nichts genaues weiß man nicht. Installier am besten mal alles neu! Eine Aussage, die man öfters liest und hört und die die Hilflosigkeit ausdrückt. Auch bei ach so modernen Betriebssystemen, wie Windows 7.

Ausgereifte Möglichkeiten der Fehlerdiagnose werden seit vielen Jahren besonders unter Windows sträflich vernachlässigt. Auch wenn Fehlerdiagnose im Linux-Umfeld auch alles andere als vorbildlich ist, man findet zumindest ein paar brauchbare Ansätze, wie Logfiles, in denen man Probleme und deren Ursache nachlesen kann. Aber auch hier hängt wieder viel an den Entwicklern, wie auskunftsfreudig und damit zielführend solche Informationen sind. (Ja, auch Windows kennt Logfiles, aber welche Softwarekomponente schreibt da schon sinnvolle Infos rein? Oder bei welcher Software kann man die Gesprächigkeit für Logs einstellen?)

Letztens wollte ich einen Druckertreiber installieren. Während der Installation kam 3 mal eine Fehlermeldung: "Die Argumente sind ungültig". Das war alles. Da wurde mal wieder was mit heißer Nadel gestrickt. Als Admin steht man dann da und hat keinerlei Ansatzpunkt, was man tun könnte. Die meisten Windows-Fehlermeldungen taugen auch nicht dazu, ein Problem einzukreisen. Der einzige Wert besteht darin, dass man sie wortwörtlich in eine Suchmaschine einträgt und guckt, ob andere schonmal das gleiche Problem hatten und ob die durch Stochern im Nebel zu irgendeinem Ergebnis gekommen sind.

Möglich ist das schon, in Software jede Menge von Diagnosemöglichkeiten zu integrieren. Konzepte, Ideen und gute Umsetzungen findet man auch. Gerade dann, wenn man in einem Betriebssystem gute Diagnosemöglichkeiten integriert, hat das einen enormen Effekt. Milliarden von Computern könnten leichter und schneller gewartet werden. Über die Jahre gerechnet, würde man viele Milliarden Stunden Zeit einsparen, die man heute für die aufwändige Beseitigung von Fehlern benötigt. Eine Neuinstallation eines Betriebssystems inkl. der Einrichtung aller Programme kann schonmal einen Tag Zeit beanspruchen. Wer ab und zu ein Festplattenimage macht, kommt schon schneller voran, muss dann aber auch mehr oder weniger aufwändig die Veränderungen der letzten Wochen oder Monate nachpflegen. Und dann gibt es ja auch die schönen Backup-Programme, die zwar schreiben "Backup erfolgreich", dann aber mit der Wiederherstellung ihre Probleme haben. Natürlich mit klasse Fehlermeldungen wie "Image ungültig.".

Diagnose-Möglichkeiten haben einen genauso schweren Stand, wie Maßnahmen zur System- und Datensicherheit. Alle gieren nach neuen Möglichkeiten, was man mit einer Software machen kann. Damit wird Geld verdient. Diagnose ist im normalen Betrieb ein völlig unnützes Stück Software. Der Anwender hat im Normalbetrieb keinerlei Vorteile. Natürlich wären viele froh, auch im Fehlerfall gute Unterstützung zu bekommen. Aber wenn man eine neue Software kauft, ist kaum jemand bereit, für solche versteckte Wertigkeit zu bezahlen. Kommt noch hinzu, dass die Entwicklung in der Computerbranche so schnell abläuft, dass man immer nur Zeit hat, Features zu implementieren. Ein Produkt mal wirklich rund zu machen und auch den Bereich Fehlerfall mal kräftig zu entwickeln, dafür sind keine Ressourcen da.

Das Betriebssystem als Basis infiziert auch immer alles, was dafür gebaut wird. Wenn das Betriebssystem selbst schon keine ausgeklügelten Mechanismen der Diagnose zur Verfügung stellt, versucht man es als Programmierer von Anwendungssoftware erst gar nicht, es besser zu machen. Wenn ein Betriebssystem hingegen mit mustergültigen Diagnosemöglichkeiten und Schnittstellen auffährt, nutzen Programmierer diese Möglichkeiten auch. Wenn man etwas auf dem Silbertablett angeboten bekommt, greift man zu. Das Betriebssystem bestimmt die Entwickler-Kultur.

Ich hatte letztens mal wieder einen Rechner, bei dem permanent Festplattenzugriffe waren, die das System völlig ausgebremst haben. Wie schön wäre es in solchen Situationen, blitzschnell das Programm ausfindig zu machen, welches da auf die Festplatte zugreift. Um dieses dann auch noch zu fragen, was es denn da auf der Festplatte so tut. Auch die Möglichkeit, so etwas mal adhoc stoppen zu können, wäre klasse. Doch das bleiben Wunschträume, vor allem unter Windows. Eine systematische Eingrenzung von Fehlern ist ganz oft nicht möglich. Also fummelt man mit ein paar Ideen rum, deinstalliert mal den Virenscanner und diverse andere Software-Komponenten, um dem Übeltäter auf die Spur zu kommen. Stochern im Nebel. Trial and Error.

Als Admin ist diese Vorgehensweise auch recht unbefriedigend. In vielen Fällen kann man keine wirksamen Erfahrungen aufbauen, mit denen man zielgenau und effizient beim nächsten mal ein Problem packen kann. Wenn man Problem und Ursache nicht genau durchdringen und erkennen kann, bleiben nur ein paar Vermutungen. Ein paar allgemeine Lösungsansätze, ein paar Hoffnungsträger. Besonders leidet man dann, wenn man um die Möglichkeiten systematischer Fehlersuche weiß, diese unter Windows aber nicht vorfindet.

Automatismen und verborgene Mechanismen machen einem unter Windows auch oft das Leben schwer. Ich hatte letztens unter Windows 7 das Problem, dass das System sich fehlerhafte Netzwerkeinstellungen gemerkt hat. Immer, wenn ich das System an ein Netzwerk anschloß, erinnerte sich das Windows an dieses Netzwerk, konfigurierte dies aber falsch. Wie schön wäre es gewesen, wenn Windows mir auflisten könnte, was es sich da alles gemerkt hat, damit ich das dann auch zielgerichtet entfernen kann. Oder zumindest mal ein Button, mit dem ich das "Netzwerkgedächtnis" mal komplett zurücksetzen kann. Sowas scheint es aber nicht zu geben und es gab ellenlange Forumthreads, in denen dieses Problem diskutiert wurde. Lösungen gingen sogar schon soweit, sich einen neuen Router zu kaufen, weil Windows dann ein neues Netzwerk erstellt. Ist das nicht krank? Weil man Windows nicht dazu bringen kann, bestimmte Dinge zu vergessen, muss man sich eine neue Hardware kaufen oder mal eben das komplette Betriebssystem nochmal neu installieren.

Die Geschichten über kranke Diagnose- und Fehlerbereinigungsmöglichkeiten könnte man endlos weiter schreiben. Vermutlich wird dieses Thema auch in den kommenden Windows-Versionen nicht wesentlich besser werden. Stattdessen werden wir mit ein paar grafischen Gimmicks auf der Oberfläche beglückt, die ein wenig schick wirken, die aber keiner wirklich braucht. Das, was die Arbeit wirklich effizienter machen würde, wird oft vernachlässigt.

Trotz alle dem, was auch unter Windows einem das Leben ungemein vereinfacht, ist die alte Technik-Weisheit:

Never touch a running system!

28.10.2011 :: Zehnfingerschreiben

In fast jedem Schreibtischberuf muss man heutzutage jede Menge in den Computer tippen. Und auch privat nutzen immer mehr Menschen die elektronische Kommunikation. Doch die meisten haben nie effizient Maschinenschreiben gelernt. Dabei zahlt sich diese Investition besonders hoch aus. Einmal gelernt und von da an geht vieles am Computer extrem viel schneller.

Wer regelmäßig übt, sollte nach 4-6 Wochen schon recht gut im Zehnfingersystem schreiben können. Geübte schaffen nach ein paar Monaten dann z.B. 200-400 Anschläge pro Minute.

Hier kann man herausfinden, wie viele Anschläge man derzeit schafft:

Ein recht brauchbares kostenloses Programm zum Lernen des Zehnfingersystems findet man hier:

Wer lieber in der Gruppe lernt - fast jede Volkshochschule bietet Kurse an.

26.10.2011 :: Viele Cloud-Angebote unsicher

http://www.computerbild.de/artikel/cb-Aktuell-Internet-Sicherheitslecks-Amazon-Web-Services-Ruhr-Universitaet-Bochum-6560372.html

23.10.2011 :: Reduktion - Mach alles einfach

Alles, was wir wahrnehmen, beansprucht unser Bewusstsein und bindet Energie. Jede Entscheidung und jeder Selektionsprozess braucht Kraft. Jede Wahrnehmung führt zu Assoziationsketten, die in unserem Gehirn ablaufen und eine Menge neuer Gedanken produzieren. Jeder Seitenpfad, auf den sich unser Denken machen muss, lenkt uns vom Wesentlichen ab.

Stressforscher haben schon längst herausgefunden, dass es vor allem die Unterbrechung ist, die uns stresst. Wenn wir von dem, was wir eigentlich wollen, durch irgendwas abgelenkt werden, macht das Stress. Menschen, die ständig bei ihrer Arbeit umschalten müssen, sind besonders gestresst. Wobei die Fähigkeit, mit Unterbrechungen umzugehen, von Mensch zu Mensch sehr unterschiedlich ausgeprägt ist.

Es lohnt sich, sein Werkzeug Computer immer mal wieder zu entrümpeln und den Wahrnehmungsbereich zu vereinfachen. Alles muss weg, was keinen Nutzen hat und uns nur ablenkt!

Auf dem Desktop sammeln sich auf vielen Computern dutzende von Icons an, die niemand wirklich braucht. Warum muss z.B. ein Programmlink dort liegen, wenn er schon in der Schnellstartleiste liegt? Warum braucht es einen Link zum Acrobat Reader, wenn man sowieso immer nur direkt auf die PDF-Datei klickt, um sich ein PDF-Dokument anzuschauen? Warum muss ein Link für den Virenscanner auf dem Desktop liegen, wenn man den genauso über die Taskbar rechts unten öffnen kann?

Persönlich mag ich einen ganz schlichten einfarbigen Desktophintergrund am liebsten. Genauso, wie mein Schreibtisch leergeräumt eine angenehme Ruhe ausstrahlt. Ich kenne andere, die brauchen da Fotos, die sie angenehm berühren. Es ist wie so oft der sinnvolle Kompromiss, den man für sich finden muss.

Viele Softwarehersteller sind sehr narzistisch. Sie meinen, sie müssten zum Mittelpunkt auf unserem Computer werden und belästigen uns überall. Da werden neue Symbolleisten einfach so in unseren Browser installiert, da poppen ständig irgendwelche Infofenster auf, da laufen ständig Hintergrundprozesse, die Systemleistung rauben und uns mit unnützen Informationen belästigen. Wozu brauche ich z.B. die Meldung, die gerade auf meinem Rechner hochkam: "Lenovo hat keine Probleme auf ihrem Computer festgestellt." Oder die nervigen Registrierungsaufforderungen oder die eingeblendete Werbung. Ich saß schon vor Computern, die mich ganz rappelig gemacht haben. Alle 2-3 Minuten kam irgendeine Unterbrechung - ein Update, eine Werbung, eine Sicherheitsmeldung, Assistenten, die mich belehren wollten usw. Irgendwann schwirrte mir der Kopf und ich hätte das Teil am liebsten aus dem Fenster geworfen.

Man kann viel tun, um all die lästigen Plagegeister los zu werden. Mit Start > Ausführen > msconfig > Systemstart kann man viele Einträge deaktivieren. Welche Einträge nötig sind, kann man sich schnell ergooglen. Im Zweifelsfall schaltet man etwas ab und guckt, ob der Rechner sich noch korrekt verhält. Aber Vorsicht: Hier keine Prozesse ausschalten, die für eine regelmäßige Aktualisierung wichtiger Programmteile benötigt werden. Es sei denn, man will die bewusst abschalten, um stattdessen regelmäßig Updates manuell auszuführen.

Software, die nicht benötigt wird, putzt man vom Rechner runter (Systemsteuerung > Software bzw. Programme). Programme, die uns mit Popupfenstern nerven, inspiziert man unter Einstellungen, ob sich sinnlose Meldungen abstellen lassen. Software, deren kostenlose Version sich durch Werbung finanziert, verwende ich nur noch selten. Ich kaufe sie stattdessen - meist für wenig Geld - und bin die Werbung los. Wenn man sich mal überlegt, wie viel Generve man sich antut, nur um ein paar Euro zu sparen, stellt sich schnell heraus: Es lohnt sich, ein paar Euro auszugeben, um sich seine Ruhe und Konzentration auf das Wesentliche wieder zurückzuerobern. Wir sind heutzutage sowieso durch den ganzen Kommerz so dermaßen überreizt, dass jede Reduktion davon kostbar ist.

Im Firefox Browser kann man sich segenreiche Plugins, wie Adblock Plus installieren, die viel Werbung von Internetseiten wegschluckt. Im Browser kann man Symbolleisten herausschmeißen, die man nicht benötigt. Meist zu finden unter dem Menüpunkt Ansicht. Auch in anderen Programmen kann man hier aufräumen und Dinge herausschmeißen, die man nie braucht.

Bei der Ablage von Dateien aller Art lohnt es sich auch, immer mal wieder aufzuräumen und gut zu strukturieren. Dokumente, die man oft benutzt und die in der Ordnerstruktur tief einsortiert sind, holt man sich über Verknüpfungen in den schnelleren Zugriff. Man kann z.B. einen Ordner "Oft benutzt" anlegen, wo man solche Verknüpfungen ablegt. Diesen kann man auch auf dem Desktop anlegen. Auf dem Desktop lohnt es sich oft auch, viele Einzelsachen, die irgendwie zusammengehörig sind, in einen Ordner einzusortieren. Dann liegt erstmal nur ein Ordner auf dem Desktop, dieser wirkt dann aufgeräumter. Erst wenn man sich einem bestimmten Arbeitsprozess zuwendet, öffnet man diesen oder jenen Ordner. Ordner sind wie Schubladen, man kann Details verbergen, damit sie einen nicht ablenken.

Bleibt noch die Verlockung, uns mit möglichst viel Information gleichzeitig zu umgeben. Alles könnte irgendwie wichtig sein: Messenger, Wetterbericht, News, E-Mail, Börsenkurse, Twitter, Facebook... Für manch einen ist jede Neuigkeit wie ein Stück Schokolade, was man sich einverleibt. Eine positive Anregung des Organismus. Und doch sind solche Informationshappen Gift für konzentrierte Arbeitsprozesse. Sich ganz bewusst von all dem abzuschotten, kann viel bewirken. Und mal ehrlich - welche Information ist wirklich so wichtig, dass ich sie jetzt sofort und nicht erst in 3 Stunden brauche? Das E-Mail Programm zu schließen und nur alle paar Stunden mal kurz zu öffnen, kann ein erster sinnvoller Schritt sein, seine Konzentration auf das Wesentliche zu bewahren.

Eine Schattenseite der heutigen Überreizung ist übrigens, dass man abstumpft und seine Sensibilität herunterfährt. Man ist dann nicht mehr offen und empfänglich für die leisen Dinge, die manchmal große Bedeutung haben.

11.10.2011 :: Tastaturen schnell abgegriffen

Die Qualität von Tastaturen nimmt in den letzten Jahren stark ab. Es sind vor allem die Tastenbeschriftungen, die sich relativ schnell abgreifen. Leider ist das mittlerweile auch bei Markenherstellern wie Microsoft, Logitech, Dell und Lenovo der Fall. Auch bei teuren Tastaturen im Preissegment von 50-100 Euro.

Das Hauptproblem liegt in der Art der Tastenbeschriftung. Heutzutage werden dafür fast überall nur noch Beschriftungen aufgebracht, die wie kleine Abziehbildchen aussehen. Es liegt also eine hauchdünne Beschriftung auf der Tastenkappe, wobei man rund um die Schrift zusätzlich noch eine farblose Schicht erkennt. Dies rein oberflächliche Beschriftung greift sich bei Gebrauch dann relativ schnell ab. Besonders bei Tasten, bei denen man oft auch mit den Fingernägeln Kontakt hat (bei 10 Finger z.B. N, M oder C).

Es geht auch anders: Früher waren die Tastenkappen oft aus 2 Kunststoffen gespritzt. Die Beschriftung bestand also aus einem andersfarbigen Kunststoff, der tief in die Kappe hineingepresst wurde. In aller Regel hielten solche Tastenkappen auch bei intensiver Benutzung länger, als die Lebensdauer der Tastenmechanik. Meine 20 Jahre alte Cherry G80-3000 Tastatur hat auch noch solche Tasten. Ebenso ältere Tastaturen von IBM und Fujitsu-Siemens.

Ärgerlich ist die Sache besonders bei Notebooks. Teure Geräte, wo nach 2 Jahren schon einige Tasten nicht mehr lesbar sind. Und dies auch bei Business-Notebooks von Markenherstellern, so z.B. bei Lenovo. Wobei hier die Qualität noch etwas besser ist und solche Tasten schon ein paar Jahre durchhalten können. Bei manchem Notebookhersteller fehlen bereits nach einigen Monaten Teile der Beschriftung. Ein Austausch ist nicht ohne weiteres möglich oder sehr teuer.

Wie lange Tastenbeschriftungen halten, ist auch von Person zu Person recht unterschiedlich. Lange Fingernägel sorgen z.B. dafür, dass der mechanische Abrieb wesentlich höher ist. Auch Handschweiß oder Cremes können sehr aggressiv sein und die Beschichtung chemisch angreifen.

Beim Neukauf einer Tastatur sollte man den Kassenzettel gut aufbewahren. Viele Tastaturhersteller sind kulant, wenn es um abgegriffene Tastenknöpfe geht. So kann man seine Tastatur vor Ablauf der Garantie vielleicht noch einmal umtauschen. Bleibt zu hoffen, dass genügend Rückläufer die Hersteller dazu bringen, wieder bessere Qualität herzustellen.

Kann man eine abgegriffene Tastatur auch selber noch retten? Mittlerweile gibt es von zahlreichen Anbietern Tastaturaufkleber, die man auf die Tastenköpfe aufklebt. Und neue Tasten kann man auch mit transparenten Aufklebern schützen, die ebenso von solchen Anbietern zu beziehen sind. Damit Aufkleber gut haften, müssen die Tasten zuvor auf jeden Fall gut entfettet werden. Nach meiner Erfahrung ist dafür Waschbenzin oft gut geeignet. Es ist aber nicht auszuschließen, das manche Kunststoffe oder Beschriftungen das nicht mögen.

08.10.2011 :: Neuer Kleber: Pattex 100%

Kleb- und Dichtstoffe auf MS-Polymerbasis sind eine echte Innovation und haben in den letzten 10 Jahren den Markt erobert. Pattex ist auf diesem Gebiet recht führend. Seit etwa 5 Jahren gibt es den Pattex Repair Extreme, den ich vielfach einsetze. Flexible Verklebungen sind bei mittlerer Belastung oft überlegen, weil sie gegenüber Schlag und Vibration recht unempfindlich sind. Die flexible Klebefuge kann solche Beanspruchungen gut aufnehmen, harte Kleber neigen hier zum brechen oder abplatzen.

Der neue Kleber mit der Bezeichnung Pattex 100% gibt es in 3 Packungsgrößen: 50g, 100g und 200g Flasche. Mit etwa 6-7 Euro für die 100g Flasche ist er wesentlich günstiger, als Pattex Repair Extreme (20g etwa 7 Euro). Von der Konsistenz ist er wesentlich dünnflüssiger, härtet aber auch in dickeren Schichten genauso zu einer flexiblen Masse aus. Das Endresultat ist von der Härte etwa so, wie Pattex Repair Extreme, also von der Konsistenz ähnlich wie Schuhsohle oder Radiergummi.

Die meisten MS-Polymere sind recht dick eingestellt, sie fließen also ähnlich wie Silikon nicht weg. Der Vorteil ist, dass sie damit eine große Anfangshaftung haben und der Kleber aus Fugen nicht wegfließt. Gerade beim Kleben gibt es aber auch viele Fälle, wo ein noch leicht fließender Kleber günstig ist. Pattex 100% ist der dünnflüssigste MS-Polymerklebstoff, den ich kenne. Früher war Pattex Repair Extreme auch dünner eingestellt, was später verändert wurde. Dies hat sich für mich öfters mal als Nachteil erwiesen, je nach Situation. Auf der Suche nach einem anderen Produkt fand sich leider nichts am Markt. Deshalb finde ich das jetzt eine gute Ergänzung.

Natürlich können flexible Kleber nie so große statische Kräfte aufnehmen, wie z.B. Epoxydharze. Es braucht also eine gewisse Klebefläche. Die meisten MS-Polymere haben eine Zugscherfestigkeit von 2-5N/mm², man kann also 20-50Kg an 1cm² Fläche aufhängen, bis sie reißen. Epoxydharze schaffen typisch 350Kg.

In vielen Klebefällen spielt aber nicht die statische Belastbarkeit eine Rolle, sondern dynamische Belastungen. Und hier sind dann Flexkleber doch oft überlegen.

Interessant an diesen Klebstoffen ist auch, dass sie Oberflächen nicht anlösen und durch abrubbeln wieder gut entfernt werden können. Sie eignen sich deshalb für Verklebungen, die man irgendwann wieder entfernen möchte. Ein Beispiel wäre z.B. das Aufkleben einer Halterung auf einem Amaturenbrett im Auto, welche man später wieder rückstandsfrei entfernen möchte. Klar darf man in solchen Fällen die Klebeflächen nicht zu groß wählen, um eine Chance zu haben, die Verbindung wieder zu lösen.

Auch wenn Pattex 100% lösemittelfrei und frei von kennzeichnungspflichtigen Gefahrenstoffen ist, sollte man den Kontakt des flüssigen Klebstoffes mit der Haut vermeiden. Allergische Reaktionen sind nicht ausgeschlossen und die enthaltenen Siloxane gelten lt. Sicherheitsdatenblatt als gesundheitsschädlich.

Tipp: Bevor man den Verschluß aufdreht, schüttelt man die Flasche am besten erstmal so, dass der Kleber zum Verschluß hin fließt. Oder man stellt sie für etwa 30 Sekunden auf den Kopf. So fließt dann nach dem Öffnen sofort Klebstoff heraus und Luft gelangt nicht in die Flasche. Luft würde Polymerisationsprozesse schon in der Flasche anstoßen. Klebt man längere Zeit, kann man die Flasche auf dem Kopf stehen lassen. Der Kleber ist so dickflüssig, dass er nicht von selbst rausläuft. Hierfür baut man sich eine Ablage, z.B. ein Stück Holz mit einem 14mm Loch. Oder eine Lötzinnrolle mit Loch in der Mitte.

Das technische Merkblatt zum Kleber findet man hier...

Ein Produktvideo findet sich hier...

Ein Artikel zu MS-Polymerklebstoffen findet ihr hier...

25.08.2011 :: Die Panik-Hektik-Druck-Falle

Wann sind mir eigentlich die dümmsten Fehler unterlaufen? Fast immer war ich in einem inneren Zustand von Panik, Hektik oder Druck. Die besten Lösungen hingegen entstehen meistens in einem entspannten und gelassenen Zustand.

Als Systemadministrator ist man öfters in der Situation, in technische Notsituationen zu kommen. Viele sind abhängig von der Technik und wenn etwas nicht funktioniert, geht die Panik und Hektik los. Wenn man als Admin extrem gefährliche Situationen erkennt, entsteht auch schnell großer innerer Druck.

Vielleicht ist die wichtigste Eigenschaft in solchen Situationen, innere Ruhe und Gelassenheit zu bewahren. Sich nicht anstecken zu lassen von der ganzen Hektik, die um einen drumherum und in einem wütet. Sich nicht verführen zu lassen, schneller zu arbeiten, als eigentlich möglich ist. Denn die Verantwortung dafür, wenn was schief geht, die trägt man wieder selber. Und die Auswirkungen eines falsch abgesetzten Befehls kann gerade in der Systemadministration veheerend sein. Denn hier arbeitet man oft ohne Netz und doppelten Boden. Das System schützt einen nicht vor Falschbedienung, man braucht vielmehr seinen klaren Verstand und Zeit, zu reflektieren, was man tut.

Als Denkarbeiter muss man gerade auf die Gehirnregionen zugreifen, die in Paniksituationen nicht mehr funktionieren. Der Körper schaltet auf Flucht oder Angriff um. So, wie das geschichtlich wohl die beste Überlebenschance war. Nur noch die überlebenswichtigen alten Gehirnregionen bleiben aktiv, die höherentwickelten neueren Gehirnregionen hingegen werden heruntergefahren. Doch die sind es, die für Reflexion und Intuition zuständig sind, dort entstehen gute Ideen und Einfälle. Durch Panik geht die Weite im Denken verloren, alles verengt sich und man kann nur noch Automatismen abspulen.

Wenn ich im Nachhinein darüber nachdenke, was ich in panikartigen Situationen falsch gemacht habe, dann ist es schwer verständlich, wie ich solche Trivial-Fehler machen konnte. Dann vergisst man auf einmal eine wichtige Datensicherung, bevor man loslegt oder löscht versehentlich mal gleich ein wichtiges Backup weg. Es ist auch nicht selten, dass gerade durch panikartig-getriebenes Handeln erst der eigentliche Schaden entsteht, den ich dann als Sysadmin irgendwie reparieren muss. Aus einer Kleinigkeit wird dann ein großes Problem.

Eine Minute Ruhe hätte oft geholfen. Allen Beteiligten. Kommt noch hinzu, dass man in Notsituationen stundenlang hochkonzentriert an etwas arbeiten muss. Doch die Konzentration lässt irgendwann nach. Eine Pause wäre jetzt eigentlich sehr sinnvoll und würde ingesamt auch zu einer schnelleren Problemlösung beitragen. Doch wer traut sich in einer total angespannten Notsituation, erstmal 15 Minuten gar nichts zu tun? Das Umfeld reagiert ja auf solche vermeintlichen "Spinnerein" auch schnell mit Unverständnis oder Ärger. Es kann nicht nachvollziehen, dass gerade dies zu einer schnellen Lösung beiträgt.

Gehe langsamer und du gehst schneller.

Ich glaube, es ist gut, wenn man seine Fähigkeit schult, Ruhe zu bewahren. Manchen gelingt es sogar, das Umfeld zu beruhigen, so dass alle sinnvoller und intelligenter miteinander zusammenarbeiten können. Dem Druck und der Hektik zu folgen, diese noch anzustacheln, ist ganz oft der falsche Weg und führt zu den großen Katastrophen. Moderne Technik funktioniert nicht, wenn man kräftig davortritt oder sonstwie unkoordiniert auf sie einwirkt. Nicht die Kräftigen, sondern die Geschickten gewinnen. Hier geht es auch darum, sein Vertrauen darin zu stärken, dass in der Ruhe die wahre Kraft liegt.

Moderne Technik fordert uns etwas ab, was unserer natürlichen Reaktion entgegenläuft. Das ganze Fachwissen nützt aber nichts, wenn es durch zu hohen Druck nicht mehr geschickt zum Einsatz kommen kann.

Manche Menschen sind schon von Natur aus mit dieser Charaktereigenschaft gesegnet, Ruhe bewahren zu können. Das ist sicher ein großer Glücksfall. Man kann diese Fähigkeit aber auch trainieren. So, wie man durch körperliches Training Muskeln aufbaut, kann man durch mentales Training auch psychische Kräfte entwickeln.

Die Meditation wäre so eine Art regelmäßiges Training, mit der ich seit vielen Jahren gute Erfahrungen gemacht habe. Sie ist Teil des MBSR-Ansatzes zur Stress-Reduktion. Wenn man 30 Minuten nichts weiter macht, als auf den Atem zu achten, kommt das Denken zur Ruhe. Man trainiert, sich durch nichts abzulenken und so von den ganzen Einflüssen abzuschirmen. Wenn das Denken zur Ruhe kommt, anstatt hektisch hin und her zu springen, kann Klarheit entstehen und man kann tiefer blicken.

Technische Lösungen erkennt man oft auch erst dann, wenn die oberflächliche Hektik zur Ruhe kommt und man tiefer schauen kann. Dann ordnen sich die Dinge und bekommen eine Logik. Dann versinkt man nicht immer mehr im Chaos. Das ist der Badewannen-Effekt - die besten Einfälle kommen einem in der Badewanne oder sonstigen entspannenden Orten.

Durch innere Ruhe entsteht auch Bewusstheit. Man weiß, welchen Schritt man noch vor 5 Minuten gemacht hat. Man erinnert sich besser an alles, was schon war. Das kann gerade bei technischen Lösungen wichtig sein, um das Problem verstehen und treffsicher packen zu können. Systemlösungen entstehen oft daraus, im vermeintlichen Chaos die Strukturen und Muster zu erkennen.

Anstatt sich zu schnell in technische Details zu verstricken, kann es auch sinnvoll sein, erstmal die Randbedingungen zu prüfen. Ich hatte letztens mal einen Fall, wo ich mich gleich in die technische Lösung verstrickte, telefonisch zu klären, warum ein Drucker nicht funktioniert. Nach 5 Minuten Ferndiagnose und erfolglosem rumprobieren, fragte ich, ob denn heute irgendwas Besonderes war. Erst jetzt kam zur Sprache, dass der Tischler da war und am Schreibtisch etwas verändert hatte. In der Nähe, wo der Computer stand. Und darüber war die Lösung dann schnell gefunden - er hatte versehentlich das USB-Kabel aus dem Rechner gezogen.

04.08.2011 :: Festplatten - Herstellervielfalt schrumpft

Die meisten Daten bzw. Informationen der Welt werden heutzutage auf Festplatten vorgehalten. Millionen von Scheiben rotieren 24 Stunden am Tag, um im Internet das Wissen der Welt ständig abrufbereit vorzuhalten. Und auf fast jedem Computer zu Hause und im Büro drehen sich ebensolche Scheiben Tag für Tag, um Dokumente, Programme, Musik, Videos oder E-Mails abrufbereit zu halten.

Seit gut 20 Jahren konnte ich die Entwicklung dieser Branche beobachten. Als wir damals anfingen, Computer zusammenzuschrauben und zu verkaufen, waren 20-40 Megabyte der Renner. Wir verkauften damals gerne Platten von NEC, Conner und Seagate. Seagate-Platten waren für uns damals vor allem sehr preisgünstig zu beziehen. Im Highend-Bereich verbauten wir Platten von Micropolis, etwas ganz Edles zu dieser Zeit. Micropolis verschwand aber recht bald ganz vom Markt.

Irgendwann verbauten wir viele Platten von Quantum, weil die sich als recht robust erwiesen. Auch Maxtor und Western Digital kam irgendwann hinzu.

Als die 20-40 Gigabyte Zeit für Festplatten angebrochen war, kamen in unserer Firma öfters IBM-Platten zum Einsatz. Allerdings gab es hier eine sogenannte "Todesserie". Diese Platten fielen reihenweise aus, hatten einen befürchteten Serienfehler. Sie klackerten nur noch und ein Zugriff auf die Daten war nicht mehr möglich. Ein Horrorszenario bei Festplatten. Das war uns eine Lehre und wir vermieden seither IBM-Platten, auch wenn das objektiv betrachtet eigentlich nur ein Einzelfall war und irgendwann erwischt es wohl jeden Hersteller mal, keiner ist unfehlbar.

Seit diesem Desaster war für mich für lange Zeit nur noch Maxtor angesagt. Aber auch hier erlebte ich öfters mal Platten mit defekten Sektoren, jedoch ganz selten mal Totalausfälle.

Es gab viele weitere Hersteller am Markt: Fujitsu, Toshiba, Hitachi, Samsung, ExcelStor. Doch heute konzentriert sich alles immer mehr auf ganz wenige Hersteller. Oder sagen wir es genauer: Es sind nur noch drei! Das wird in meinen Augen langsam schon ungemütlich eng.

Seagate ist einer der Großen, die überlebt haben. Sie kauften irgendwann Conner auf und übernahmen 2006 den großen Konkurenten Maxtor. Maxtor selber übernahm bereits 2000 den Hersteller Quantum. Dieses Jahr angelte sich Seagate auch noch Samsung. Conner ging 2001 allerdings zu ExcelStor, ein chinesischer Hersteller, der vor allem preiswerte Festplatten für den asiatischen Raum produziert. Seagate hat einen Marktanteil von etwa 39%.

Der zweite große Player ist Western Digital (WD). Auch die schlugen dieses Jahr zu, in dem sie die Festplattensparte von Hitachi übernahmen. Hitachi selber übernahm 2003 die Festplattensparte von IBM. Western Digital hat nun einen Marktanteil von etwa 51% und ist damit der größte Hersteller.

Interessant ist, dass diese 2 größten Hersteller von Festplatten weltweit in Kalifornien ihren Hauptsitz haben. Zusammen produzieren sie 90% aller Festplatten weltweit. Natürlich wird produziert, wo Massenware heutzutage produziert wird - ein Großteil in China und weiteren asiatischen Ländern.

Der dritte große Hersteller ist Toshiba. Die haben 2009 Fujitsu übernommen. Für Toshiba verbleiben aber gerade noch 9% Marktanteil.

ExcelStor scheint vom Markt verschwunden, vermutlich machen die nur noch Auftragsfertigung für Hitachi, die ja jetzt zu Western Digital gehören. Oder sie gehören zu den etwa 1 % Marktanteil, der sich nicht auf die 3 Großen verteilt.

Wir steuern also immer mehr auf eine Monopol zu, was sich bestimmt nachteilig auswirkt. Ich bin gespannt, ob wir auch eine Gegenbewegung erleben werden, wo neue Hersteller auftauchen. Bei so einer Hochtechnologie bei gleichzeitig extremen Kostendruck scheint das aber wenig wahrscheinlich.

Weblinks:

02.06.2011 :: Arbeitsplätze abschalten

Oftmals installiere ich schaltbare Mehrfachsteckdosen am Arbeitsplatz. Morgens und am Feierabend kann dann mit einem Klick der ganze Strom abgeschaltet werden. Das spart Standby-Energieverbrauch und schafft auch Sicherheit. Wo kein Strom mehr fließt, kann auch nichts anbrennen.

Ein Nachteil: Meist liegen die Teile auf dem Fußboden und man muss unter den Tisch kriechen, um auszuschalten.

Dafür gibt es Abhilfe: Es gibt Mehrfachsteckdosen mit einem Schalter, der über Kabel herausgeführt wird. Diesen kann man dann auf den Schreibtisch legen. Sowas hier in der Art...

Auch gibt es Zwischensteckdosen mit Schalter, an die man folgend normale Verteiler-Leisten anschließen kann. Sowas in der Art...

Von Ansmann gibt es etwas ganz ähnliches, nennt sich AES3 Intelligente PC Energiesparsteckdose. Damit bin ich jetzt etwas auf die Nase gefallen. Das Teil hat mehr Intelligenz, als ich vermutete. Es kann automatisch erkennen, wenn Geräte nur noch im Standby laufen und schaltet dann automatisch den Strom weg. Es entfällt also das manuelle Ausschalten. Hört sich eigentlich ganz gut an. Die Sache hat aber im Zusammenhang mit dem Computer einen gravierenden Haken: Schaltet man den Computer nicht vollständig aus, sondern in den Standby Modus, darf der Strom nicht abgeschaltet werden. Der Computer muss seine Speicherinhalte ja noch aufrecht erhalten, um bei erneutem Einschalten sofort wieder aktiv werden zu können. Das Ansmann AES3 kann aber nicht unterscheiden, ob ein Computer ganz ausgeschaltet ist oder bewusst in den Standby-Modus gefahren wurde. Folglich schaltet es auch im gewollten Standby-Modus ab, was weder zulässig noch sinnvoll ist.

Hinzu kommt noch die gewöhnungsbedürftige Bedienung - man muss 3 Sekunden drücken, damit der Computer einschaltet. Ich sehe schon verzweifelte Kollegen, die nur selten mal an so einem Arbeitsplatz arbeiten und nicht wissen, wie der Strom eingeschaltet werden kann. Ebenso verzweifelte Versuche, den Strom wieder auszuschalten. Und nach 2 Jahren Betrieb weiß auch niemand mehr, wie man den Standby-Strom programmiert.

Mal davon ab gibt es aber sicherlich ein paar Anwendungsfälle, wo das Teil trotzdem sehr wertvolle Dienste leisten kann. Die Programmierung eines definierten Standby-Stroms bis 70 Watt ist ziemlich einzigartig am Markt. Um z.B. die Fernseh- und Audioecke abzuschalten, ist das AES3 gut einsetzbar. Hierfür gibt es aber auch das AES2, welches mit IR-Fernbedienung einschaltbar ist.

09.04.2011 :: Kartuschen-Pistolen

Für Silikon-, Acryl- und MS-Polymer-Kartuschen hab ich bisher immer irgendeine Kartuschen-Pistole aus dem Baumarkt verwendet. Hab mir darüber gar keine Gedanken gemacht. Bei MS-Polymer gibt es aber öfters Probleme, weil das Zeug doch recht zäh aus der Kartusche kommt - man braucht viel Kraft. Nachdem ich die dritte Kartuschenpistole kaputt bekommen hatte, dachte ich mir, da muss es doch was besseres geben.

Also hab ich mal ausführlich recherchiert. Das "Original" kommt wohl von der Firma Cox. Wenn es jemand vernünftig kann, dann wohl die - dachte ich. Also erstmal das Beste ausprobieren.

Interessant ist, dass es bei so Kartuschenpistolen verschiedene Untersetzungen gibt. Die Cox Easiflow HD hat eine Untersetzung von 7:1. Für zähere Materialien gibt es Untersetzungen bis 18:1, z.B. bei der Cox Powerflow Combi HP.

Die gebräuchlisten Bauformen sind Skelett, halboffen und rohrförmig geschlossen. Bei den rohrförmigen schraubt man vorne eine Kappe ab, um die Kartusche dann reinzuschieben.

Für Silikon hab ich jetzt erstmal die Cox Easiflow HD ausprobiert. Diese ist aus Stahl in Skelett-Bauform gefertigt. Mit 7-8 Euro ist die auch recht preisgünstig. Die Cox Easiflow Lite sieht ganz ähnlich aus, ist aber aus Kunststoff, was mir nicht geheuer war.

Das Teil wirkt recht robust, qualitativ gut verarbeitet und gut durchdacht. Die Mechanik funktioniert präzise. Interessant auch, dass die Kartusche nicht nachläuft. Sie stoppt sofort durch eine durchdachte Mechanik. Bei billigen Kartuschenpistolen muss man immer den Druckstempel entspannen, damit die Kartusche nicht nachläuft.

Nach diesem Test ist jedenfalls klar - ich kaufe keine Billig-Kartuschenpistolen mehr. Zumal der Preisunterschied gar nicht so groß ist.

Beim Silikon ist es übrigens ähnlich, hatte zuvor oft Baumarktsilikon verarbeitet, jetzt hab ich mal Ottoseal S110 benutzt. Das lässt sich wesentlich besser glätten, als ich das bisher gewöhnt war. Mit 4-5 Euro ist das auch nichtmal teuer. Mit der Easiflow ist das sehr gut aufzutragen, die Untersetzung von 7:1 ist ideal.

Für MS-Polymer werde ich jetzt noch die Powerflow Combi HP ausprobieren. Diese ist mit 43 Euro allerdings ein ganzes Stück teurer.

Weblinks:

19.03.2011 :: Luftfilterung

Irgendwie ist gerade das Thema Luftfilterung bei mir angesagt. In 2 Projekten habe ich mich in den letzten Wochen damit auseinandergesetzt.

Entstanden ist ein Staubschutzgehäuse für Computer in staubiger Umgebung: Staubschutzgehaeuse

...und ein Luftreiniger für die Werkstatt: Luftreiniger

26.02.2011 :: EDV Langlebig

Bereits vor einem Jahr hatte ich begonnen, einen Artikel zu schreiben, der sich mit langlebigen Konzepten in der EDV beschäftigt. Er war in großen Teilen schon fertig, aber ich fand nicht die Zeit, ihn mal zu Ende zu bringen. Heute hatte ich etwas Zeit, ihn für eine erste Veröffentlichung rund zu machen. Sicherlich wird mir in den nächsten Monaten noch einiges dazu einfallen, aber auch jetzt schon hoffe ich, dass dieser Artikel inspirieren kann.

Zum Artikel "EDV Langlebig"...

25.02.2011 :: Auswahlhilfe Grafikkarte

Ein lustiges Video: http://www.youtube.com/watch?v=fZUNZbhnoX4

22.01.2011 :: Was ist drin?

Schaut man auf die Liste der Inhaltsstoffe von Kosmetik, Haushaltsreinigern oder Lebensmitteln, kann man manchmal verzweifeln. Wer soll sich die Bewertung von tausenden Stoffen merken? Was schadet eher und was ist gut verträglich?

Ich hab jetzt ein interessantes Projekt gefunden, womit die Bewertung zum Kinderspiel wird. Auf codecheck.info gibt man einfach die Nummer auf dem Strichcode oder aber den Produktnamen ein. Die Datenbank wird über eine Community gepflegt, ähnlich wie das bei der Wikipedia funktioniert. Zur Bewertung der Inhaltsstoffe werden Quellen wie Ökotest herangezogen.

So macht Produktauswahl Freude und man kann so viel öfters auf Produkte verzichten, die problematische Inhaltsstoffe enthalten. Auch wenn nicht jeder Stoff, der schlecht bewertet wird, zu konkreten Problemen führen muss, so ist es doch sehr sinnvoll, auf alles im Haushalt zu verzichten, was nicht nötig ist. Wenn es doch Alternativen gibt, die genausogut funktionieren aber nicht auf problematische Inhaltsstoffe zurückgreifen, dann nehme ich doch lieber die.

Langfristig hat das noch einen positiven Gesamteffekt. Wenn immer mehr Verbraucher verantwortungsvoll auswählen, dann werden immer weniger Produkte hergestellt werden, die als problematisch eingestuft werden.

Ein Beispiel: Im Geschirrspülmittel Pril Original findet man gleich 3 Konservierungsmittel, die nicht empfehlenswert sind: 2-Bromo-2-Nitropropane-1 3-Diol, Methylchloroisothiazolinone, Methylisothiazolinone. Das es auch anders geht, zeigt das Frosch Spülmittel, hier findet man keine Inhaltsstoffe mit bedenklichen Inhaltsstoffen.

Bei Haushaltsreinigern und sonstigen Haushalts-Chemikalien ist eine detailierte Angabe der Inhaltsstoffe leider noch keine Verpflichtung, womit sich viele Produkte nicht bewerten lassen. Aber auch hier kann man auf einige zurückgreifen, die ihre Inhaltsstoffe deklarieren.

Etwas Vorsicht ist bei dieser Datenbank jedoch geboten. Die Qualität der erfassten Information kann stark schwanken. Es können auch verkehrte Angaben erfasst worden sein. Es ist ähnlich wie bei der Wikipedia: Die Information sollte man nicht unreflektiert übernehmen.

Hier zeigt sich auch ein sinnvolles Prinzip bei bewusstem Einkauf: Man wählt einmal gut prüfend seine Produkte aus und bleibt dann längerfristig bei sinnvollen Produkten. Man konzentriert sich also auf einige wenige Produkte, die man aber gut kennt. Hierbei sollte es sich auch um Produkte handeln, die längerfristig produziert werden.

Weblinks:

<< Archiv 2012 | AkTuellArchiv | Archiv 2010 >>