Aktuelles Archiv 2014

14.12.2014 :: Online Aufgabenplaner

Wenn man im Team arbeitet, ist ein Online-Aufgabenplaner eine feine Sache. Es gibt mittlerweile sehr schöne Lösungen, die auch Team-Funktionen enthalten, z.B. das Delegieren von Aufgaben.

Aber auch sonst ist eine Online-Lösung interessant, wenn man keinen festen Arbeitsplatz hat oder unterwegs mit allen Projektinformationen versorgt sein will.

Wenn man so etwas einsetzen will, muss natürlich erstmal geklärt werden, ob das vom Datenschutz her überhaupt möglich ist. In einem Aufgabenplaner können sehr sensible Informationen enthalten sein und die werden auf fremden Servern gespeichert, die ständig Online erreichbar sind. Gleiches Thema, wie bei all den anderen Cloudlösungen.

Günstig ist es, wenn der Aufgabenplaner neben einem Webinterface auf verschiedenen Plattformen native Interfaces hat, also Desktop-Versionen für Windows/Mac und auch Apps für alle gängigen Smartphones/Tablets. Und dann sollen die Daten möglichst auch Offline verfügbar sein, wenn man mal nicht Online angebunden sein kann. Stichwort Synchronisation.

Für mich besonders wichtig war eine hierarchische Aufgabenverwaltung. Man kennt das ja, aus einer Aufgabe werden schnell mehrere Teilschritte, die wiederum mehrere Teilschritte beinhalten können. Wenn man umfangreiche Projekte stemmen will, dann reicht eine eindimensionale Listenform nicht mehr aus.

Es gibt sicherlich hunderte von Aufgabenplaner-Lösungen, aber wenn man mal genauer hinschaut, bleibt nicht viel, was diese Ansprüche erfüllt. Nach vielleicht 6 Stunden googeln war eine Handvoll der üblichen Verdächtigen selektiert, die überhaupt in Frage kommen.

Wunderlist ist einer dieser Vertreter. Ich hab es seit 2 Jahren im Einsatz. Grundsätzlich kann man damit gut arbeiten. Hauptnachteil: Es gibt nur einfache Listen, in die man Aufgaben ablegen kann. Also keine hiararchische Baumstruktur. Die Wunderkinder haben dann eine Lösung nachgereicht, die mir wenig durchdacht und starr erscheint. In einer Aufgabe hat man mehrere Zeilen, wo man Unteraufgaben eintragen kann. Das ist ein starres Konzept, also nur 2 feste Ebenen und Unteraufgaben kennen auch kein Textfeld. Ich glaube, man scheute den Aufwand, es wirklich hierarchisch zu organisieren. Das hätte tiefe Eingriffe erfordert.

Überhaupt bin ich bei Wunderlist von der Weiterentwicklung etwas enttäuscht. Da passiert mir zu wenig. Schade, war ich Anfangs sehr von der Arbeitsweise der Wunderkinder angetan. Magisch erscheint mir mittlerweile nur das Marketing, nicht aber das Produkt. Ich kann es aber trotzdem weiterempfehlen, insofern man keine hierarchische Struktur braucht.

Bei einer Feinauswahl blieb eigentlich nur ein Produkt übrig: Todoist.

Macht alles einen recht runden Eindruck. Das Nutzerinterface wirkt sehr aufgeräumt. Hierarchische Strukturen kann man hier aufbauen. Entweder Projekte > Unterprojekte in beliebiger Tiefe oder Aufgaben > Unteraufgaben ebenso. An Aufgaben lassen sich Notizen anhängen, die auch einen Zeitstempel bekommen. Praktisch, z.B. für Gesprächsnotizen, weil jede neue Notiz einen neuen Zeitstempel erhält. Man kann an Aufgaben auch Dateien anhängen. Auch Sprachaufnahmen lassen sich anhängen, wobei die wav-mp3 Wandlung zu lange dauert, um damit produktiv zu arbeiten. Zumindest auf meinem System.

Von dem recht sparsamen und aufgeräumten Nutzerinterface darf man sich nicht täuschen lassen. Manche Funktionalität ergibt sich erst, wenn man die Anleitung liest. So hat der Fälligkeitsbereich der Aufgaben z.B. einen leistungsfähigen Parser, so dass man dort z.B. "Alle 60 Tage" von Hand reinschreibt und todoist das erkennt. Hier muss man sich dann aber all die Schlüsselwörter einprägen, die man für Fälligkeiten benötigt.

Ich habe jetzt etwa 2 Wochen damit gearbeitet und grundsätzlich bin ich ganz zufrieden damit. Und ich kenne nichts Besseres.

Interessant ist die große Vielfalt an Apps und Plugins, die es dafür gibt. Alle Smartphone-Plattformen werden unterstützt. Native Clients für Windows und Mac gibt es ebenso, wie Plugins für Firefox, Thunderbird oder Chrome. Auch weitere Integrationsmöglichkeiten in Anwendungen oder Webdienste gibt es. In dieser Hinsicht ist Todoist wirklich sehr stark.

Ach ja, eine Einschränkung für die "Darf-Nix-Kosten-Fraktion": Der kostenlosen Version fehlen viele wichtige Features, wie z.B. Notizen für Aufgaben. Die Premium-Funktionen lassen sich auch nicht testen. Das hätte man besser lösen können, z.B. 30 Tage voller Zugriff. Will man wirklich damit arbeiten, muss man die 23 Euro pro Jahr zahlen, was ich aber annehmbar finde. Wunderlist kostet doppelt so viel und was sind 23 Euro, wenn man damit ein ganzes Jahr seine Aufgaben organisiert bekommt? Schon eine vergessene Aufgabe kann mehr als 23 Euro Schaden verursachen.

Als jemand, der auch im Softwaretest gearbeitet hat, hab ich natürlich auch einen kritischen Blick auf solche Lösungen. Hier also ein paar Dinge, wo ich noch Verbesserungsbedarf sehe:

  • Es gibt keine Undo-Funktion. Das ist wirklich unschön, denn bei er Arbeit kann immer mal was schief gehen. Gerade wenn mal Hektik ist. Dann hakt man schnell mal eine Aufgabe als erledigt ab, was man nicht wollte. Und diese Aufgabe verschwindet dann sofort und muss dann mühsam in der Liste der erledigten Aufgaben gesucht werden. Noch besser wäre eine Art Logbuch, wo man alle Aktionen der letzten Tage zurückverfolgen könnte. Mit der Möglichkeit, jeder dieser Aktionen rückgängig zu machen.
  • Erledigte Aufgaben werden sofort aus der Liste entfernt und sind in einem versteckten Bereich, der eingeblendet werden kann. Das Konzept gefällt mir irgendwie nicht so gut. Man müsste das umkonfigurieren können.
  • Eine Liste der erledigten Aufgaben an einem Tag findet man recht versteckt im Karma-Bereich (oben rechts), wenn man dort auf "Alles anzeigen" klickt. Dort lassen sich dann auch erledigte Aufgaben aus der gezeigten Historie endgültig löschen. Dieser ganze Karma-Kram erschließt sich mir auch nicht richtig. Besonders aussagekräftig kann sowas auch nicht sein. Arbeitszeiten werden ja nicht erfasst. Was nützen mir Statistiken, wie viele Aufgaben ich an einem Tag erledigt habe? Da wird eine Aufgabe, die 1min braucht, genauso bewertet, wie eine Aufgabe, an der ich den ganzen Tag sitze.
  • Eine Aufgabe bekommt beim Anlegen einen Zeitstempel. Dieser Erstellungszeitpunkt wird aber nicht in der Aufgabenliste angezeigt. Erst wenn man in den Notizbereich einer Aufgabe reingeht, sieht man es. Ein Sortieren nach "Datum" scheint auch nur die Fälligkeit auszuwerten und nicht das Erstelldatum. Man kann also nicht nach Erstelldatum sortieren.
  • Das Nutzerinterface ist recht anfällig dafür, versehentlich mal eine Aufgabe abzuhaken, ohne es zu bemerken. Weil die dann auch sofort ausgeblendet wird. Das ist fatal, wenn damit wichtige Aufgaben einfach verschwinden. Man sollte sich angewöhnen, am Abend mal die Historie der erledigten Aufgaben des Tages durchzugehen. Das macht eh Sinn, um eine klein Rückschau zu betreiben. Dann sieht man versehentlich abgehakte Aufgaben.
  • Auch gefährlich, was das Nutzerinterface angeht: Auf Wischoberflächen (Tablet/Smartphone) hat man ganz schnell mal Aufgaben oder Projekte verschoben.
  • Kleiner Bug: Beim Neuanlegen von Projekten stimmen manchmal die Farben nicht bzw. die Farbe springt beim Abspeichern um. Ging mir zumindest beim Webinterface öfter so.
  • Ich tue mich etwas schwer, dass es 2 unterschiedliche Hierarchien gibt: Projekte und Aufgaben. Aus Taskcoach und diversen Outlinern kenne ich es, dass man gar keine Unterschiede macht. Es gibt in Taskcoach sozusagen nur Aufgaben mit Unteraufgaben in beliebiger Tiefe. Das erscheint mir irgendwie logischer und man muss nicht nachdenken, ob man nun etwas als Projekt organisiert oder als Aufgabe. Aber grundsätzlich ist das schon ok, daran wird man sich gewöhnen. Gut ist: Wählt man im Projektbaum ein Projekt, werden rechts alle Unterprojekte und Aufgaben gut sortiert dargestellt. Allerdings wird hier die Hierarchie von Projekten "flachgeklopft": Unterprojekte und UnterUnterProjekte werden nun alle auf der gleichen Ebene dargestellt. Unteraufgaben hingegen werden hier weiterhin hierarchisch dargestellt.
  • Für Firmeneinsatz etwas unschön: Man bekommt keine vernünftige Rechnung, die man ruhigen Gewissens in eine offizielle Buchhaltung aufnehmen kann. Das ist wirklich im wahrsten Sinne des Wortes unprofessionell.
  • Aufgaben verschwinden zwar nach abhaken aus dem Aufgabenbereich in den Historiebereich. Will man sie aber endgültig löschen, geht das nur über den Karmabereich und dort kann man die Aufgaben nur einzeln löschen. Jedes mal mit Sicherheitsabfrage. Das ist umständlich.
  • Das Nutzerinterface kennt durchgängig keine Mehrfachauswahl. Man muss also alles immer einzeln erledigen. Beim Löschen von Aufgaben oder beim Verschieben mehrerer Aufgaben fällt das negativ auf. Die Problematik entsteht, weil man hier die Einschränkungen von Webinterfaces bedenken muss. Das lässt sich hier technisch wohl nicht umsetzen. Und die nativen Clients wollte man in der Bedienung möglichst konform halten.
  • Das Nutzerinterface ist manchmal etwas hakelig oder reagiert nicht so, wie erwartet. Es scheinen auch noch kleinere Bugs drin zu sein. Mir ist es z.B. schon öfter passiert, dass ich etwas hierarchisch neu organisiert habe und wenn ich dann wieder in diesen Bereich geschaut habe, war auf einmal alles in einer anderen Struktur. Seither kontrolliere ich das immer, wenn ich da mal was ändere. Weil das Interface recht anfällig für Fehlbedienung ist, wird es kritisch in der Teamarbeit. Besonders dann, wenn neue Mitarbeiter an Projektsträngen arbeiten, die sich mit der Bedienung und den Gefahren der Fehlbedienung noch nicht so auskennen. Ebenso ist es kritisch, wenn Menschen mit dem Programm arbeiten, die grundsätzlich nicht so fit in der Computerbedienung sind. Manche Eingabegeräte sind auch kritischer, z.B. Touchpads oder Touchscreens, wo ein Wischen schnell mal als klicken gewertet wird.
  • So ganz allgemein kann ich mir noch jede Menge Funktionalität vorstellen, die man in so einen Planer einbringen kann, ohne die Komplexität des Nutzerinterfaces zu erhöhen. Alle wesentlichen Grundfunktionen sind da, die Pflicht ist erfüllt, aber auch die Kür könnte jetzt noch Raum bekommen. Da scheint wohl auch bei Todoist seit einiger Zeit nicht mehr so viel zu passieren. Aber das kenne ich ja auch von Wunderlist schon so. Mein Eindruck ist, dass diese Projekte sehr optimistisch und mit viel Kreativität starten, sobald aber erstmal hunderttausend Nutzer mit ihren Daten sicher gemanagt werden müssen, sind die Jungs nur noch damit beschäftigt, all das am Laufen zu halten. Und jede Weiterentwicklung wird mit großer Sorge betrachtet, ob das dann alles wieder sicher läuft. Wenn nicht, weiß man, was es bedeutet, wenn die ganze Meute auf einen los geht. So entsteht dann ein sehr innovationsfeindliches System. Never touch a running system. Die anfänglich hohe Kreativität, wird dann nur noch verwaltet. Kommt noch hinzu, dass jedes neue Feature auf zahlreichen Plattformen und Plugins einheitlich integriert und getestet werden muss.

Kleiner Trick: Wenn eine Aufgabe Unteraufgaben hat, dann verhält sich die Logik anders. Hier werden erledigte Aufgaben noch nicht entfernt, sondern bleiben grau abgehakt erhalten. Wer also diese Funktionalität braucht, z.B. für dauerhafte Checklisten, sollte mit Unteraufgaben arbeiten.

Was man selten bei solchen Online-Lösungen findet: Es gibt eine Backupfunktion unter Einstellungen, die täglich einmal ausgeführt wird. Diese Backups lassen sich auch als zip-Datei herunterladen. Sollte mal was schief gehen, kann man so ältere Datenstände wieder einspielen. Weil alles auch in Form von Textdateien abgelegt wird, kann man zur Not auch mal mit dem Texteditor reinschauen. Sehr gut, wir haben schon zu viele proprietäre Datenformate, die uns abhängig von Anwendungen und Herstellern machen.

Aber Achtung: In den Backups befinden sich nur die Aufgaben und die Notizen. Keine Anhänge!

In jedem Design einer Anwendung spiegelt sich ja die geistige Ausrichtung der Entwickler wieder. Todoist wirkt schön aufgeräumt und einfach. Man könnte es mit den Worten von Albert Einstein beschreiben: "Mach es so einfach wie möglich, aber nicht einfacher." Mir gefallen so schlanke Anwendungen, die wohl durchdacht sind. Was ich überhaupt nicht mag, sind diese völlig überladenen Interfaces, wo an allen Ecken was drangestrickt wurde.

Ich bin gespannt, wie Todoist sich die nächsten Monate bewähren wird. Im Moment bin ich jedenfalls sehr glücklich darüber, ein gutes Werkzeug gefunden zu haben, was stabil läuft und womit man sehr schnell zurecht kommt. So intuitiv glaube ich auch, dass das Projekt gute langfristige Überlebenschancen hat. Management und Öffentlichkeitsarbeit scheinen zu stimmen. Todoist macht vieles richtig.

Nachtrag 28.03.2015: Mittlerweile arbeite ich seit gut 3 Monaten mit todoist. Das Teil hat sich in der bezahlten Version sehr gut bewährt. Kann ich also empfehlen.

Nachtrag 29.11.2015: Todoist bewährt sich immer noch bestens im Alltag. Nur für eine wichtige Sache habe ich bisher keine Lösung. Es gibt keine Möglichkeit, Aufgaben nach Anlegedatum zu sortieren oder zu filtern. Ich hätte z.B. gerne eine Antwort darauf, welche Aufgaben ich heute angelegt habe oder welche Aufgaben ich diese Woche angelegt habe. Das halte ich für wichtig, um mir nochmal einen Überblick zu verschaffen, was an Neuem hinzugekommen ist. Dem Anlegedatum wird überhaupt kaum Bedeutung gegeben, es wird nirgendwo angezeigt. Erst wenn man bei einer Aufgabe eine Notiz dranhängen will, sieht man das Anlegedatum.

Nachtrag 30.08.2016: Endlich gibts ein Activity-Logbuch. Hurra! Das war für mich ein sehr wichtiges Feature. Damit kann ich die letzten Wochen durchgehen und gucken, welche Aufgaben ich erledigt habe. Ebenso sehe ich, welche Aufgaben neu angelegt wurden. Gerade wenn man mit Kollegen zusammen arbeitet, ist das eigentlich unabdingbar. Super, jetzt ist Todoist wirklich ziemlich rund für mich. Es ist übrigens auch so mit das wichtigste Werkzeug im Alltag geworden.

Weblinks:

03.11.2014 :: Klebstoffe: Uhu Max Repair

Es war so etwa 2005, als Henkel mit "Pattex Repair Extreme" im Heimwerkerbereich einen ersten MS-Polymerklebstoff auf den Markt brachte. Das war schon eine kleine Revolution auf dem Klebstoffmarkt, weil dieser elastische Kleber wirklich sehr universell ist. Weil es einen Klebstoff mit diesen Eigenschaften bisher nicht gab, eröffneten sich damit ganz neue Anwendungsfälle. Mittlerweile haben sich die MS-Polymerklebstoffe in allen Bereichen ausgebreitet und nahezu jeder Klebstoffhersteller hat diese im Sortiment.

Meist werden diese Klebstoffe in großen Kartuschen angeboten. In kleinen Tuben findet man sie noch sehr selten. Lange Zeit war der Pattex Repair Extreme der Einzige am Markt. Mittlerweile wurde der übrigens umbenannt und heißt jetzt Pattex 100% Repair Gel.

Jetzt hat Uhu ein sehr ähnliches Produkt auf den Markt gebracht: Uhu Max Repair. Auch in einer recht kleinen 20g Tube und zu einem ähnlichen Preis. Hatte mich ehrlich gesagt schon gewundert, warum Uhu so lange brauchte, um ein ähnliches Produkt auf den Markt zu bringen.

Beide Klebstoffe verhalten sich sehr ähnlich. Uhu ist ein klein wenig dünnflüssiger, was günstig ist, wenn dickere Aufträge noch etwas verlaufen sollen. Im ausgehärteten Zustand sind beide ähnlich in der Flexibilität.

Weil Uhu derzeit attraktive Einführangebote macht, kann es sein, dass man den im Moment wesentlich günstiger als Pattex bekommt. Wer den Klebstoff in größeren Mengen braucht: 12 Tuben Verkaufsdisplays bekommt man derzeit für um die 40 Euro. Regulär zahlt man ungefähr 6-8 Euro pro Tube.

Ganz wichtig bei Klebstoffen: Es gibt keinen Klebstoff, mit dem sich alles gut kleben lässt. Es kommt vielmehr immer auf die richtige Klebstoffwahl und die gute Vorbereitung der Klebstelle an. Zahlreiche Kunststoffe und Silikone lassen sich gar nicht verkleben, zumindest nicht mit Klebstoffen aus dem Heimwerkerbereich. Auch konstruktiv müssen Klebstellen richtig ausgeführt werden, damit Kräfte nur so einwirken, dass sie der Klebestelle nichts anhaben können. Gerade Hebelkräfte oder dynamisch hohe Belastungen (Schläge, Vibrationen, Schockbelastung) sind gefährlich.

Weblinks:

03.11.2014 :: USB Stecker in LAN-Buchse

Heute rief mich ein Kollege an, dass sein neuer Drucker vom Computer nicht erkannt wird. Nach etwas telefonischer Fehlersuche stellte sich etwas Interessantes heraus: Der USB-Stecker (Typ-B) am Drucker passt doch tatsächlich recht passgenau in die LAN-Western-Buchse. Weil der Stecker sich mit leichtem Druck reinschieben lässt, wirkt das auch so, als hätte man die richtige Buchse getroffen.

Was kaputt gehen kann dadurch zum Glück nicht, weil die Kontakte von Stecker und Buchse sich nicht berühren.

So, jetzt testet mal euren EDV-Service, wie lange die mit der Fehlersuche brauchen ;-)

19.10.2014 :: Tintendrucker einlagern

Es ist immer wieder das gleiche Spiel: Mit jeder neuen Druckergeneration kommen auch neue Druckerpatronen. Und dann braucht es 2-3 Jahre, bis genügend Dritthersteller die Chips geknackt haben und den Markt mit Nachbaupatronen versorgen. Erst dann wird es richtig günstig.

Bei Canon und Epson ist es z.B. so, dass die ersten Monate noch gar keine Nachbaupatronen auftauchen, nach einem Jahr üblicherweise Nachbaupatronen für 2-4 Euro pro Stück verfügbar sind und nach 3 Jahren der Preis dann auf unter 1 Euro gerutscht ist.

Insofern ist es schonmal gut, eine neue Druckergeneration immer erst am Ende des Produktlebenszyklus zu kaufen. Mitunter bekommt man auch noch Restposten der vorherigen Generation, wenn die neue Generation auftaucht.

Nicht immer geht das aber, denn Drucker gehen plötzlich kaputt und man braucht unmittelbar Ersatz.

Für viele Firmen dürfte es sich lohnen, gleich ein paar mehr Drucker anzuschaffen und einzulagern. Setzt man die dann so "gereiften" Drucker irgendwann ein, sind die Patronen günstig geworden. So lange die Druckköpfe noch original verpackt und unbenutzt sind, sollte die Einlagerung für mehrere Jahre kein Problem darstellen.

Die Einlagerung kann auch einen weiteren Vorteil bieten: Man sorgt dafür, dass ausschließlich eine Druckergeneration für längere Zeit eingesetzt wird. Das vereinfacht die Logistik bei den Verbrauchsmaterialien. Man braucht nur eine Patronensorte vorrätig zu halten. Ebenso ist die Bedienung aller Geräte dann einheitlich und auch die Administration vereinheitlicht sich.

Ältere Druckergenerationen haben übrigens oft auch einen hohen Marktwert, wenn sie noch neu und unbenutzt sind. Denn damit lässt sich ja richtig Geld sparen. Wer seinen Vorrat also auflösen will, hat auch hier keine Probleme, die Geräte bei Ebay zu verkaufen, um einheitlich auf eine neue Generation umzusteigen.

Überhaupt entkrampft sich der Umstieg auch, weil man nun einen günstigen Zeitpunkt abwarten kann. Man kauft dann z.B. kurz bevor eine Druckergeneration ausläuft und hat damit gleich günstige Verbrauchsmaterialien.

23.09.2014 :: Tastenbeschriftungen weg

Es ist in den letzten Jahren ein permanenter Ärger: Tastenbeschriftungen bei Computertastaturen, die sich nach einiger Zeit der Benutzung in Luft auflösen. Das ist ein unschönes Resultat der Kostenoptimierung.

Früher waren die meisten Tastaturen ganz anders aufgebaut: Die Tastenbeschriftung war als Kunststoff richtig tief in die Tastenkappe gespritzt. Die Beschriftung reichte also so etwa 1mm tief. So weit hätte sich eine Taste abnutzen müssen, bis die Beschriftung gelitten hätte. Und das passierte auch bei längerer Benutzung nicht.

Heute werden die Beschriftungen meist mit einem Lack aufgedruckt. Die Beschriftung liegt also nur ganz dünn auf der Tastenkappe auf. Mechanische Beanspruchungen tragen diese dann mit der Zeit ab.

Wie schnell das bei heutigen Geräten gehen kann, hab ich mal wieder erschreckt feststellen müssen. Mein Dienstnotebook - ein Lenovo Thinkpad Edge - ist jetzt gerade mal 3 Monate alt. Und was sehe ich da: Bei den Tasten N und C fehlen bereits Ecken der Beschriftung. Das kanns doch echt nicht sein!

Was ich aber auch beobachte: Einige Kollegen mit viel älteren Rechnern haben noch intakte Tasten. Und es sind immer die selben Kollegen, bei denen Tastaturen recht schnell verschleißen. Des Rätsels Lösung liegt in der Art der Bedienung. Die Kollegen, die 10-Finger schreiben, haben stärkeren Verschleiß. Wenn man mal beobachtet, wie man 10-Finger tippt, dann beugt sich der Finger bei der unteren Tastenreihe recht stark, so dass man die Tasten häufig mit dem Fingernagel erwischt. Und genau dieser Fingernagelkontakt ist das Problem. Hier entsteht stärkerer mechanischer Abrieb.

Kommt natürlich noch hinzu, wie lang sich jeder die Fingernägel wachsen lässt. Meine sind meist etwas länger, ich schreibe relativ viel und das im 10-Fingersystem. Da kommt alles zusammen. Und deshalb ist die Tastatur nun schon nach 3 Monaten kaputt.

Mitunter könnten auch Handcremes und Medikamente daran schuld sein, dass sich Beschriftungen durch "Chemikalienbelastung" auflösen.

Das es auch anders geht, zeigt z.B. die Cherry Stream XT, die ich am festen Arbeitsplatz habe. Die sieht nach einem Jahr noch gut aus, keinerlei Abnutzungen, wohl aber schon glänzende Tasten, die den Abrieb am Tastenkörper selbst anzeigen. Auch bei dieser Tastatur sind die Tasten mit einem Lack beschriftet, der scheint aber wesentlich resistenter zu sein.

Bei Kollegen, die nicht 10-Finger schreiben, sind es oft andere Tasten, die wohl mit dem Fingernagel gedrückt werden, oft z.B. das E oder die Shift-Taste. Auch hier ist dann verstärkter Verschleiß zu beobachten.

Was tun? Gerade bei Notebooks ist das ja ärgerlich, hier kann man sich nicht mal eben eine neue Tastatur kaufen. Aber auch sonst ist es ja ökologischer Irrsinn, regelmäßig seine Tastatur wegzuschmeißen.

Ich hab viel rumexperimentiert, wie man die Tasten schützen kann. Die sinnvollste Variante erscheint mir, einen Schutzlack zu nutzen. Viele Lacke versagen hier aber, weil sie nicht stabil genug sind. Seit einiger Zeit habe ich aber recht gute Erfolge mit 2K-Auto-Klarlacken. Konkret nutze ich einen seidenmatten Klarlack von Standox. Am besten lässt man sich eine ganz kleine Menge vom Autolackierer mitgeben. Weil die Lacke recht schnell altern, am besten in kleine Braunglasflaschen (aus der Apotheke) abfüllen und dunkel und kühl lagern. Von Glanzlack und richtig matten Lacken kann ich abraten, beide haben auf der Tastatur Nachteile. Man kann aber Glanzlacke auch mit Mattierungsmittel im Glanzgrad einstellen.

Ich mische nur eine Kleinstmenge an. Das geht z.B. gut in 1,5ml Reaktionsgefäßen, wie sie in der Medizin für Zentrifugen benutzt werden. Die haben eine 0,5ml Einteilung, womit man gut dosieren kann. Typischerweise 0,5ml Härter und 1ml Lack. Das Ganze dann mit einer aufgebogenen Büroklammer gut durchrühren. Mit diesem angemischten Lack kann man dann etwa 2-4 Stunden arbeiten.

Nachdem die Tasten gut mit Waschbenzin und im zweiten Gang mit Alkohol gereinigt sind, trage ich den Lack auf. Dazu kann man einen kleinen Künstlerpinsel verwenden. Ich benutze aber einen Heidemannspatel aus dem Zahnarztbedarf. Hat den großen Vorteil, dass der wieder leicht zu reinigen ist. Und es funktioniert erstaunlich gut. Man taucht nur etwa 1mm in den Lack und zieht dann nur den Buchstaben damit nach. Der Lack legt sich so auf den Buchstaben und ein klein wenig über den Rand des Buchstabens hinweg. Keinesfalls den ganzen Tastenkopf lackieren, das ist viel zu aufwändig und sorgt für unschöne Ergebnisse. Mit etwas Übung kann man recht präzise die Buchstaben von Taste zu Taste überlackieren. In der Regel braucht es diese Prozedur nur für die Tasten A-Z, Enter, Shift, strg, Alt, Fn, Komma, Semikolon, Umlaute und die Cursortasten. Mit etwas Übung ist eine Tastatur in 10-20 Minuten fertig lackiert. Der getrocknete seidenglänzende Lack fällt so gut wie nicht auf. Man sollte übrigens so dünn wie möglich arbeiten, sonst wird der Lack nicht ordentlich hart. Seitlich flaches Gegenlicht hilft gut für optimale Sicht.

Den Lack lässt man 24 Stunden trocknen. Auch dann ist der Lack noch nicht völlig durchgehärtet, man kann aber schon mit arbeiten. So richtig knallig hart scheint er bei den hier entstehenden Schichtdicken erst nach 1-2 Wochen zu sein.

So eine Versiegelung macht man am besten, bevor Tastenbeschriftungen defekt sind. Sind sie aber schon defekt, kann man versuchen, mit einem Edding Lackmalstift 780 die Beschriftung auszubessern. Nach etwa 1 Stunde Trockenzeit kann man dann ganz vorsichtig den Autolack auftragen. Hierbei bietet sich der Spatel wieder an, weil man mit dem einen sehr kleinen Tropfen aufträgt, ohne die Taste selbst zu berühren. Auch das Verteilen um den Buchstaben herum erfolgt ohne Berührung der Taste, man zieht sozusagen nur den Lack in Form. Mit einem Pinsel und echter Berührung der Tastenoberfläche würde die Beschriftung mit dem Edding recht schnell verschmieren, weil der Lack angelöst wird.

Evtl. trägt man bei selbst nachbeschrifteten Tasten zweimal Lack auf. Bei der zweiten Beschichtung besteht dann auch keine Gefahr mehr, dass die Beschriftung verschmiert.

Weil die Beschriftung mit Edding aber nicht ganz so einfach ist, mache ich das nur, wenn die Beschriftung fast vollständig weg ist. Ist der Buchstabe noch gut zu erkennen, lasse ich lieber den kleinen Makel und beschrifte nicht nach. Denn so gut bekommt man das von Hand nicht hin.

Was jetzt noch aussteht, sind Langzeiterfahrungen. Ich mache das seit ungefähr einem Jahr, bisher sieht alles gut aus. Ehe man sich an eine Notebook-Tastatur heranwagt, sollte man das Verfahren aber gut drauf haben. Und auch peinlichst genau auf die richtige Lackanmischung achten. Der Supergau wäre, wenn der Lack nicht hart wird. Auch darauf achten, dass die Werkzeuge absolut sauber sind und man keine Verschmutzungen in den Lack einträgt, die die Härtung oder Haftung stören können. Ich hatte mal mit einem Zahnstocher gearbeitet, die aber oft mit Stoffen getränkt sind, die dem Lack nicht gut tun. Hier entstanden dann Probleme.

Ein Alternative zur Lackversiegelung sind aufklebbare Tastenbeschriftungen. Einfach mal mit Google danach suchen, es gibt zahlreiche Onlineshops, die sowas anbieten.

19.09.2014 :: Billige Staubsaugerbeutel

Ich hab mal wieder billige Noname Staubsaugerbeutel gekauft. Die Originalen hätten 4 Euro das Stück gekostet, die Nonames gabs für 50 Cent das Stück. Das ist schon ein Argument dafür. Man findet sie ja in vielen spezialisierten Online-Shops und natürlich auch auf Ebay und Amazon.

Ich bin schon etwas schlauer geworden, worauf man so achten muss. Wir hatten da schon einige Probleme. Letztens z.B. stellten wir fest, dass einiges an Staubflusen am Beutel vorbeigezogen ist, weil die Öffnung nicht optimal am Gehäuse andockte. Das kann mehrere Gründe habe, entweder wurde das Loch im Beutel an die falsche Stelle gesetzt bzw. der Kragen des Beutels ist nicht passgenau. Man sieht das gut, wenn man den Beutel einsetzt, den Schlauch abnimmt und von oben ins Loch mit Taschenlampe leuchtet. Dann langsam zuklappen und gucken, ob der Stutzen gut in den Beutel greift.

Ein weiteres Problem ist die Abdichtung. Es scheint typischerweise so zu sein, dass Beutel, die einen Kunststoffkragen haben, über keine extra Dichtung verfügen. Hier dichtet das Kunststoffvlies des Beutels ab, was im Loch etwas übersteht. Das kann funktionieren, funktionierte bei einem Miele Sauger aber nicht vernünftig. Hier half aber, nach Einsatz des Beutels von außen in den Stutzen zu fassen und den Rand des Beutels nochmal gut anzudrücken.

Besser ist natürlich, man hat einfach Beutel, die optimal abdichten. Mir ist aufgefallen, dass die meisten Beutel mit Pappkragen eine Gummidichtung eingearbeitet haben. Das erscheint mir die bessere Qualität, darauf hab ich diesmal geachtet.

Es ist auch gut, den ganzen Schnitt mal mit einem Originalbeutel zu vergleichen. Mitunter sind Beutel größer oder kleiner und funktionieren dann nicht optimal. Und auch das Loch kann irgendwie versetzt auf dem Beutel angebracht sein. So funktioniert das zwar immer noch irgendwie, aber der Beutel kann sich nicht mehr optimal entfalten, was zu Saugkraftverlust und weniger Staubaufnahmevermögen führt.

Fazit: Oberflächlich betrachtet passen die meisten billigen Staubbeutel. Wenn man aber genauer hinschaut, sind die Mängel vielschichtig und das kann ganz schön störend sein.

Vielleicht ist die beste Strategie, sich einen spezialisierten Online-Shop zu suchen, der seit Jahren damit handelt und entsprechende Qualitätskompetenz aufgebaut hat.

13.09.2014 :: Das Ende brauchbarer Staubsauger?

Die meisten werden es sicher mitbekommen haben, ab 1. September dürfen neue Staubsauger nur noch maximal 1600 Watt Leistungsaufnahme haben. Und ab 2017 wird es ganz heftig, da dürfen Sauger maximal nur noch 900 Watt aufnehmen. Will man als Hersteller jedoch auch noch in Energiesparklasse A eingestuft werden, dürfen es nur noch 700-800 Watt sein.

Wir hatten vor etwa einem Jahr einen Miele S8 gekauft. Und den haben wir bewusst mit 2200 Watt gekauft. Es gab ihn auch damals schon mit 1200 Watt, aber da spürten wir deutlich weniger Saugleistung.

Man kann davon ausgehen, dass Staubsauger auf gut durchoptimierter Technik basieren. Die Turbine wird sich kaum noch saugstärker machen lassen. Auch die Effizienz der eingesetzten Elektromotoren wird kaum zu optimieren sein. Woran man noch etwas optimieren kann, sind die Bodendüsen, die dann auch mit weniger Luftstrom vernünftig saugen. Das nützt aber wenig, wenn man Anwendungsfälle ohne Bodendüse hat, z.B. wenn man das Auto aussaugt.

Gerade beim Auto weiß man ja, dass man selbst bei den starken Saugern am Limit ist, da wünscht man sich öfter mal etwas mehr Saugpower. Auch Hunde- und Katzenhaare auf Teppichböden sind eine echte Herausforderung.

Wir haben gemerkt, dass die Miele-Sauger schon recht effizient arbeiten. Bei voller 2200 Watt Stufe ist der Unterdruck so stark, dass sich auf Teppich nur schlecht arbeiten lässt, weil man die Bodendüse nur noch schwer bewegt bekommt. Insofern schalten wir den normal dann imer 2 Stufen zurück. In dieser Position verbraucht der nur noch 1200-1400 Watt. Der Grund, warum wir überhaupt 2200 Watt gekauft haben, waren genau diese Sonderfälle wie Auto säubern, wo man mal ordentlich Power und Leistungsreserven haben möchte.

Ein noch im Haushalt befindlicher Hoover Sauger ist bei 1400 Watt Volleistung lange nicht so saugstark, wie der Miele. Das hab ich auch mal vermessen. Man sieht also, in Sachen Effizienz können einige Hersteller durchaus noch aufholen.

Miele hat jetzt leider nahezu alle Staubsauger gleich auf 700-800 Watt Leistungsaufnahme umgestellt. Ich glaube, dass das ein echter Rückschritt ist, eine ziemlich katastrophale Entwicklung.

Wir waren heute im Laden und haben uns mal umgesehen. Die Verkäuferin hat uns ein 700 Watt Miele-Teil mal vorgeführt. Ist wirklich sehr leise, wirkt aber von der Saugleistung, wie unser jetziger Sauger auf zweitniedrigster Stufe. Ist natürlich schwer, das jetzt mit der Hand zu prüfen.

Als wir da etwas bedröppelt guckten, sagte auch die Verkäuferin: Ja, ich weiß, so richtig saugen kann man damit wohl nicht mehr. Leider. Aber ich habe noch einige "richtige" Miele Sauger und zeigte uns den alten S8. Es sind die Letzten...

Ich hab später mal zu Hause unseren S8 leistungsmäßig vermessen und den mal soweit gedrosselt, dass der auch ungefähr 700 Watt Leistung aufnimmt. Ok, nicht ganz vergleichbar, weil ein soweit gedrosselter Motor vermutlich nicht so effizient arbeitet. Aber egal, ich fand schon, dass man damit durchaus auf Teppich saugen kann. Krümel bekommt man damit weg und schön leise ist er auch. Aber ich kann es mir noch nicht so recht vorstellen, dass es ähnlich gründlich werden wird.

So lange die Hersteller keine andere Motortechnologie einsetzen, wie z.B. bürstenlose Motoren, glaube ich nicht an gute und leistungsfähige 800 Watt Sauger. Das muss auf Kosten der Reinigungsleistung gehen und in vielen Anwendungsbereichen ist das einfach zu wenig.

Auch wenn zahlreiche andere Hersteller auch schon nachgezogen haben und 700-900 Watt Geräte präsentieren, scheint es derzeit noch genügend Geräte zwischen 1200-1600 Watt zu geben. Das wird wohl vermutlich auch bis 2017 so bleiben. Schon deshalb, weil man so recht günstig Sauger mit genügend Saugleistung bauen kann. Denn viele Effizienz-Optimierungen kosten auch Geld, was man bei günstigen Modellen sparen muss. Man muss also noch keine Panik bekommen, dass man keine vernünftigen Sauger mehr kaufen kann.

Jedoch verschwinden manche guten Sauger schon jetzt am Markt, wie z.B. die leistungsstarken Miele-Sauger. Wenn man aber nochmal genauer auf der Produktmatrix von Miele schaut, findet man auch hier noch einige wenige Sauger mit "schlechten Effizienzklassen", also mit Motoren, die mehr Power haben. Jedoch liegt die Leistung bei denen bei maximal 1200 Watt. Das ist etwa der Wert, der noch vor 1-2 Jahren also "Ecoversion" verkauft wurde. Die noch stärkeren Motoren von 1600-2200 Watt werden von Miele nun definitiv nicht mehr hergestellt, man findet sie derzeit aber noch im Online-Handel und manchen Geschäften.

Gute Filter arbeiten übrigens gegen die Effizienz von Saugern, weil sie einen höheren Luftwiderstand haben. Ein guter HEPA-Filter verschlingt da schon einiges an Leistung und es ist zu befürchten, dass Hersteller bei niedriger Leistung dann eher die Filter durchlässiger machen oder ganz auf HEPA-Filter verzichten.

Was ist eigentlich ökologisch von dieser gesetzlichen Limitierung zu halten? So vom ersten Bauchgefühl konnte ich nur mit dem Kopf schütteln. Ein Gerät, was relativ wenig läuft, bringt bei geringerer Leistung nur wenig Einspareffekte.

Rechnen wir es mal direkt durch: Wer in der Woche 30 Minuten staubsaugt und dabei von 1400 Watt auf 900 Watt reduziert, spart eine viertel KWh. Das sind gut 3 Euro im Jahr an Stromersparnis. Also eigentlich Peanuts. Da gibt es ganz andere Baustellen im Haushalt, wo man ansetzen könnte.

Kommt noch hinzu, dass es durchaus passieren kann, dass nun wesentlich länger gesaugt wird, weil der Schmutz nun nicht mehr so gut weg will. Und das die Beutel früher getauscht werden müssen, weil ein mäßig gefüllter Beutel schon zu deutlichem Saugkraftverlust führt.

Mir persönlich ist ein Sauger lieber, der gut Power hat, wenn ich es brauche und den ich im alltäglichen Gebrauch eher auf ca. 1200-1400 Watt drossele, weil das noch optimale Reinigungsergebnisse auf Teppichböden bringt. Einen 800 Watt Sauger würde ich mir derzeit definitiv nicht anschaffen, weil der in vielen Situationen einfach zu schwach ist.

Ein Problem ist sicherlich, Verbraucher dazu zu bringen, den Sauger normal eher gedrosselt laufen zu lassen. Die meisten lassen Sauger immer bei Vollgas laufen. Aber das hätte man intelligent lösen können: Maximale normale Saugkraft bei z.B. 1200 Watt und dann noch eine Boost-Taste, die den Sauger kurzzeitig auf z.B. 2000 Watt hochfährt.

Es ist übrigens nicht so, dass ein 1600 Watt Sauger die doppelte Saugleistung wie ein 800 Watt Sauger hat. Der physikalische Zusammenhang ist hier eher quadratisch, wie beim Fahrwiderstand beim Auto. Das hat etwas mit den Reibungsverlusten der angesaugten Luft zu tun. Man erreicht dann mit der doppelten zugeführten Leistung günstigstenfalls 40% mehr Saugleistung, nicht 100%. Aufgrund anderer Effekte sind es real vielleicht nur 20-30%. Das relativiert natürlich die neue Situation.

Apropos Auto: Wenn wir solche Regelungen bei Autos hätten, dürften 2017 nur noch Autos mit maximal 60 PS verkauft werden. Ökologisch hätte das mal eine wirklich durchschlagende Wirkung und wäre ein Segen für diese Welt. Alle könnten sich immer noch genauso fortbewegen, bräuchten kaum länger, aber würden so viel für unser Ökosystem und für zukünftige Generationen tun. Aber das wird natürlich nie kommen, hier ist eher das Gegenteil der Fall - Autos die immer mehr Sprit verbrauchen und immer schwerer und größer werden.

Suchen wir also unser Glück in den kleinen Nebenbaustellen und reduzieren die Saugleistung von Staubsaugern...

13.07.2014 :: Theoretische Kompatiblität

Es ist schon erstaunlich, was moderne Technik heute zu leisten vermag. Als ich das erste Mal ein Smartphone in den Händen hielt, war ich schon echt erstaunt, was in so einem kleinen Wunderwerk alles möglich ist. Und wieviel tausend hochintelligente Menschen da wohl Tag und Nacht dran entwickelt und programmiert haben mussten. Und welche Besessenheit manche Menschen wohl getrieben haben muss, damit in relativ kurzer Entwicklungszeit solche Früchte der Moderne entstehen konnten. Hierfür meinen großen Respekt. Wobei ich auch Zweifel habe, ob dieses große Entwicklungstempo wirklich gesund ist und ob wir das wirklich brauchen.

Nun existiert ein technisches Produkt nicht isoliert von anderen. Es muss vielmehr interagieren mit anderen Geräten, muss sich in eine Gesamtlösung integrieren. Eine App muss auf einem Handy laufen und ein Drucker muss mit dem Computer zusammen funktionieren. Wenn man mal alle Kombinationsmöglichkeiten bedenkt, kommt man ganz schnell in Größenordnungen, die sich keiner mehr vorstellen kann.

Sind alle diese Kombinationsmöglichkeiten getestet worden, die theoretisch funktionieren müssten? Nein, dass ist ganz klar, weil schier unmöglich. Und selbst wenn es möglich wäre, diese Technology ist so extrem schnelllebig, dass wir täglich oder gar stündlich alles neu durchtesten müssten. Das wird uns nicht gelingen.

Getestet wird vor allem erstmal, was naheliegend ist. Das ist zuerst einmal die Konsistenz eines isolierten Produktes unter Laborbedingungen. Das lässt sich meist noch relativ gut testen, wobei das bei komplexen Systemen wie einem Betriebssystem auch nicht mehr so trivial ist und man an Grenzen kommt.

Der nächste Schritt ist, dass dann eher zufällig getestet wird: Ein System wird in die Öffentlichkeit entlassen, in dem es am Markt vertrieben wird. Viele Menschen nutzen es in unterschiedlichsten Kombinationen, die eher zufällig sind. Man hat hier keine Testszenarien vorher festgelegt, sondern die Kombination ergibt sich aus den Vorlieben der Nutzer und dem, was schon an Technik vorhanden ist. Das Problemfeedback lässt ein Produkt dann reifen. Früher waren Produkte, die erst beim Kunden reifen, eher minderwertige Produkte, heute ist das zumindest im Bereich der Informationstechnologien eher typisch und auch gar nicht anders zu bewerkstelligen.

Was ergibt sich daraus? Aus den vielen theoretischen Möglichkeiten, wie alles miteinander kombiniert werden kann, bleibt oft genug nicht viel übrig, was wirklich sicher funktioniert. Selbst wenn es Standards gibt und Dinge eigentlich funktionieren müssten, funktionieren sie oft genug nicht. Das ist betrüblicher Alltag eines jeden, der in dieser Branche arbeitet. Dieser Drucker müsste eigentlich mit Windows 7 problemlos laufen, aber dieser konkrete Rechner in diesem konkreten Softwarezustand tut es einfach nicht. Wie oft müsste etwas theoretisch sicher funktionieren, die Praxis zeigt aber, dass es im konkreten Fall nicht funktioniert.

Diese Problematik ist so verbreitet, dass es schon zum zentralen Inbegriff dieser Technologie geworden ist: EDV ist das, was immer irgendwo nicht funktioniert.

Wenn eine Technologie so eine zentrale Problematik hat, dann ist die Frage: Kann ich irgendwas tun, um Inkompatibilitäten möglichst früh zu umgehen? Hier ein paar Ideen und Ansätze, die im Laufe der Jahre gewachsen sind:

  • Lass dich nicht täuschen von dem großen Feld theoretischer Möglichkeiten. Praktisch schmilzt das alles frustrierend schnell zusammen und es bleibt nicht viel, was wirklich funktioniert.
  • Einfachheit hat Priorität. Sorge für möglichst einfache Gesamtsysteme, reduziere Komplexität, auch wenn das etwas an Komfort kostet.
  • Das ein Gesamtsystem jetzt einwandfrei funktioniert, ist nur die halbe Miete. Wichtig ist, ob ein System so kombiniert wurde, dass es über die gesamte Nutzungsdauer einwandfrei funktionieren wird.
  • Was ist am besten getestet? Natürlich Kombinationen und Produkte, die am meisten verbreitet sind. Wo es geht, sollte man genau darauf zurückgreifen, auch wenn es vielleicht passendere Exoten gibt. Den Aufwand, den Firmen treiben, um Probleme zu lösen, hängt auch direkt mit dem Verbreitungsgrad ab.
  • Langfristige Basis: Es gibt Basistechnologie, auf die vieles andere aufbaut und aufsetzt. Ein Betriebssystem ist z.B. die Basis für viele Anwendungsprogramme. Basistechnologie sollte möglichst langlebig sein, weil eine Veränderung hier starke Folgeprobleme und Inkompatibilitäten nach sich zieht. Auch legt man sich mit der Auswahl einer Basistechnologie fest und kann nicht mal eben auf eine andere Technologie umswitchen. Deshalb muss hier mit Bedacht auf langfristige Lösungen gesetzt werden.
  • Vorsicht vor sich einschleichender Technologie: Viele Technologie schleicht sich über die Hintertür ein. Da nutzen Kollegen auf einmal Dienste wie Dropbox oder Google-Funktionen. Da kommt Bildbearbeitungssoftware zu Kamera mit dazu, auf die man zurückgreift. Man wird überall dazu verleitet, neue Technologien zu nutzen, ohne das man hier klar und bewusst drüber nachdenkt und die langfristige Auswirkungen und Abhängigkeiten bedenkt. Ich bin bisher sehr gut zu fahren, erstmal ein grundsätzliches Stopp-Schild für all das aufzustellen und nur auf bewusst ausgewählte Technologie zurückzugreifen. Wenn sich erstmal eingeschlichene Technologien fest in alle Arbeitsabläufe integriert haben, ist das Geschrei groß, wenn dann Probleme auftauchen. Und die meisten Probleme waren erwartbar, hätte man sie zuvor vernünftig durchdacht.
  • Rechtzeitig Abschied nehmen: Aussterbende Technologien sind kritisch. Immer weniger setzen sie ein, die Unterstützung dafür schwindet. Manche Technologien sterben langsam, andere sehr schnell. Aussitzen führt nur dazu, dass bei der nächsten kleinen Veränderung des Gesamtsystems nichts mehr läuft. Und seien es nur ein paar Sicherheitsupdates.
  • Vorsicht vor dem Neuen: Neues ist verlockend, doch eben auch ungetestet. Und da in der IT alles beim Kunden reift, sind zahlreiche Probleme vorprogrammiert. Neues arbeitet oft nicht mit Altem zusammen. Und auch Sicherheitslücken sind gefährlich.
  • Verbreitete Kombinationen: Es reicht nicht, nur weit verbreitete und schon gut getestete Produkte einzusetzen, auch die Kombination muss eher typischer Natur sein. Das Gewöhnliche funktioniert sozusagen immer, wenn auch oft nicht sonderlich intelligent und ausgeklügelt.
  • Standard in der Tiefe: Je tiefer etwas in ein Gesamtsystem angeordnet ist, um so mehr andere Komponenten sind davon abhängig. Das betrifft vor allem das korrekte Zusammenspiel. Von daher ist es hier besonders wichtig, dass man auch weit verbreitete und gut getestete Komponenten zurückgreift.
  • Ausweichmöglichkeiten: Wenn Probleme auftauchen, braucht es Ausweichmöglichkeiten, sogenannte Workarounds. Es gibt offene Technologie, die viele alternative Möglichkeiten zulässt. Es gibt ungenutzte Zusatzmöglichkeiten, die im Fehlerfalle mal Gold wert sein können. Bei Anschaffungen und auch beim Erstellen eines sinnvollen Gesamtkonzepts sollte man immer Wege wählen, die viel Flexibilität zulassen. Es ist auch immer gefährlich, sich von einer Technologie eines Herstellers abhängig zu machen, auch wenn man manchmal nicht drumrum kommt. Mitunter muss man schon im Vorfeld alternative Wege testen, auf die man zurückfallen oder umschalten kann, wenn Probleme auftauchen.
  • Anfällige Technologien vermeiden: Es gibt Technologien, die sind sehr anfällig und instabil. Die funktionieren nur unter ganz bestimmten Umständen und Abhängigkeiten, die man oft nicht sicherstellen kann. Besser auf einfache und robuste Technologie zurückgreifen, wo es geht.
  • Risikoanalysen: Je nach Umfeld ist es nötig, Risikoanalysen durchzuführen, also zu überlegen, was passiert, wenn was ausfällt und wie kann man darauf reagieren. Hier offenbaren sich auch kritische Punkte, die weiterer Absicherung bedürfen oder wo man Technologie ersetzen muss, weil sie im Fehlerfall nicht zu handhaben ist. Bei Risikoanalysen kann sich auch offenbaren, dass bei Zusammenbruch eines Teils gleich das ganze System wie ein Kartenhaus zusammenfällt. Solche Situationen müssen dann entschärft werden.
  • Testen und planen: Oft wird ohne viel Überlegung gekauft und etwas Neues ins Gesamtsystem integriert. Welche kurzfristigen und langfristigen Auswirkungen dies aufs Gesamtsystem hat, wird nicht bedacht. Auch wird nur selten getestet. Es reicht nicht, herauszufinden, ob der typische Anwendungsfall funktioniert. Man muss vielmehr schauen, was passiert, wenn besondere Umstände eintreten. Ein Backup nützt z.B. nichts, wenn man ein Restore nie geprüft hat.
  • Recherchen: Über Recherchen im Internet kann man herausfinden, ob Technologien fehleranfällig sind und mit welchen Fehlern typischerweise zu rechnen ist. Auch kann man herausfinden, ob bestimmte Produkte mit anderen Produkten fehlerfrei laufen.
  • Problemfeedback: Leider wird dies heute noch von vielen Firmen vernachlässigt. So könnte Produkte eigentlich viel schneller besser werden, aber die Problematik kommt nicht bei denjenigen an, die etwas verändern könnten. Trotzdem kann man nur dazu raten, alles dafür zu tun, damit Probleme bekannt werden. Ob nun durch direktes Feedback an den Hersteller und durch Diskussionen oder Veröffentlichungen im Internet. Spätestens wenn ein Produkt sich schlecht verkauft, bleibt zu hoffen, dass dann ein Hersteller mal recherchiert, warum das so ist.
  • Positives Feedback: Wenn man gut funktionierende Produkte und Kombinationen gefunden hat, sollte man es veröffentlichen. Damit hilft man anderen und sorgt gleichzeitig dafür, dass diese Produkte mehr verkauft werden. Dies wiederum sichert die eigene Investition in diese Technologie. Denn was sich gut verkauft, wird auch gut gepflegt und weiterentwickelt. Ebenso achten Hersteller in der Regel darauf, was gut beim Kunden ankommt und entwickeln in diese Richtung weiter. Produktrezensionen auf großen Plattformen wären eine Möglichkeit. Zum positiven Feedback gehören auch Informationen, wie man mit bestimmten Produkten ein gutes Gesamtsystem zum Laufen bekommt.

28.06.2014 :: Tintendrucker - Papierfach fehlt

Vor 3 Jahren hatten wir im Büro ein Canon MX885 Multifunktionsgerät gekauft. Das Teil hat ein Tintendruckwerk und kostete so um die 170 Euro. Leider will er nun nach so kurzer Zeit nicht mehr: Fehlermeldung "Tintenauffangbehälter voll", Gerät hätte eingeschickt werden müssen und das hätte so alles in allem 90 Euro gekostet. Diverse Tricks, wie man den Zähler selber zurücksetzt, funktionieren wohl bei den neueren Canon-Geräten nicht mehr. Früher konnte man mit zurückgesetztem Zähler dann einfach noch sehr lange weiterdrucken, ohne das der Auffangbehälter wirklich Probleme gemacht hätte. Und noch früher gabs überhaupt keinen Zähler, man hat einfach 10 Jahre durchgedruckt, ohne irgendwelche Probleme...

Natürlich gibts diesen Drucker so nicht mehr. Dafür aber ein ganz ähnliches Gerät, den MX725 für derzeit 139 Euro. Blöderweise auch mal wieder mit einer neuen Sorte Patronen.

Beim Aufbau mussten wir erschreckt feststellen, dass dem der hintere Papiereinzug fehlt. Wir brauchen nämlich den hinteren Einzug für Geschäftspapier und die Kassette für weißes Papier. Jetzt gibt es zwar 2 Kassetten, aber nur eine kann A4-Papier aufnehmen. Die andere kann nur mit kleinerem Fotopapier bestückt werden. Keine Chance, 2 verschiedene A4 Papiersorten zu verwenden.

Wir haben dann mal recherchiert, das scheint ein Trend zu sein. Auch der größere Bruder, der MX925 hat keinen hinteren Einzug mehr. Es scheint überhaupt keinen Canon-Tintendrucker mehr zu geben, der 2 Papierzuführungen hat. Und auch die anderen Hersteller scheinen darauf zu verzichten.

Das ist natürlich gerade im Büroumfeld sehr unschön und ein echter Rückschritt. Denn selbst wenn man nur eine Papiersorte verwendet, war ein zweites Fach immer praktisch für Schmierpapier. Das gilt natürlich auch für den privaten Einsatz.

Der einzige Ausweg, der nun bleibt: Ein zweiter Drucker muss her. Vermutlich wird das ein Laserdrucker sein, weil für Geschäftspapier ein schwarzer Druck reicht.

Bei solchen Massenprodukten ist man immer sehr stark abhängig, was die Masse gerade will. Und wenn für die Masse ein zweiter Papiereinzug kein entscheidendes Kaufkriterium ist, dann wird er von den Herstellern einfach weggelassen. Für Hersteller wird das meist nur eine simple und emotionslose Gewinnoptimierung darstellen. Man passt sich so an, dass die Gewinne maximiert werden. So entstehen Produkte, die zwar massenkompatibel sind, die aber nicht unbedingt gut und durchdacht sein müssen. Und Rückschritte sind dann auch nicht ungewöhnlich.

Nachtrag 05.08.2014: Nach einigen Recherchen bin ich auf die Epson Workforce Geräte aufmerksam geworden. Der WF-3640 für derzeit etwa 190 Euro verfügt über 2 vollwertige Papierfächer. Nachbaupatronen gibts derzeit auch schon für 2-3 Euro. Sobald Chipresetter verfügbar sind, wird der Preis für Nachbaupatronen vermutlich auf 1-2 Euro sinken.

25.06.2014 :: Videoblog Doktor Johannes

Ist schon interessant, was so Internet-Aktivisten auf die Beine stellen. Da sieht man auch, was heute so möglich ist und wie nützlich das sein kann. Hab gerade im Fernsehen etwas von Doktor Johannes gehört. Er macht jede Menge Videos zu allen möglichen Gesundheitsthemen. Damit können sich Patienten vor einem Arztbesuch besser vorbereiten und auch im Nachhinein besser verstehen lernen, was sie haben. Ein weiterer guter Schritt hin zu einem selbstverantwortlichen Patienten, der sein Schicksal nicht einfach in die Hände eines Arztes gibt. Es ist ja sowieso bei vielen Krankheiten eine Illusion, ein Arzt könne das alles ohne unser Zutun hinbekommen und alles für uns entscheiden. Spätestens die Folgen ungünstiger Entscheidungen müssen wir dann selber tragen.

Hier gehts zur Homepage: http://www.doktor-johannes.de

Wenn man sich mal auf youtube umschaut, gibts mittlerweile schon jede Menge Informationen zu Gesundheitsthemen.

05.06.2014 :: Die Angst vor Technik

Technik kann uns schon ganz schön mit unseren psychischen Begrenztheiten konfrontieren. In Computerschulungen sind mir schon häufiger tiefsitzende Ängste der Technik gegenüber aufgefallen. Natürlich wird nur selten über Angst gesprochen, aber wenn man feinfühlig hinspürt, dann sieht man, in welcher Not manch einer doch ist, wenn es um die Bedienung von Technik geht.

Wo Ängste sind, ist die Vermeidung nicht weit. Ich kenne viele Menschen, die vermeiden zahlreiche technische Möglichkeiten konsequent. Und schlechte Erfahrungen mit Technik hat wohl jeder schonmal gemacht.

Mir ist ein Unterschied aufgefallen, wie auf Probleme mit Technik reagiert wird. Da gibt es diejenigen, die es fürchterlich aufregt und die mitunter zu Wutanfällen neigen. Ich erinnere mich auch an unzählige Situationen am Computer, wo die Wut in mir hoch kroch und meine Tastatur dann so einiges aushalten musste. Weil ich mir natürlich auch immer wieder dieser Unsinnigkeit solcher Wutausbrüche bewusst werde, versuche ich immer wieder, einen entspannteren Umgang damit zu finden. Aber Reizpotenzial hat diese Technik für mich definitiv.

Ich kenne viele, die mit Wut reagieren. Andere reagieren mit Humor, dass ist mir eigentlich am sympathischsten. Aber dann gibt es eben auch viele, die mit Angst, Stress, Unfähigkeits- oder Ohnmachtsgefühlen reagieren.

Der Unterschied scheint zu sein, wie man die Situation interpretiert. Als ich das mal mit einer Bekannten reflektierte, kam ein großer Unterschied zwischen uns beiden heraus. Wir saßen vor dem Computer und etwas funktionierte nicht. Während ich dachte: "Was ist das denn für eine murksige Software?", dachte sie: "Ich bin mal wieder zu unfähig, ganz typisch!". Für mich war also völlig selbstverständlich, dass die Software nicht gut ist und für sie war selbstverständlich, dass sie unfähig ist.

Ich erlebe das sehr häufig, dass Menschen bei der Bedienung von Computern viel zu schnell an sich zweifeln, obwohl für mich offensichtlich die Software schlecht gemacht ist. Computer sind für mich an vielen Stellen noch voller Fehler. So viel Undurchdachtes, Halbherziges und schlecht Gemachtes. Da muss man doch überall erstmal drüber stolpern, das ist eigentlich völlig normal. Computer sind die Konfrontation mit einer chaotischen und äußerst unperfekten Welt. Das muss man einfach wissen, um nicht zu falschen Schlüssen zu kommen.

Oft wird dieser Trugschluß aber noch genährt, dass man selber so unfähig wäre. Dann gibt es Experten, die schon alle Unsinngkeiten durchlitten haben und jeden Fallstrick kennen. Die navigieren dann mit Leichtigkeit durch vermientes Gelände und fragen von oben herab: Wo ist das Problem? Ist doch alles ganz einfach. Damit vermitteln sie das Gefühl, man wäre selber unfähig und verschleiern, dass auch sie einige Zeit gebraucht haben, um sich so zielsicher durch den ganzen Unfug zu bewegen.

Ich wünschte, viele Menschen würden diesen Trugschluß erkennen, dass in Wirklichkeit nicht sie selber irgendwie blöde sind, was Technik angeht. Technik ist oft eine ziemliche Herausforderung, enthält jede Menge Undurchdachtheiten, Dummheiten und Fallstricke. Sie ist aber vor allem dann beherrschbar, wenn wir es spielerisch angehen können und eine Lust daran entwickeln, wie wir trotz dieser Verrücktheiten reproduzierbare Wege finden, ans Ziel zu kommen. So kann aus Angst und Vermeidung ganz schnell auch eine spielerische Herausforderung und eine Entdeckungsreise werden.

01.06.2014 :: Alte Notebooks weiter nutzen

Die Situation hat sich in den letzten Jahren deutlich verschoben. Ich erinnere mich noch, dass man vor 10 Jahren sagen konnte: Fürs Internet und ein wenig Textverarbeitung reicht auch ein uralter Rechner. Und in der Tat konnte man zu dieser Zeit noch recht flüssig mit einem 8-10 Jahre alten Rechner arbeiten.

Heute sind schon nach viel kürzerer Zeit vormals leistungsfähige Rechner nicht mehr benutzbar. Besonders fällt mir das bei den Notebooks auf. Ich habe gerade einen Lenovo Thinkpad T61 mit 1GB Ram und 1,8GHz Dual-Core-Prozessor am Wickel. Der wurde für 1200 Euro im November 2007 angeschafft, ist also 6,5 Jahre alt. Und der war jetzt schon so unerträglich langsam, dass er völlig unbenutzbar im normalen Büroalltag ist.

Es sind vor allem die vielen Festplattenzugriffe, die Virenscanner, Internetbrowser, Flashplayer, Java und das Betriebssystem selbst produzieren. Denn oft lässt sich beobachten, dass die Platte unermüdlich arbeitet, während der Prozessor kaum belastet ist.

Der Ressourcenverbrauch im Internet hat sich extrem erhöht. Kaum eine Internetseite läuft heute noch ohne irgendwelche Skripte und viele dieser Skripte sind ineffizient programmiert. Überhaupt macht sich über effiziente Programmierung kaum jemand Gedanken, in diese Richtung investiert man nicht. Besonders ärgerlich, wenn jede Menge Ressourcen für das Einblenden von Werbung verbraucht werden, die man gar nicht will. All das sorgt dafür, dass aus der effizienten Internettechnologie, die früher noch auf ältesten Rechnern lief, eine hoch anspruchsvolle Technik wurde, die leistungsfähige Hardware benötigt. Gepaart mit extrem leistungshungrigen Virenscannern und Hintergrundprogrammen, die permanent laufen, bricht dann alles zusammen.

Bei Notebooks kommt als Problem hinzu, dass die von den Festplattenzugriffen auf 2,5 Zoll Platten recht langsam sind. Da waren die Desktop-Rechner gleichen Baujahres in der Regel wesentlich schneller.

Bei dem erwähnten Thinkpad T61 hab ich testweise mal eine 200MB Datei auf der internen Festplatte kopiert, dabei werden 200MB gelesen und gleich wieder geschrieben. Das dauerte 12 Sekunden und ist damit wirklich sehr langsam.

Hier kann dann eine SSD-Festplatte ein Ausweg aus dem Dilemma sein und viel bringen. Natürlich wird man bei älterer Hardware nie die Datentransferraten erreichen, die theoretisch mit diesen Platten möglich wären. Hier braucht man deshalb auch gar nicht die schnellste SSD kaufen, sondern kann etwas günstiger kaufen. Hier wurde es konkret eine SanDisk SDSSDP-064G-G25 64GB für gut 40 Euro. Kopiert wurde das komplette Betriebssystem mit einem Imageprogramm (Acronis True Image).

Das Resultat ist sofort spürbar, alles läuft jetzt wieder flüssig und die Ladezeiten der Programme haben sich stark verkürzt. Ein Test mit dem Kopieren der 200MB Datei lief in etwa 4 Sekunden ab, also Faktor 3 mal schneller. Hier zeigt sich aber auch deutlich, dass die Controller-Hardware stark unter den Werten bleibt, die die SSD bringen könnte.

6-7 Jahre alte Notebooks lassen sich mit einer SSD also nochmal für vielleicht 3 Jahre zur Mitarbeit für einfache Internet- und Büroanwendungen bewegen. Für Windows 7 sollten es dafür mindestens 1GB Ram sein, besser wären natürlich 2GB. Der Prozessor sollte mindestens ein Dual-Core mit 1,5GHz sein.

Wichtig ist, dass fast alle SSD-Festplatten mit der aktuellen SATA Schnittstelle ausgestattet sind. Wer noch ein sehr altes Notebook mit ATA-Schnittstelle hat (44pin Stecker), der muss aufpassen. Es gibt nur ganz wenige P-ATA-SSD am Markt, z.B. die Transcend TS32GPSD330 mit 32GB für etwa 50 Euro. Für Windows 7 sind 32GB aber wirklich schon das unterste Limit, wo man auch kaum noch Platz für irgendwelche Daten hat. Wer aber in einem Netzwerk arbeitet und seine Daten auf einem NAS oder Netzwerkserver hat, könnte damit klar kommen. Sonst wird es nämlich mit 80 Euro für die 64GB Variante schon arg teuer. Das lohnt sich dann alles kaum noch. Zumal bei P-ATA auch der Geschwindigkeitszuwachs durch Limitierungen des Controllers nicht so stark ausfällt.

Auch Desktops lassen sich mit SSD-Platten wesentlich beschleunigen. In der Regel sind die SSD-Platten im 2,5 Zoll Format, man braucht dann evtl. noch einen Einbaurahmen, wenn das Desktop-Gehäuse keinen 2,5 Zoll Einbauplatz hat.

Grundsätzlich funktionieren die meisten SSD-Platten auch unter Windows XP. Wobei man XP ja sowieso nicht mehr einsetzen sollte und es auch in keinerlei Hinsicht auf SSD optimiert ist. Erst Windows 7 kann optimiert mit SSD-Platten umgehen. Denn für lange Haltbarkeit muss hier vor allem das häufige Beschreiben vermieden werden. Egal, welches System man verwendet, keinesfalls sollte man zukünftig noch defragmentieren. Das bringt bei SSD-Technologie nichts und sorgt nur für sinnlose Schreibvorgänge. Auch sonst sollte man alles abschalten, was ständig irgendwo unnütz auf Platte herumschreibt, z.B. Permanent-Backup-Programme im Hintergrund.

Zur Verbesserung der Performance und der Festplattenzugriffe sollte man auch mal das Programm msconfig.exe starten, um alle Programme aus dem Systemstart zu schmeißen, die nicht unbedingt benötigt werden. In der Regel nistet sich hier jede Menge Müll ein, den keiner braucht.

30.04.2014 :: Der Kampf mit den Virenscannern

Auf langsamen Systemen wird es besonders deutlich: Ohne Virenscanner laufen sie noch recht flüssig, mit Virenscanner ist ein Arbeiten kaum noch möglich. Es ist wirklich unglaublich, wie viel Performance die heutigen Virenscanner ziehen.

Dabei ist es noch nicht mal die permanente Belastung, die dadurch entsteht, dass bei jedem Zugriff auf Dateien diese Live getestet werden. Das macht nach meinen Erfahrungen überhaupt kein Problem. Blöderweise wird dieses Kriterium aber bei Performance-Tests oft als Einziges herangezogen.

Was ganz anderes belastet wirklich extrem: Die Update-Prozesse. Man spürt das, dass auf einmal für Minuten fast nichts mehr geht. Dann macht der Virenscanner im Hintergrund ein Update. Doch von Hintergrund kann man hier nicht sprechen, er drängt sich mit seinem Leistungshunger so in den Vordergrund, dass keine andere Software noch eine Chance hat.

Ich hab hier noch ein älteres Notebook im Einsatz, ein Fujitsu Siemens Amilo mit 1,4GHz, 768MB Speicher und Windows XP. Bei so einem Update-Prozess ist es aber gar nicht der Prozessor, der an seine Leistunggrenze kommt, zumindest ist das recht selten. Das Hauptproblem ist die Festplatte. Diese wird vor allem vom Updateprozess voll beansprucht. Ich hab gerade mal gemessen, wie schnell die Platte hier ist. Eine 200MB Datei kann man in ungefähr 1 Minute innerhalb der gleichen Festplatte kopieren. Macht über den Daumen mal so 7MB/s, wenn wir mal davon ausgehen, dass lesen und schreiben etwa gleich schnell geht. Das ist natürlich langsam, aber was muss bei einem Update denn so alles geschehen?

So richtig nachvollziehbar ist das nicht. Ich hab hier den Norton Antivirus drauf und weil der mich genervt hat, hab ich den Updateprozess abgeschaltet. Ich mache den jetzt manuell einmal pro Woche. Und jetzt kommt der ganze Unsinn gänzlich zu Tage. Für so ein Update braucht er dann ungelogen 20 Minuten! Während dieser Zeit rattert permanent die Festplatte. Ich kann immer nur ungläubig den Kopf schütteln und frage mich, was der da macht.

In 20 Minuten könnte man auch bei dieser Festplattenperformance immerhin 8 Gigabyte transferieren. Aber was muss denn ein Virenscanner bei einem Update tun? Es dürften doch eigentlich nur wenige Megabyte neue Virendefinitionen sein. Das müsste doch eigentlich innerhalb von 30 Sekunden eingespielt sein, auch bei so einem langsamen Rechner. Ok, manchmal muss auch die Software aktualisiert werden, aber die 20 Minuten sind nun regelmäßig jede Woche nötig, das kann kein Softwareupdate sein.

Die logische Schlussfolgerung kann eigentlich nur lauten, dass heutige Virenscanner extrem ineffizient programmiert sind. Die gehen mit den Rechner-Ressourcen dermaßen schlampig um, dass sie ein Vielfaches an Leistung brauchen und damit einen Rechner völlig unnötig belasten. Damit sorgen sie dafür, dass Rechner viel früher ihr Lebensende erreichen. Wären sie effizient programmiert, könnte man mit dem Rechner vielleicht nochmal 2-4 Jahre länger arbeiten.

Sogesehen richten sie einen ziemlichen Schaden an, vernichten Ressourcen und belasten über Umwege die Umwelt. Ganz persönlich belasten sie uns alle finanziell. Nicht durch den Kaufpreis, sondern durch den Performance-Klau, den sie an unseren Systemen vornehmen. Aber die Wirtschaft kurbeln sie an, weil viel früher neue Computer gekauft werden müssen.

Erstaunlich ist, dass kein Virenscannerhersteller es irgendwie wirklich besser macht. Ich hab schon zahlreiche Scanner durchprobiert, irgendwie ziehen sie alle stark am System, wenn auch die Belastungsmuster unterschiedlich ausfallen.

Da fragt man sich, was der Grund sein könnte? An eine gezielte Zusammenarbeit mit Computerherstellern, die sich freuen, neue Computer verkaufen zu können, glaube ich eher nicht. Das klingt mir zu sehr nach Verschwörungstheorie.

Entwicklungswerkzeuge und Programmbibliotheken, die einen extremen Overhead mitbringen, könnten da schon eher eine Ursache sein. Kein Entwickler kennt heute mehr die Bits und Bytes persönlich. Man arbeitet nicht mehr dicht an der Maschine, wie noch zu C64-Zeiten. Stattdessen wird man erschlagen mit Tonnen an Softwarebibliotheken, die man nur benutzt und deren Interna man nicht kennt. Viele dieser Bibliotheken werden wohl von Microsoft kommen und darauf bauen alle Hersteller auf.

Also könnte man mutmaßen, hier holen einen wieder die Begrenzungen dieser Windows-Betriebssysteme ein, auf denen man diesbezüglich vielleicht nicht effizient programmieren kann. Die Virenscannerhersteller könnten dann nur ein wenig Flickschustern, aber keiner hat wirklich die Möglichkeit, es mal so richtig viel besser zu machen.

Vielleicht könnten die Virenscannerhersteller es aber auch viel besser machen, tun es aber nicht, weil kein wirkliches Interesse da ist. Vielleicht kann man die Vorteile eines performanten Scanners nur schwer vermitteln, vielleicht verstehen Kunden zu wenig, dass sie dadurch wesentlich länger mit ihren Computern arbeiten könnten. Vielleicht wollen das aber auch viel zu wenige, man hat sich einfach daran gewöhnt, sich alle 3-5 Jahre was Neues zu gönnen.

Begreifen kann man das ja sowieso nicht, warum ein Updateprozess überhaupt für 20 Minuten ein System nahezu völlig blockiert. Viel sinnvoller wäre ja, dass das System kaum belastet wird und er meinetwegen 2 Stunden das Update macht. Wenig Ressourcenklau bei längerer Zeitspanne wäre ja überhaupt kein Problem. Aber vermutlich wird auch hier wieder das Betriebssystem zu wenig Unterstützung für solche gemächlichen Hintergrundprozesse anbieten, die nur minimal ein System belasten.

Wirds mit neuen Betriebssystem-Versionen besser? Ich glaube nicht, wir werden uns weiterhin mit diesem Murks rumärgern müssen. Oder spätestens nach 5 Jahren muss ein neuer Rechner her.

26.04.2014 :: Keine Rechnung bei Amazon-Bestellungen

Das finde ich echt krass, was einem da bei Amazon zugemutet wird, um an seine Rechnung zu kommen. Wenn die Artikel direkt von Amazon verkauft werden, funktioniert alles Bestens. Bei der Lieferung liegt die Rechnung dabei und alles ist gut. Wenn aber beim Artikel dabei steht "Verkauf durch verkäufer-xy und Versand durch Amazon.", dann erhält man lediglich einen Kaufbeleg ohne Preise mitgeschickt. Braucht man aber nun doch eine ordentliche Rechnung, die steuerlichen Anforderungen genügt, geht die Suche los. Die Hilfetexte von Amazon versagten leider, weil der dort angegebene Weg nicht funktionierte.

Ein Weg, den ich jetzt herausgefunden habe:

  • Erstmal Lieferung abwarten und mindestens 5 Tage warten, ob nicht doch automatisch eine Rechnung vom Verkäufer kommt. Wenn nicht, dann:
  • In sein Amazon-Konto gehen
  • Meine Bestellungen anzeigen lassen
  • Bei der betreffenen Bestellung links "Bestelldetails" anklicken
  • Bei der ersten Position, wo bei Versand durch: [Verkäufer xy] steht auf Mitgliedsprofil dahinter klicken.
  • Links oben auf "Detailierte Verkäuferinformationen" klicken
  • Seite wird weiter unten geöffnet, muss erst vollständig nach oben gescrollt werden
  • Dort findet man im Kleingedruckten in zweiter Spalte einen Kasten wo steht "Bei Fragen zu Produkten, Lieferung von Bestellungen oder Rücksendungen wenden Sie sich an den xyz-Kundendienst" Dort klicken.
  • Bei Punkt 2 hier angeben "Rechnung anfordern"
  • Hoffen, dass man nun auch wirklich innerhalb der nächsten Tage eine Rechnung per Mail zugeschickt bekommt.
  • Kommt keine, sicherheitshalber Spam-Ordner durchforsten. Falls keine gefunden, dann nochmal per Mail probieren, schlechte Bewertung androhen und hoffen, dass nun reagiert wird.
  • Kommt immer noch nichts, anrufen. Telefonnummer sollte auch bei den Verkäuferdetails auftauchen. Falls nicht, bleibt nur der schriftliche Weg per Post. Evtl. gleich per Einschreiben. Alternativ Ware zurückschicken und Kauf widerrufen. Oder Amazon kontaktieren, damit die dem Verkäufer Druck machen.

Wenn man nun mehrere Artikel von unterschiedlichen Verkäufern in der Bestellung hat, muss man all diese Schritte für jeden Verkäufer wiederholen.

Wenn man in der Bestellung Artikel hat, die vom Verkäufer und nicht von Amazon versendet werden, dann hat man bei der Lieferung eine Rechnung dabei, wenn man Glück hat. Aber auch das klappt nicht immer und auch dann muss man nachträglich seine Rechnung anfordern.

05.04.2014 :: Immer diese realitätsfremden Computertipps

Gestern auf allen Radio- und Fernsehkanälen: 18 Millionen E-Mail-Konten gehackt. Und dann kommen diese Computerexperten. Die sprechen Tipps aus, die man unbedingt befolgen sollte, die aber völlig abstrus und realitätsfremd sind. Nun wissen die meisten, dass sie ja etwas schlampig mit der Sache umgehen, befolgen dann solche Tipps, merken aber nach kurzer Zeit, dass das doch gar nicht praktikabel ist. Und dann wird es wieder gemacht, wie eh und je...

Einer dieser blöden Tipps war, grundsätzlich die 2-Wege Authentifizierung einzusetzen. Jedes mal, wenn man sich also in sein Mailkonto einloggen möchte, soll man zuerst ein Passwort eingeben, dann auf eine SMS warten, diese öffnen und denn dort enthaltenen Code auch noch eintippen. Und das je nach Mailgewohnheit vielleicht 10 mal am Tag. Gehts noch?

Würden diese Profis wenigstens mal mit einem Satz die Umständlichkeit dieses Verfahrenes erwähnen, dann wäre etwas mehr Realismus im Spiel. Stattdessen wird so getan, als wäre das die einfachste und beste Lösung des Problems. Dabei hätte man doch wenigstens mal erwähnen können, dass man dieses 2-Wege-Verfahren auf seinem festen Arbeitsplatz ausschalten kann und es nur für unsichere Computerzugänge verwendet. Das wäre zumindest mal etwas realitätsnäher.

Noch schöner sind die Empfehlungen, die wir bei diversen Abhörskandalen zu hören bekamen: "Verschlüsselt doch eure Mails. Dafür gibt es einfache und kostenlose Software." Wenn ich sowas höre, muss ich mich wirklich beherrschen, um bei solch massiver Ignoranz der Realitäten nicht laut aufzuschreien. Mit wem will ich denn da kommunizieren, wenn 99,9% der Bevölkerung überhaupt keine Verschlüsselungstechnologie bei sich installiert hat? Und jede Form von zusätzlicher Umständlichkeit wird doch sowieso von fast allen sofort abgewehrt. Nicht ohne Grund, werden wir doch von der Technik sowieso schon zur Genüge genervt. Wenn das alles so einfach wäre, dann hätten doch fast alle schon solche Lösungen selbstverständlich im Einsatz. Und auch hier wird mit keinem Wort erwähnt, mit welchen Problemen man bei dieser Lösung zu kämpfen hat. Es wird so getan, als schubse man mal schnell ein Programm auf seinen Rechner und kann dann wie gewohnt, aber fortan verschlüsselt, seine Mails verschicken.

Oder noch so ein Klassiker: "Schalten sie Skripting in ihrem Browser ab. Und Flash auch gleich." Das dann 90% aller Internetseiten unbenutzbar sind, wird leider nicht erwähnt.

Liebe Experten, wacht mal auf und entwickelt einen gesunden und ganzheitlichen Blick auf die Sache. Fühlt euch mal in die Realitäten typischer Durchschnittsnutzer ein, dann kann man darüber reden, was wirklich umsetzbar ist. Ein klein wenig ist jeder bereit, in Sicherheit zu investieren. So unsinnige Tipps führen aber nur zu noch mehr Ignoranz bei den Nutzern.

Nachtrag: Und noch ein schöner Expertentipp aus dem Fernsehen: Man soll gleich 2-3 Virenscanner über seinen Rechner laufen lassen. Die meisten werden mit dieser Info auch 2-3 Virenscanner installieren, weil man den sonst ja nicht laufen lassen kann. Das wäre aber fatal, dann ist die Wahrscheinlichkeit groß, dass der Rechner gar nicht mehr vernünftig läuft. Man sollte nie mehr als einen Virenscanner gleichzeitig installiert haben.

Und weil gerade April ist, auch ein Tipp noch von mir: Benutzen Sie dieses Passwort für alles:

kdivlkdsl8840$$4494abc

Das ist ein von mir getestetes Passwort und ich kann die Sicherheit bestätigen. Mit diesem Passwort haben Angreifer keine Chance mehr ;-)

04.04.2014 :: Schwarmprodukte und Schwarm-Einkaufsverhalten

In Zeiten des Internet verändert sich die Vermarktung von Produkten extrem. Die große Frage der Hersteller ist ja immer, was wird der Kunde aus der Vielfalt des Angebots auswählen. Welche Produkte werden zu echten Rennern und welche zu Ladenhütern? Und die große Frage des Kunden ist, wie finde ich das Produkt, was am besten meinen Bedürfnissen entspricht?

Früher waren wir in der Frage der Auswahl viel unfreier. Als es z.B. noch die kleinen Fachhändler für Technikprodukte gab, traf der eine starke Vorauswahl. Ging man in so ein Geschäft, konnte man zwischen 5 Radios in 3 Preiskategorien wählen. Mehr konnte ein Händler gar nicht im Lager haben. Nur wenn man gezielt etwas Bestimmtes wollte, konnte das auch meist bestellt werden. Doch früher war man ja auch viel schlechter informiert, der Otto-Normalbürger nahm einfach das, was da war.

Später hatten die großen Technikmärkte zwar ein scheinbar riesen Angebot, aber in Wirklichkeit wurde auch hier stark gesteuert. Zwar standen 100 Fernseher in der Wand, aber verkauft wurde doch fast nur die Palettenware: Die besonders günstigen Angebote, die im Laden auf Paletten aufgetürmt sind. Da hat man das Gefühl, so richtig günstig ein Knallerprodukt zu bekommen, was in großen Stückzahlen abverkauft wird.

Und da waren wir schon bei diesem Schwarmgedanken und bei den Schwarmprodukten. Irgendwie wird die große Masse an Kunden hingeleitet zu ein paar wenigen Produkten. Auch wenn es eine scheinbar große Auswahl gibt, auf vielen Ebenen wird dafür gesorgt, dass der Schwarm dann doch zu ein paar wenigen Produkten greift. Denn das hat große Vorteile. Das erleichtert die Lagerhaltung und man kann große Mengen eines Produktes einkaufen. Nur so sind überhaupt günstige Konditionen machbar. Technikmärkte haben ein sehr hohes Interesse, eigentlich nur ganz wenige Produkte in großen Mengen zu verkaufen.

Im Internet ist die Freiheit nun noch viel größer. Wenn es z.B. um Digitalkameras geht, hat man nun die Auswahl zwischen tausenden Produkten, die scheinbar gleichwertig nebeneinander angeboten werden. Fast alles auf Lager, man kann beliebig wählen. Manche finden das genial, endlich frei zwischen so vielen Produkten wählen zu können. Andere erschlägt es einfach und sie suchen nach Orientierung.

Nach Orientierung suchen wir aber eigentlich alle. Nur einige haben halt Spaß daran, andere finden es lästig. Und wie bekommen wir Orientierung? Natürlich durch Bewertungen und Empfehlungen anderer Nutzer, die ein Produkt schon gekauft haben. Für viele ist es schon ein richtiges Hobby, die nächsten 14 Tage täglich 2 Stunden durchs Netz zu surfen, alle möglichen Rezensionen, Youtube-Videos und Empfehlungen in Foren durchzuarbeiten, um dann wirklich die Wunschkamera auserwählt zu haben.

Doch treffen wir da wirklich so eine freie Entscheidung?

Ich hab in der letzten Zeit das Gefühl, dass auch hier ganz stark kanalisiert wird und extreme Schwarmtendenzen entstehen. Auf einmal ist ein Produkt irgendwie angesagt, dann fühlt man sich gut, zur großen Fangemeinde zu gehören und gesteht sich nicht mehr ein, dass das Produkt doch so einige Schwächen hat, wenn man es mal nüchtern betrachtet. Denn wenn so viele Nutzer es doch als sehr gut bewertet haben, dann muss das einfach gut sein. Das hat schon Ähnlichkeit mit dem Märchen "Des Kaisers neue Kleider".

Anders herum, man könnte fragen: Wie hoch ist eigentlich die Schwarm-Intelligenz? Sind die Präferenzen eines Schwarms wirklich objektiv gute Präferenzen?

Es ist manchmal schon erstaunlich, dass ein Produkt 1000 Rezensionen bei Amazon hat, ein anderes aber nur 16. Obwohl man die persönliche Erfahrung gemacht hat, dass das Produkt mit den wenigen Bewertungen eigentlich objektiv wesentlich besser ist. Da wird einem dann klar, dass hier psychologische Effekte eine Rolle spielen, dass wir einem Herdentrieb unterliegen und manchmal kaum spürbar gelenkt werden.

Ich hatte auch eine längere Phase, da hab ich mich recht unkritisch von Amazon-Bewertungen leiten lassen. Was tausende Leute kaufen und gut bewerten, dass muss doch einfach gut sein. Sollte man meinen.

Weil aber auch Hersteller das wissen, wird hier natürlich stark dafür gesorgt, dass man erstmal einen gewissen Hype auslöst und dann wird die Herde schon von ganz alleine dieses Produkt weiter mit guten Rezensionen füttern. Da reichen dann schonmal bei Neueinführung ein super günstiger Preis und vielleicht 20 professionell erstellte Rezensionen mit bester Bewertung. Der Rest läuft dann von selbst, den organsieren die Mitläufer, die sich auf die Schwarm-Meinung einstimmen. Man will ja zum Schwarm gehören und kein Außenseiter sein. Und auch nicht zu blöd, den Wert oder Sinn eines Produktes zu verstehen. Über einen Witz, den man nicht versteht, lacht man ja auch, wenn der Rest lacht...

Die letzten Monate bin ich auf diese Problematik vor allem deshalb aufmerksam geworden, weil ich einige mal richtig auf die Nase gefallen bin: Produkte, die ein großer Schwarm als genial bezeichnet, die nach meiner Prüfung aber wirklich unterdurchschnittlich waren. Umgedreht fand ich Produkte, die wirklich richtig gut sind, die aber so gut wie keine Bewertungen erhielten. Und weil sie keine Bewertungen hatten, werden sie auch nicht gekauft.

Natürlich haben auch Fachmagazine eine große Macht und Einflussmöglichkeit, welche Produkte zu Schwarmprodukten werden. Und weil das so ist, ist der Versuch der Hersteller natürlich auch groß, auf Tests Einfluss zu nehmen. Schließlich will ja jeder Hersteller, dass sein Produkt ein geliebtes Top-Produkt wird.

Und weil Weblogs, Internetforen, Youtube und soziale Netzwerke so einen großen Einfluss auf Meinungsbildung und Hypes haben, wird auch hier Tag und Nacht geackert, um Meinungen zu etablieren. Manchmal erschreckt man richtig, wie ausgefeilt und professionell solche Maßnahmen schon seit geraumer Zeit laufen. Es gibt z.B. zahlreiche Agenturen, die nichts weiter machen, als solche Kanäle ganz gezielt zu beackern. Fast immer natürlich im Verborgenen, damit der Zauber nicht auffliegt.

Aber wo findet man eine echte und objektive Beurteilung, was man von Produkten erwarten kann? Vielleicht geht es darum, etwas kritischer mit all den Orientierungsmöglichkeiten umzugehen. Einzubeziehen, dass vieles gemacht ist, das man überall manipuliert wird. Man darf sich nicht einlullen lassen, durch die emotionalen Botschaften, sondern sollte sich besser an objektiven Aussagen orientieren. Oder man müsste aufpassen, durch eine eigene emotionale Grundfärbung zu einem Produkt, dann nicht nur noch das zu lesen, was man gerne lesen will. Auch mal die kritischen Stimmen lesen, ob da vielleicht was dran ist. So rein objektiv, ohne sich auch hier in eine emotionale Negativstimmung reinziehen zu lassen. Denn auch Produktbashing wird ganz gezielt von der Konkurenz betrieben.

Man könnte das alles unter dem Begriff Medienkompetenz zusammenfassen. Das Internet macht es einem nicht einfacher, zu guten Entscheidungen zu kommen. Hier wirken auch überall die manipulierenden Kräfte und man wird schnell an der Nase herumgeführt. Hat aber das schöne Gefühl, frei entschieden zu haben, so dass einem lange nicht auffällt, welchem Schwarm man da wieder unreflektiert gefolgt ist.

Einen ganz konkreten Tipp hab ich aber noch: Ich lese mir seit einiger Zeit vor allem die mittelmäßigen Bewertungen von Produkten genauer durch. Vielleicht findet sich dort mehr Wahrheit, als bei den superguten und den superschlechten. Denn dort bewerten Menschen, die durchaus gute Seiten am Produkt entdecken können, aber auch ungünstige Aspekte sehen. Da sind vielleicht die weniger verblendeten Nutzer zu finden, die sich eine eigene Meinung gebildet haben. Auch das ist kein Königsweg, aber zumindest hat mir das bei den letzten Recherchen geholfen. Das glaube ich zumindest. Aber wer weiß, vielleicht bin ich da auch wieder einer Täuschung erlegen ;-)

Das erinnert mich spontan an einen Buchtitel: "Wie wirklich ist die Wirklichkeit?" von Paul Watzlawik, was ich vor Jahren mal gelesen habe. Das ist aber nun keine 5-Sterne Empfehlung, ich weiß ehrlich gesagt gar nicht mehr so richtig, was drin steht. Aber fast hätte ich mich zu einer Empfehlung hinreißen lassen, weil es bei Amazon so viele gut finden und mir der Titel gerade so schön passend vorkommt :-)))

30.03.2014 :: Tastatur-Empfehlung: Cherry eVolution Stream XT

Auf gute Tastaturen achte ich schon lange Zeit. Vor 20 Jahren war es die Cherry G80-3000. Ein echter Klassiker, die damals um die 120 DM kostete. Das war noch eine Zeit, wo Tastaturen zwar teuer waren, aber die Qualität auch wirklich stimmte. Auch die Original IBM-Tastaturen waren damals heiß begehrt, besonders die mit einem leichten Klick beim Anschlag.

Die Tastatur, die ich die letzten 4 Jahre in Benutzung hatte, war eine Dell RT7D50. Die hat mir schon sehr gut gefallen. Vom Anschlag her eher eine klassische Tastatur mit recht großem Tastenhub. Auch nicht gerade die leiseste, aber recht präzise im Anschlag. Leider haben sich nun schon einige Tastenbeschriftungen gelöst.

Seit ungefähr 2 Jahren bin ich echt glücklich über eine neue Alternative: Die Cherry eVolution Stream XT. Die haben wir mittlerweile an 10 Arbeitsplätzen im Einsatz und alle Kollegen waren hellauf begeistert. Auch ich schreibe jetzt seit 2 Monaten auf dieser Tastatur. Die ist echt gut.

Es gibt ja seit einigen Jahren eine klare Entwicklung hin zu den kurzhubigen Tasten, wie man sie von Notebooks und Apple-Geräten kennt. Und so ist auch die Cherry: Relativ kurzhubig und auch recht leise. Die Tasten haben zudem einen schönen Druckpunkt. Mit 18 Euro ist die zudem noch richtig günstig.

Die Tastenbeschriftungen sind leider auch nur aufgedruckt, wie bei vielen Tastaturen heutzutage, selbst bei recht hochpreisigen Notebooks. Ich bin mal gespannt, wie lange die durchhalten. Bisher gibt es jedenfalls noch keine Probleme. Bei Logitech und Microsoft hingegen hatten wir die letzten Jahre einige Tastaturen, die nach 2 Jahren schon ihre Beschriftungen verloren.

Zu der Tastatur bin ich eigentlich über Umwege gekommen. Ich häng ja eigentlich immer an so Sachen, an die ich mich gewöhnt habe und so wäre ich eigentlich bei meiner Dell geblieben. Ein Kollege hatte aber einen Kaffee über seine Tastatur gegossen und ich wollte die eigentlich schon wegwerfen, weil Tasten hängen blieben. Ich hab sie dann aber mal spaßeshalber auseinandergebaut, in der Dusche dann gut durchgespült und nochmal 2 Stunden in der Badewanne eingeweicht. Dann gut abtropfen lassen und 1 Woche getrocknet. Zum Schluß wieder zusammengebaut und getestet. Seither ist sie im Testbetrieb und sie funktioniert wieder einwandfrei. Das liegt auch daran, dass die Kontakte der Tasten über 3 dicht verschweißte Folien realisiert sind. Da kommt kein Wasser hin. Fazit: Recht robust ist sie auch noch.

An eine Sache muss man sich gewöhnen: Die Leertaste liegt ziemlich niedrig. Wenn man hohe Tasten gewöhnt ist, haut man schnell mal nur auf das Gehäuse, anstatt die Leertaste herunterzudrücken. Aber man soll ja ruhig mal an alten Gewohnheiten feilen, sonst lässt die Gehirnleistung nach ;-)

Ich bin auch deshalb froh, endlich mal wieder eine vernünftige Tastatur gefunden zu haben, weil Logitech - die Marke, die ich die letzten Jahre eher kaufte - für meinen Geschmack ziemlich nachgelassen hat. Die haben zumindest einige Tastaturen im Angebot, die ich schon für ziemlich grenzwertig halte. Ich hoffe, die werden auch mal wieder besser.

Jetzt bin ich nach 20 Jahren wieder bei Cherry angekommen. Schön übrigens auch, dass das Tastengefühl ganz ähnlich ist, wie auf einem Lenovo Notebook, mit dem ich regelmäßig arbeite.

Bei Amazon sehen die Rezensionen recht gut aus, aber es gibt auch 1-Stern Bewertungen, die hauptsächlich Probleme mit frühen Ausfällen hatten. Das war bei uns bisher kein Problem, ich bin mal gespannt, wie die auf lange Sicht halten.

25.03.2014 :: Festnetztelefon mit Headset

Ich war mal wieder auf der Suche nach einer Headset-Lösung zum Telefonieren im Festnetz. Diese Adapter, wie Plantronics S12 haben den Nachteil, dass die ein extra Netzteil brauchen. Das fesselt einen auch wieder an den Schreibtisch und verbraucht auch sinnlos Strom.

Eine interessante Lösung hab ich gerade gefunden: Das Gigaset DA710 ist ein Festnetztelefon mit LCD-Display. Eines der wenigen, die selber kein Netzteil brauchen. Und an dieses Telefon kann man auch direkt ein Headset anschließen. Und weil so ein Headset-Anschluß nicht genormt ist, sollte man am besten nur das Original-Headset von Gigaset dafür einsetzen. Das hört auf den Namen Gigaset ZX410 und hat einen RJ9 Stecker.

So hat man also Telefon und Headset ohne irgendein extra Netzteil und ohne extra Anschlußkasten. So eine Lösung ist sehr selten am Markt. Preislich liegt das Telefon bei 40 Euro, das Headset bei 30 Euro, also insgesamt etwa 70 Euro, was für eine komplette Headsetlösung sehr günstig ist. Das Plantronics S12 alleine kostet schon 70 Euro.

Die günstigste Schnurlos-Telefon-Lösung, die mir brauchbar erscheint, wäre ein Gigaset C430 mit einem Gigaset ZX400 Headset mit 2,5mm Klinke. Auch hier sollte man das Original-Headset verwenden, will man keine Experimente mit unglücklichem Ausgang. Was das Produktdesign angeht, so finde ich dieses Gerät aber wirklich grenzwertig, vor allem, wenn man es mal wirklich in der Hand hält. Was machen die da nur bei Siemens? Oder ist das Absicht, damit sich Kunden höherpreisige Modelle kaufen?

Preislich ist man auch hier bei etwa 70 Euro komplett. Diese Lösung hat einen kleinen Schönheitsfehler: Der Anschluß des Headsets ist wenig durchdacht: Ein gewinkelter Stecker, der seitlich eingeführt wird und dort keinen guten Halt hat. Vermutlich wurde da nie ein Usability-Test gemacht, sondern eher nach dem Motto verfahren: "Hauptsache das Teil hat einen Headset Anschluß." Da ist dann Basteln angesagt, um es irgendwie befriedigend hinzubekommen. Es sei denn, man will damit nicht spazieren gehen, sondern es nur am Schreibtisch mit Headset nutzen. Dann stört das nicht.

24.03.2014 :: Artikel Screencasting für Einsteiger

In den letzten Wochen hab ich mich intensiv mit dem Thema Screencasting auseinandergesetzt. Also genaugenommen die Technik, die man braucht, um diese schönen Schulungsvideos zu produzieren, die einem zeigen, wie man eine Software bedient.

Nun war es Zeit, die ganzen Erfahrungen in einem Artikel zusammenzufassen.

Das war mal wieder echt viel Arbeit, erstmal die richtige Technik zu finden und zusammenzustellen. Zahlreiche Tests und manche Bauchlandung waren dabei. Gelernt hab ich auch, dass man den Rezensionen im Internet nicht zu sehr vertrauen sollte. Denn die hatten mich auch zu Fehlentscheidungen verleitet.

Und doch habe ich durch jede Menge Erfahrungsberichte von anderen Nutzern viel gelernt. Irgendwann setzten sich die vielen Puzzleteilchen zu etwas Sinnvollem zusammen und mir wurde recht klar, was ich brauche und was ich von welcher Lösung erwarten kann.

Hier gehts zum Artikel: ScreencastingEinstieg

Der Artikel wird sich in den nächsten Wochen sicher noch weiter entwickeln.

20.03.2014 :: Headset-Katastrophen

Ich bin nun schon etliche Male mit Headsets ziemlich auf die Nase gefallen. Das scheint mir ein ganz problematischer Bereich zu sein. Egal, ob man nun ein Headset für ein Schnurtelefon, für ein DECT-Schnurlos-Telefon, für ein Handy oder für den Computer sucht.

Irgendwas ist ganz oft nicht kompatibel oder zumindest qualitativ unzureichend. Da sind z.B. die Mikros viel zu leise oder rauschen zu stark. Gleiches gilt für den Hörer. Oder ein Bluetooth Headset lässt sich nicht koppelt oder es kommt zu merkwürdigen Fehlern in der Benutzung.

Von daher kann ich nur empfehlen, sich vorher richtig gut schlau zu machen, ob ein bestimmtes Headset wirklich gut mit einem bestimmten Telefon zusammenspielt. Beim Computer ist die Frage des Zusammenspiels kaum zu beantworten, da hilft nur Ausprobieren.

Woran liegt eigentlich diese Inkompatibilität? Die Hersteller geben sich oft wenig Mühe, diese Schnittstellen ordentlich zu entwerfen. Die breite Masse nutzt es nicht und so wird hier viel Unausgegorenes verkauft. Dabei muss man auch sehen, dass eine gute Kompatibilität gar nicht so einfach zu haben ist. Bei analogen, kabelgebundenen Kopplungen gibt es keine genormten Pegel und Impedanzen, an denen sich die Hersteller orientieren können. Jedes Gerät braucht irgendwie leicht andere Werte. Nun könnten Hersteller variable Pegelanpassungen in ihre Geräte bauen, die diese Unterschiede kompensieren. Aber bei einem Feature, was recht selten benutzt wird, gibt man keinen Cent zu viel aus.

Ein Problem bei Mikrofonen sind die recht kleinen Pegel der Electretkapseln, die ordentlich verstärkt werden müssen. Viele Soundkarten im Computer können das nicht. Denn auch das kostet wieder Geld, ein Signal möglichst rauschfrei recht hoch zu verstärken. Ich kenne viele Soundkarten, deren Verstärkung bei weitem nicht ausreicht, um die gängigen Computer-Mikrofone sinnvoll betreiben zu können. Und die, die es können, rauschen oft dermaßen stark, dass man auch dieses Signal kaum nutzen kann.

Falsche Nutzung oder falsche Vorstellungen kommen noch hinzu: Um mit kleinen Electretkapseln ein halbwegs rauscharmes Signal mit ausreichendem Pegel zu haben, darf der Sprechabstand zum Mikro nicht sehr groß sein (wenige cm). In diesem Bereich wiederum sind Mikrofone empfindlich. Pustet man hier beim Sprechen zu viel Luft direkt aufs Mikrofon, versaut man sich das Signal. Ein Wind- oder Popschutz kann helfen, dieses Probleme in den Griff zu bekommen. Ebenso sollte das Mikrofon etwas unterhalb vom Mund platziert sein, so dass man nicht direkt draufspricht.

Bei der digitalen Übertragung hat man zumindest den Vorteil, dass das Signal vom Mikro schon optimal im Headset selber aufbereitet werden kann, hier also keine Fehlanpassungen durch unterschiedliche Hersteller vorhanden sind. Doch ich war erstaunt, das auch Bluetooth immer mal wieder inkompatibel sein kann. Konkret hatte ich z.B. Probleme, ein Jabra Wave mit einem DECT-Telefon der Gigaset-Serie zu koppeln. Es funktionierte grundsätzlich schon, aber nach dem ersten Gespräch funktionierte die Gesprächsannahme nicht mehr.

Eine Kopplung dieses Headsets mit einem Computer sollte ja eigentlich auch problemlos gehen. Aber irgendwie war das Signal völlig zerhackt und mit digitalen Artefakten behaftet, dass damit schlicht keine Kommunikation möglich war. Andere behaupten, sie hätten das hinbekommen, was wiederum zeigt, das diese Technologie nur unter ganz bestimmten Umständen funktioniert. Von einer breiten Kompatibilität kann nicht die Rede sein.

Letztens kaufte ich ein Jabra Wave Kabel-Headset, was einen 2,5mm Klinkenstecker enthält. Unter Amazon konnte man in den Rezensionen lesen, dass es angeblich mit DECT-Gigaset-Telefonen funktioniert. In meinem Fall funktionierte es nicht mal ansatzweise. In einem Samsung Smartphone hingegen funktionierte es auf Anhieb, in einem Samsung Tablet aber wieder nicht. Das wollte unbedingt weiter das interne Mikrofon nutzen, wobei der Sound aber brav ans Headset weitergeleitet wurde.

Bei schnurgebundenen Telefonen hat man mit völlig unterschiedlichen elektrischen Parametern je nach Modell und Hersteller zu kämpfen. Auch die Belegung der Stecker ist herstellerabhängig. Die Hersteller der Headsets versuchen mit allerlei Tricks, eine Anpassung zu ermöglichen, die gelingt aber nicht immer optimal und mitunter geht auch gar nichts.

Manchmal haben die Anbieter Kompatibilitätslisten, die einen Anhaltspunkt geben. Wobei sich die ganze Technik in diesem Bereich aber auch so schnell weiterentwickelt, dass solche Infos schnell wieder veraltet sind. Mitunter hat man aber auch Glück, dass es vom selben Hersteller sowohl Telefon wie Headset gibt. Das erhöht die Chance, dass es funktioniert. Ich hatte aber auch schon Beispiele, da funktionierte es nicht und auch der Hersteller konnte mir nicht weiterhelfen.

Bei Computer-Headsets spart man sich das Problem mit Fehlanpassungen, wenn das Signal über USB digital gekoppelt wird. Das Headset hat dafür sozusagen eine eigene Soundkarte integriert, die optimal auf Mikrofon und Kopfhörer abgestimmt ist. Es gibt auch Hersteller, die bieten beide Möglichkeiten der Kopplung an, so z.B. das Beyerdynamic MMX 2, welches mit 57 Euro schon recht brauchbare Ergebnisse liefert.

Wer sind die Spezialisten für Headsets? 2 große Hersteller im Telekommunikationsbereich sind Jabra und Plantronics. Teilweise haben die auch Produkte im PC-Bereich. Hier findet man auch Beyerdynamics, Sennheiser, Logitech und Creative.

Bei allen Headsets kommt noch ein weiteres Problem auf einen zu: Es muss zur eigenen Anatomie passen. Gerade die Headsets, die man sich übers Ohr stülpt, funktionieren eben nicht an jedem Ohr. Dafür sind wir einfach zu unterschiedlich. Auch kann es sehr umständlich sein, diese Teile überzustülpen. Was zu umständlich ist, nutzt man im Alltag dann nicht. Und Bügelheadsets können drücken, so dass man schon nach kurzer Zeit keine Lust mehr drauf hat.

Und was nun? Am besten darauf verzichten? Nein, keinesfalls, ein gut passendes Headset in guter Qualität ist gold wert. Wer einmal das Glück hatte, so etwas nutzen zu können, möchte nicht mehr darauf verzichten.

Ich würde mich bei Markenherstellern umschauen, genügend Geld in die Hand nehmen und die Möglichkeit einplanen, evtl. 1-2 mal umtauschen zu müssen. Günstig ist es natürlich auch, wenn man direkt bei einem Händler testen kann. Und wer im Internet kauft, sollte vorher gut recherchiert haben.

14.03.2014 :: Paketinstaller

Wer die Paketinstaller unter Linux kennt, fragt sich, warum man in dieser Windows-Welt bei der Installation so beschäftigt wird. Wäre es nicht schön, man könnte 10 Programme mal eben vollautomatisch installieren lassen? Dann könnte man sich bei dem schönen Wetter der letzten Tage gemütlich in die Sonne legen und 1 Stunde später wäre alles auf den Rechner geschubst. Stattdessen muss man am Schreibtisch den Installationsprozess begleiten, weil ständig die Installer quengeln und irgendwas von uns wollen.

In der aktuellen Zeitschrift CT wird die Software chocolatey Gallery vorgestellt, die ähnlich wie ein apt-get unter Debian Linux funktioniert. Ausprobiert hab ich sie noch nicht, klingt aber spannend. Besonders wenn der Sommer schön werden sollte ;-)

Nachtrag 15.07.2014: Ich hab den Paketinstaller die letzten Tage mal ausprobiert, als ich 4 Rechner neu einrichten musste. Grundsätzlich eine tolle Sache, weil ich so mal eben 10 Programme draufschubsen konnte. Ich hatte mir dazu gleich eine Batchdatei geschrieben, die ich auf allen Rechner durchlaufen lassen wollte. Doch dann auch die Ernüchterung: Manche Pakete laufen nicht automatisch durch, sondern brauchen manuelle Bestätigung per Maus. Acrobat Reader wird in englisch installiert und kann später nicht auf deutsch umgestellt werden. Und ganz ärgerlich und für mich völlig unverständlich: So weit verbreitete Pakete wie Thunderbird und Firefox brachen beide mit Fehlermeldungen ab. Da hätte man wenigstens mal eine Warnung beim Paket notieren können, dass das derzeit nicht funktioniert. Wird das in Zukunft alles besser und damit benutzbar? Es ist auf jeden Fall ein sehr steiniger Weg. Installationen der Hersteller sind alle recht unterschiedlich und man kann sie teilweise nicht automatisieren, weil keine Standards existieren und Hersteller auch nicht interessiert sind, hier Kompatibilität herzustellen. Und es ist eine große Fleißaufgabe, immer wieder die ganzen Pakete zu pflegen und mit Updates ganz schnell aktuell zu sein. In der Regel funktioniert sowas selten aus einem reinen ehrenamtlichen Engagement heraus. Wenn sich allerdings Firmen finden, die bezahlte Mitarbeiter dafür einsetzen, solche Pakete regelmäßig zu pflegen, dann könnt es was werden. Eine weitere Schwierigkeit ist auch noch, einzuschätzen, wie vertrauenswürdig die Installationspakete sind. Könnten da virenverseuchte Pakete eingeschleust werden oder Programme mit Hintertür?

13.03.2014 :: Stromsparende Computer

Wenn Computer lange laufen, zahlt es sich in der Regel schon nach kurzer Zeit aus, wenn man eine stromsparende Variante auswählt. Ich hatte lange rumgesucht, um da etwas zu finden. In meinem Anwendungsfall brauchte es einen durchschnittlichen Desktop-Computer, der kontinuierlich als Server durchläuft.

Zuerst hatte ich dafür einen gebrauchten Dell Optiplex 780 im Einsatz. Der braucht etwa 45 Watt. Dann fand ich in einer Zeitschrift einen Hinweis auf sehr sparsame Rechner von Fujitsu - nämlich die Baureihe Esprimo P410 und P420. Getestet hab ich einen P420 mit Intel-Core i5-4440 und W7/8 Lizenz, für etwa 520 Euro. Den P410 gibt es ohne Betriebssystem und mit G2020-Prozessor auch schon für sparsame 265 Euro. Das sind typische Computerpreise, man zahlt hier also für die Stromsparlösung nicht extra drauf.

Gemessen hab ich nun tatsächlich im laufenden Betrieb sowohl unter Linux wie auch unter Windows 7 schlappe 21 Watt im Leerlauf. Das ist wirklich schon ein Spitzenwert bei Desktop-Computern. Dazu ist das Teil auch noch relativ leise, auch wichtig für ein 24/7 System.

Das sich das schnell rechnet, zeigt der Vergleich: Gegenüber dem 45 Watt System spart man so etwa 60 Euro pro Jahr an Stromkosten. Weil unter Last die Ersparnis noch größer ist, werden es deutlich über 60 Euro sein. Das hat sich also in einigen Jahren armortisiert. Dabei kenne ich auch Systeme, die 80-120 Watt im Leerlauf ziehen. Hier rechnet es sich noch viel schneller.

Leider ist es derzeit noch sehr mühsam, sparsame Rechner ausfindig zu machen. Die Hersteller veröffentlichen sehr selten mal klare Verbrauchsdaten. Gut, das nun einer der großen Hersteller verstärkt den Stromspargedanken aufgreift.

09.03.2014 :: Kein Video mit gutem Ton

Einerseits erstaunlich, was in den letzten Jahren an Videomöglichkeiten hinzugekommen ist. Jedes Smartphone oder Tablet kann heute Videos drehen, aber auch jede Digitalkamera. Und die Qualität ist dabei schon erstaunlich.

Wenn man es aber mal etwas genauer betrachtet, gibt es einen großen Haken: Der Sound. Da werden billigste Elektretkapseln direkt ins Kameragehäuse eingebaut, die dann jede Menge Nebengeräusche der Kamera aufnehmen. Ebenso die Griffgeräusche, die sich nicht immer vermeiden lassen. Man weiß ja nun auch, das man vor allem dann gute Soundqualität hat, wenn das Mikro möglichst nahe am Sprecher positioniert ist. Die schlechte Sound-Qualität vieler Videos liegt schlicht darin begründet, weil die Mikros nicht dicht beim Sprecher positioniert sind. Dann hat man zudem auch jede Menge Raumhall mit drauf.

Ein typisches Szenario wäre das Filmen eines Vortrags. Video gut, aber Sound ist dabei meist völlig unbrauchbar. Genau darum gings bei meiner Recherche: Wie bekommt man sowas für vielleicht 100-200 Euro hin?

Es wär eigentlich ganz einfach: Die Kamerahersteller bräuchten nur eine entsprechende Buchse zu intergrieren, an die man ein externes Mikrofon anschließen könnte. Doch irgendwie hat sich da in den letzen Jahren etwas ganz katastrophal entwickelt. Digitalkameras mit so einer Buchse sucht man oft vergebens. Selbst Geräte um die 400-500 Euro haben sowas nicht. Dabei reicht die Videoqualität selbst schon bei günstigen Einstiegskameras um die 100 Euro völlig aus. Aber bei diesen Kameras wird man durchweg keine finden, die einen Mikroeingang hat.

Auch bei den Camcordern sieht es nicht besser aus. Ich bin mal die Reihe Camcorder durchgegangen, die bei Saturn aufgebaut waren. Im Preissegment bis 350 Euro hab ich keinen gefunden, der eine entsprechende Buchse hatte.

Dann kam ich auf die Idee, das Bluetooth Headset mit meinem Smartphone zu koppeln und dessen Mikro nun sozusagen als Funkmikrofon zu nutzen und mit dem Smartphone dann das Video aufzunehmen. Theoretisch soll das funktionieren, aber gerade bei Android gibt es wohl zahlreiche Geräte, wo es eben nicht funktioniert, weil die Kamera immer auf das interne Mikro zurückgreift.

Ein Weg wäre natürlich, den Sound mit einem extra Digitalrekorder aufzunehmen und später die Tonspur des Videos auszutauschen. Aber das ist wiederum Aufwand. Mitunter braucht es einfachere Lösungen, damit die langfristig praktikabel sind. Wir haben schon genügend Zeitfresser in unserem Alltag.

Mir ist dann eine Idee mit einer Bastel-Lösung gekommen, die wohl machbar wäre. Müsste man mal genauer erkunden: Ein Ansteckmikrofon mit Funksender. Der Empfänger leitet das Signal auf einen kleinen In-Ear Kopfhörer. Und diesen koppelt man rein akkustisch mit dem Mikro einer Digitalkamera. Ich hab die Kopplung mal kurz angetestet, das scheint zu funktionieren. Funkmikro-Komplettlösungen mit Ansteck-Mikro gibts ab 50-150 Euro.

06.03.2014 :: Gefahr der Oberflächlichkeit

Wir werden oberflächlich, wenn wir keine Disziplin aufbringen, weil die modernen Medien uns zu Oberflächlichlichkeit verführen. Das Informationsangebot ist faszinierend reich. Es bleibt aber belanglos und führt nicht zu Erkenntnis, wenn wir es nicht tiefer verarbeiten.

Ein interessantes Interview mit Peter Kruse:

Hintergrund von Peter Kruse:

Und ein schöner Song von Fee Badenius, die in die gleiche Kerbe haut:

12.02.2014 :: Günstige Feinwaagen

Messmittel faszinieren mich immer wieder. Eröffnen sie einen doch interessante Möglichkeiten. Eine schöne Feinwaage wollte ich schon länger haben. Doch die waren vor 20 Jahren noch richtig teuer, eigentlich unbezahlbar für Hobbyzwecke. Da gab es nur die alteingesessenen europäischen Waagenhersteller, die höchste Präzision seit vielen Jahren produzierten. Sicherlich edelste Feinmechanik und Elektronik, aber unter 1000 Euro war da nicht mal gebraucht dran zu kommen.

Vor 6 Jahren stolperte ich dann zufällig bei Ebay über billigste Feinwaagen, Made in China. Mittlerweile gab es zahlreiche Hersteller, die diese auf den deutschen Markt brachten. Oder sagen wir besser Importeure, die in China einkauften. Die Preise waren mit 15-30 Euro so unglaublich, dass ich mir nicht vorstellen konnte, dass man damit arbeiten kann. Trotzdem kaufte ich mir mal 2 Waagen von Tomopol. Einmal eine 200g Waage mit 0,01g Auflösung und eine 600g Waage mit 0,05g Auflösung.

Seither habe ich vor allem die 200g Waage recht häufig im Einsatz. Es geht meist um kleine Mengen von 2K-Lacken oder 2K-Klebstoffen, die genau gemischt werden sollen. Oder ich teste Holzproben auf Feuchtigkeitsveränderungen oder Aufnahmenmengen von Holzölen. Und das Erstaunliche daran: Diese Waagen für so wenig Geld funktionieren wirklich sehr genau.

Am Anfang sollte man sie allerdings kalibrieren. Tomopol bietet dafür gleich Gewichte mit an. Ich glaube es war so, dass man immer mit dem Maximalgewicht kalibriert. Eine 200g Waage braucht also 200g Gewicht. Die stellt man drauf und damit speichert die Waage in der entsprechenden Konfiguration, dass dies nun 200g sind. Ich vermute mal, dass die Gewichte, die Tomopol anbietet, nicht super genau sein werden. Also am besten mal irgendwo nachmessen lassen, z.B. in der Apotheke und falls zu viel, etwas nachfeilen, falls zu wenig, ein paar Unterlegscheiben ankleben. Ich hab mir die Gewichte gleich selber aus Messingrundmaterial gefertigt und in einem Dentallabor nachgemessen. Auch eine mit Sand gefüllte Pulmoll-Dose war eine schnelle Möglichkeit, ein recht genaues Gewicht herzustellen. Ob das aber langzeitstabil bleibt, weiß ich nicht.

Ein Grundsatz, den man beachten sollte, um das Messergebnis so genau wie möglich zu haben: Langsamer Drift des Gewichtes mögen viele Digitalwaagen nicht. Wenn man also ganz langsam Flüssigkeiten einschüttet, dann kann das zu Problemen führen. Das hat etwas mit der Fehlerkompensation zu tun. Bei den Tomopol Waagen hab ich das eigentlich nicht beobachten können, aber ich hatte mal eine Briefwaage von Maul, die war da extrem. Seither hab ich mir angewöhnt, immer den Becher von der Waage zu nehmen, einen Schluck nachzugießen und dann wieder auf die Waage zu stellen. So kann ich auch kontrollieren, ob die Waage noch auf 0,00g steht, wenn nichts draufsteht. Am besten mal die eigene Waage auf langsamen Drift überprüfen. Bei diesem Drift ist es dann immer so, dass der Nullpunkt wandert. Wenn man also den Becher herunternimmt, in den man zuvor langsam was hineingegossen hat, stimmt der Nullpunkt nicht mehr.

Und dann auch die Temperatur. Empfindliche Elektronik reagiert natürlich auch auf Temperaturänderungen. Wenn es geht, kalibriert man bei Zimmertemperatur und verwendet sie dann auch bei Zimmertemperatur.

Auch sollte man mal beobachten, wie die Waage kurz nach dem Einschalten misst und wie sie z.B. nach 1 Minute im eingschalteten Zustand misst. Bei meiner gibt es da ganz kleine Abweichungen (0,01-0,02g). Überhaupt sollte man natürlich nicht meinen, eine Waage mit 0,01g Auflösung misst auf 0,01g genau. Wobei die Widerholgenauigkeit schon recht hoch ist, da gibts bei meiner nur Abweichungen von etwa 2 Digits. Wie genau die Waage ist und was man von ihr erwarten kann, sollte man mit ein paar Tests herausfinden. Und alle 6 Monate sollte man auch mal eine Kontrollmessung mit den Kalibriergewichten machen.

Klar sollte auch sein, dass man mit solchen Feinwaagen sehr vorsichtig umgeht. Schon deshalb, damit die Kalibrierung noch stimmt. Dafür ist auch der mitgelieferte Deckel gut, der dafür sorgt, dass die Waagenfläche keinen mechanischen Druck bei Nichtbenutzung abbekommt.

06.02.2014 :: Vernünftiges Mikrofon für Screencasts

Für ein paar Schulungs-Videos zur Programmbedienung hatte ich ein vernünftiges Mikrofon gesucht. Da muss man aus einer Vielzahl von Möglichkeiten auch erstmal die sinnvollste Kombination herausfinden. Interessant erschienen mir die USB-Mikrofone. Schön unkompliziert - lässt sich an jedem Rechner benutzen. Einfach in die USB Buchse stecken und loslegen. Treiber installieren sich in der Regel (unter Windows) von selbst. Auch hatte ich die Idee, dass die Qualität höher ist. Man muss nicht über mitunter recht verrauschte interne Soundkarten gehen und über USB lassen sich elektromagnetische Störungen vom Rechner sauber entkoppeln.

Viele Podcaster schwören auf die USB-Mikrofone der Marke Yeti von Blue Microphones. Das Einfache ist mit etwa 110 Euro schon relativ preisgünstig. Preisgünstig aus Marktsicht, für mein bescheidenes Vorhaben eigentlich viel zu teuer. So dachte ich zumindest anfangs in meiner naiven Vorstellung, als ich mich dem Thema näherte.

Etwas preisgünstiger gibt es z.B. das Samson C01U für 76 Euro, was auch den Vorteil hat, auf einen Standard-Mikrofonständer montiert werden zu können. Auch das Audio Technica AT2020 USB für 129 Euro bietet diese Möglichkeit, womit man dann auch gut ein Popfilter installieren kann und der Abstand zum Sprecher über entsprechenden Ständer gut zu handhaben ist.

Nach etwas weiterer Recherche stieß ich auf das t.bone SC440 von Thomann. Ein Großmembran-Kondensator-Mikrofon mit USB-Anschluß. Die vielen guten Bewertungen dort, das wertige Aussehen und der Preis von 59 Euro überzeugten mich schnell. Zudem hab ich nun auch nicht so große Ansprüche an Soundqualität. Und die Soundbeispiele dort hörten sich auch erstklassig an.

Die Bestellung bei Thomann funktionierte gut, das Teil war schon 1 Tag später hier. Natürlich hab ich auch gleich ein Popfilter und ein Tischstativ mitbestellt.

Die Installation war völlig problemlos und der Klang auch überzeugend. Das Gerät wirkt recht wertig - ist komplett aus Metall und recht schwer. Doch was ist das denn? Da rauscht doch was gewaltig. Und nicht nur das, da ist ein ganz ätzender leiser Fiepston im Hintergrund. Das war so störend bei den Aufnahmen, dass ich mich beim besten Willen auch ohne große Ansprüche nicht damit anfreunden konnte.

Mir war recht bald klar, dass das Mikro da Störungen vom USB-Port über die Versorgungsspannung einkoppelt. Also unzureichende Entkopplung im Mikro. Zu kleine Kondensatoren, fehlende Spulen oder ungünstiges EMV-Design. Bei dem Preis gibt man sich keine große Mühe bei der Elektronik, die ja immerhin aus Vorverstärker, AD-Wandler und USB-Ankopplung besteht. Ich hab dann 4 Stunden rumgebastelt, auch an diversen Computern. Mit 6000 uF Glättungskondensatoren zusätzlich in die 5V-Leitung des USB-Kabels und Drosselspulen wurde es deutlich besser. Und mit einem gut geglätteten externen Netzteil war dieser Fiepston fast vollständig weg (5V-Versorgung vom USB aufgetrennt).

Trotzdem, so recht gefiel mir das nicht, wollte ich doch eine simple Sorgloslösung ohne viel Gebastel. Als ich dann im Internet nach diesem Problem im Zusammenhang mit dem Mikro recherchierte, merkte ich, dass auch andere hiermit ihre Probleme hatten. Geht also doch nicht, einen halbwegs vernünftigen Sound für diesen Preis.

Dabei bin ich dann aber auf eine andere recht simple Lösung gekommen. Ich hatte noch einen recht brauchbaren Digitalrecorder von Tascam (DR-07) aus der 120-150 Euro Preisklasse. In diesem Bereich bekommt man für recht wenig Geld schon erstaunlich gute Geräte, wie man auf audiotranskription.de sehen und hören kann. Leider hat Audiotranskription die Tascam Recorder aus dem Programm genommen, die findet man aber bei Thomann, z.B. den DR-05 für 99 Euro hier oder den etwas besseren DR-07 MKII hier. Sehr beliebt sind aber auch der Olympus LS-5.

Die eingebauten Mikrofone dieser Preisklasse sind wirklich brauchbar. Die Geräte haben in der Regel einen Kopfhörerausgang, mit dem man schon während der Aufnahme Kontrollhören kann. Was spricht dagegen, diesen Ausgang einfach an den Eingang meiner Soundkarte zu hängen? Nichts, also mal ausprobiert und das funktioniert super gut. Ich brauch den Recorder auch nicht wirklich aufnehmen zu lassen. Er hat eine Funktion, nicht aufzunehmen und trotzdem schon das Signal zum Kopfhörerausgang zu leiten (Recording Standby). Es soll wohl sogar Geräte geben, die als USB-Mikrofon fungieren können (z.B. das Olympus LS-5, Zoom H1, Zoom H2).

Dadurch das der Recorder batteriebetrieben ist, gibts es in diesem Setting keine Störungen, die man sich über eine schlechte Stromversorgung einfangen kann. Die Batterien halten etwa 15 Stunden durch. Der Recorder lässt sich auch auf das Stativ montieren (Adapter 1/4 Zoll auf 3/8 Zoll) und der Popfilter lässt sich davor setzen. Die Soundkarte bekommt ein Signal mit ausreichend hohem Pegel, so dass man den Mikrofonvorverstärker über das Betriebssystem abschalten kann, was das Rauschen nochmal stark vermindert.

Für mich eine optimale Lösung. Und auch der Preis ist attraktiv. Selbst bei Neuanschaffung würde man für 100-150 Euro schon eine sehr gute Ausstattung haben und zudem hat man dann noch einen Stereo-Digitalrecorder für Aufnahmen unterwegs ohne Computer. Ein brauchbares USB-Mikrofon wäre nicht billiger, aber weit weniger universell.

Neben USB-Mikrofon und Digital-Recorder gibt es noch einen dritten attraktiven Weg. Dieser Weg ist recht universell und langfristig vielleicht die beste Alternative, aber auch etwas teurer: Man besorgt sich erstmal ein recht universelles Mikrofon mit Standardanschluß. Also so Mikrofone, wie sie in der Studio-Technik und auf der Bühne gängig sind. Die haben einen XLR-Steckverbinder. Die Kondensatormikrofone werden in der Regel mit 48V Phantomspeisung betrieben.

Fürs Pod- und Screencasting werden gerne Großmembran-Kondensator-Mikrofone empfohlen, weil sie angeblich sehr gute Klangeigenschaften haben und der Abstand zum Sprecher auch etwas größer sein darf. Real scheint es im unteren Preissegment aber gar nicht so eindeutig zu sein. Hier ist es eher so, dass Großmembran-Mikros professionell wirken, also vor allem was fürs Auge und fürs Gefühl sind. Mit Spinne und Popfilter fühlt man sich schnell wie im professionellen Tonstudio. Die normalen Kleinmembran-Kondensator-Mikros wirken da zu gewöhnlich. Doch Experten sagen, dass diese Mikros gerade im unteren Preissegment bis 200 Euro vielfach die besseren Klangeigenschaften haben. Das liegt technisch auch daran, dass es gar nicht so einfach ist, die Linearität bei größeren Membranen hinzubekommen.

Auch dynamische Mikrophone sind grundsätzlich fürs Podcasting oder Screencasting geeignet, dann aber mit sehr geringem Sprecherabstand. Sonst rauscht es zu sehr, weil der Pegel schnell einbricht und dann höher verstärkt werden muss.

Solche universellen Mikrofone mit XLR-Stecker passen an jedes Mischpult oder Vorverstärker aus dem Studio-Audio-Bereich. Auch gibt es kleine USB-Anschlußboxen, die solche Mikrofone mit dem Computer koppeln können. So ab 100-150 Euro bekommt man hier zahlreiche Möglichkeiten, um so ein Mikro qualitativ hochwertig mit dem Computer zu koppeln. Als Beispiel sei hier mal der Steinberg UR22 genannt.

Ein sehr gutes Kleinmembran-Kondensator-Mikrofon wäre z.B. das AKG C1000s MKIV für etwa 150 Euro. Aber auch das Rode M3 für 79 Euro scheint nach meinen Recherchen schon recht gut zu sein. Oder wer es robuster braucht und Klangqualität nicht das oberste Gebot ist, nimmt das dynamische Mikrofon Shure SM57 LC für 109 Euro - ein echter Klassiker, durch den auch der amerik. Präsident spricht und was schon seit 1965 am Markt ist (http://en.wikipedia.org/wiki/Shure_SM57). Bei dynamischen Mikros gibt es auch welche mit Großmembran, z.B. das Rode Podcaster.

Im Großmembranbereich bei Kondensatormikrofonen wird beim Podcasting gerne das Rode NT-1A empfohlen.

Eine letzte Alternative, die ich vorstellen will, ist recht naheliegend: Ein Headset, auch Hör-Sprechgarnitur genannt. Das kennen viele schon vom Skypen oder Gaming. Doch leider ist es hier so, dass die Qualität vieler Headsets schlecht ist, vor allem, was die Mikrofone angeht. Fürs Screencasting oder Podcasting nur sehr eingeschränkt brauchbar. Hier muss man dann mitunter auch mit ganz blöden technischen Erfindungen rechnen, wie Rausch- und Störgeräuschunterdrückung, wodurch das Signal ziemlich verzerrt wird. Das Ergebnis wirkt dann sehr unnatürlich und störend. Wer es trotzdem probieren will, das Beyerdynamic MMX2 USB für 54 Euro scheint von der Mikrofonqualität bei niedrigen Ansprüchen noch ganz passabel. Könnt ihr auch hier auf Youtube hören.

Es gibt aber auch Headsets, die nicht aus dem breiten Consumerbereich stammen und die recht gute Ergebnisse liefern. Die sind aber typischerweise nicht unter 150-250 Euro zu bekommen. Hersteller wären hier Beyerdynamic, AKG und Sennheiser.

Die Kopfhörer bei den Headsets können recht praktisch sein, um sich selbst zu hören (Monitoring). Wer das nicht braucht, kann auch auf reine Mikro-Headsets zurückgreifen. Hier gibt es brauchbare Systeme ab ungefähr 100 Euro.

Headsets gibts es sowohl ohne Elektronik (meist XLR-Stecker), wie auch mit USB-Anschluß. Ohne Elektronik braucht es dann noch den oben angesprochenen USB-Umsetzer. Die meisten höherwertigen Lösungen sind natürlich ohne Elektronik, weil sie sich so bestens ins professionelle Equipment integrieren lassen.

Weblinks:

17.01.2014 :: Linux Boot-CD für Adminzwecke

Als Admin braucht man immer mal wieder eine Linux-Boot-CD, um z.B. eine Datenrettung zu machen. Hierfür reicht mir in der Regel eine textbasierte Konsole. Lange Zeit habe ich für solche Zwecke Knoppix eingesetzt. Doch in letzter Zeit bemerke ich immer wieder Inkompatibilitäten. Das Knoppix ist auf diversen Rechnern einfach nicht zu starten. Ok, das kann schonmal passieren bei der Vielzahl von Hardware. Interessant ist aber, das ältere Knoppix Versionen (z.B. 3.3) funktionierten, während neuere Versionen nicht funktionierten. Ebenso klappt es mit diversen anderen Live-CDs, wo Knoppix versagt.

Das war der Grund, warum ich mich nach was Neuem umgesehen habe. Seit ein paar Jahren habe ich zusätzlich immer noch die SystemRescueCD im Service-Koffer, die bisher gute Dienste leistete und wenig herumzickte. Auf jeden Fall eine empfehlenswerte Alternative.

Jetzt habe ich etwas mit grml rumgespielt. Ich hatte diese Live-CD schon länger auf dem Schirm, weil sie mir immer mal wieder empfohlen wurde. Das Projekt startete 2003, ist recht erfolgreich und gut gereift. Also hab ich die jetzt auch mal ausprobiert und die gefällt mir sehr gut. Ich hatte mal wieder ein Problem-Notebook, wo Knoppix nicht booten wollte. Mit grml klappte es problemlos. Der Paketumfang ist recht groß, die Schriftart auf der Konsole ist sehr schön und auch ansonsten fühlt sich alles irgendwie rund, aufgeräumt und durchdacht an. Grml basiert auch auf Debian, wo ich mich eh zu Hause fühle. Ich glaub, das wird mein neuer Liebling :-)

Grundsätzlich ist es eine gute Idee, mehrere unterschiedliche Live-CDs dabei zu haben. Das erhöht die Chance, dass man eine davon ans Laufen bekommt und so im Notfall irgendwie weiter kommt.

08.01.2014 :: Computerarbeit optimieren

Den Jahresanfang verwende ich gerne, um meine Arbeitsprozesse zu optimieren. Es braucht immer mal wieder die aktive Zuwendung, um bewusst darüber zu reflektieren, wie man etwas tut und ob das die schlaueste Art ist, dies zu tun. Denn im normalen Alltag ist es doch oft so: Man findet eine Möglichkeit, etwas zielführend zu tun, dann gewöhnt man sich daran und macht es auch nach 20 Jahren noch genau so. Egal wie umständlich es auch ist.

Deshalb möchte ich ein paar Anregungen geben, wie man seine Computerarbeit optimieren kann.

Die erste gute Idee, die ich seit ungefähr 2 Jahren nutze, ist ein zweiter Monitor. Zu dieser Umstellung kam ich eher zufällig. Ein Freund brauchte einen 2-Monitor-Arbeitsplatz und so probierte ich das auf meinem Schreibtisch mal aus. Aus diesem Testbetrieb sind nun 2 Jahre geworden, weil ich immer mehr merkte, wie super praktisch diese Sache ist. Auf dem rechten Bildschirm hab ich vor allem den Internetbrowser ausgelagert. Wenn man nun beim Onlinebanking oder ähnlichen Anwendungen Informationen aus anderen Programmen übernehmen muss, hat man beides direkt auf dem Bildschirm, muss also nicht zwischen Applikationen umschalten. Eine 2-Monitor-Lösung zahlt sich also immer in solchen Situationen aus, wo man öfter zwischen 2 Applikationen hin- und herschalten muss. Ich möchte nicht mehr darauf verzichten. Und statt 2 Bildschirme im Breitformat benutze ich lieber das gute alte 19 Zoll 5:4 Format.

Am Computer verbraucht man immer wieder viel Zeit, um sich irgendwohin durchzuklicken und etwas herauszusuchen. Vieles davon wiederholt sich. Ein typisches Beispiel ist eine Datei, die man oft braucht, die aber in irgendeinem Unter-Unter-Unterverzeichnis tief verschachtelt liegt. Hier lohnt es sich, schnellere Wege zu suchen. Bei einer Datei ist es einfach, wir bräuchten uns nur eine Verknüpfung auf den Desktop legen. Und ab und zu muss man wieder aufräumen, damit der Desktop nicht überläuft und abgeschlossene Projekte von diesem verschwinden. Auch lassen sich Ordner auf den Desktop legen in denen dann wieder zahlreiche Verknüpfungen liegen. So hat man ein zweistufiges System, damit auf dem Desktop selber alles schön aufgeräumt bleibt.

Tastaturkürzel sind eine geniale Sache für alles, was man öfter braucht. Und man braucht nicht zu glauben, es wäre ein alter Hut, das man z.B. mit der Zwischenablage mit strg+C, strg+V, strg+X agiert. Selbst diese simplen Shortcuts sind auch heute noch kein selbstverständliches Computerwissen. Auch viele weitere Shortcuts werden ja eigentlich in den Menüs angezeigt, doch auch hier oft erstaunte Gesichter: "Das ist mir noch nie aufgefallen." Der Mensch besitzt erstaunliche Fähigkeiten, alles auszublenden, was gerade nicht wichtig ist...

Es lohnt sich, die Menüs mal nach allem zu durchforsten, was man öfter braucht, um sich hier die Tastenkürzel zu merken.

Neben den Tastenkürzeln lassen sich aber auch Buttonleisten anpassen, die meist unter dem Menü zu finden sind. Hier kann man alles rausschmeißen, was man nur selten braucht und stattdessen das integrieren, was man oft braucht. Überhaupt - seine Programme, die man oft braucht, mal wirklich sauber anzupassen, lohnt sich, wird aber gerne vernachlässigt.

In Sachen Tastenkürzel gibt es noch eine geniale Lösung: Das Tool Autohotkey. In deutsch auch HIER verfügbar. Dieses Tool überwacht permanent die Tastatur, unabhängig davon, in welchem Programm man sich befindet. Und über ein Skript kann man Autohotkey mitteilen, bei welchen Tastenkombinationen welche Aktionen durchgeführt werden sollen. So sorgt z.B. diese Zeile im Skript dafür, dass der Taschenrecher beim Drücken der Taste [Windows]+c gestartet wird:

 #c::Run Calc

Zugegeben, man muss sich erstmal ein wenig mit der Funktionsweise von Autohotkey vertraut machen. Es ist auch ein extrem leistungsfähiges Werkzeug, eine kleine eierlegende Wollmilchsau sozusagen. Von daher ist auch die Dokumentation sehr umfangreich. Aber mit ganz einfachen Befehlen lassen sich bereits erstaunliche Ergebnisse erzielen und das Tutorial für Anfänger ist gut.

Mit Autohotkey ist es auch möglich, programmübergreifend Kürzel mit Strings zu belegen, die dann unmittelbar ausgetauscht werden. Schreibt man also irgendwo "mfg", wird daraus automatisch "Mit freundlichen Grüßen" gemacht. Sowas kennt man aus Word mit Autokorrektur, aber auch da wird es häufig nicht aktiv genutzt. In dem Sinne, dass man aktiv nach Kürzeln sucht, die die alltägliche Arbeit erleichtern. Eine programmübergreifende Lösung wie Autohotkey ist aber auch interessanter, weil es dann genauso im Mailprogramm oder im Internet funktioniert. Wo auch immer ich dieses Tastenkürzel verwende, es ist überall aktiv.

Auch mit windowseigenen Boardmitteln lassen sich übrigens für Programme, Dateien und Ordner Tastenkombinationen definieren. Voraussetzung ist, dass eine Verknüpfung davon auf dem Desktop liegt. Dann klickt man diese mit der rechten Maustaste an, geht unter Eigenschaften und setzt dort die Tastenkombination (auf das Feld Tastenkombination gehen und dann die entsprechnende Tastenkombination drücken). Aufpassen, dass man keine bereits belegte Tastenkombination erwischt. Die Windowstaste oder AltGR-Taste eignen sich recht gut für zusätzliche Belegung, weil auf dieser Ebene nur wenig Vorbelegung vorhanden ist. Fortan kann man diese Verknüpfungen nun blitzschnell mit dem Tastenkürzel starten. Auch das klappt von überall aus.

Bei den Tastenkürzeln entscheiden die ersten Wochen. Einfach nur anlegen und darauf hoffen, dass man daran denkt, klappt oft nicht. Am besten ist es, sich alle neuen Tastenkombinationen aufzuschreiben und sich die ersten Wochen immer wieder daran zu erinnern. Nach ein paar Wochen sind sie dann Gewohnheit geworden.

Ein schönes vordefiniertes Tastenkürzel ist übrigens [Windows]+E. Das startet den Datei-Explorer. Es gibt viele Nutzer, die kennen die Windows-Taste gar nicht, ihre Funktionalität hat sich noch wenig herumgesprochen. Apropos Datei-Explorer: Haben Sie sich schonmal geärgert, dass der immer irgendwo im Dateibaum öffnet, obwohl man ihn fast immer in einem bestimmten Verzeichnis braucht? Wenn man eine Explorer-Verknüpfung auf dem Desktop hat, kann man unter Eigenschaften hinter explorer.exe noch den Pfad angeben, wo er öffnen soll. Und natürlich kann man diese Verknüpfung dann auch in die Schnellstartleiste schieben.

Zum Schluss noch ein Tipp, womit man gut Aufgaben und Notizen verwalten kann. Ich nutze das Programm sehr intensiv seit mittlerweile 3 Jahren: Taskcoach. Mit ihm kann man hierarchisch in beliebiger Verschachtelungstiefe Aufgaben und Notizen verwalten.

Ein Tool, was ich seit über 10 Jahren für umfangreichere Textnotizen nutze, ist Scribblepapers. Auch dieses Werkzeug ist hierarchisch, man kann also Ordner in beliebiger Tiefe anlegen, in denen Notizen liegen.

Wie auch immer man es angeht: Es lohnt sich, seine Arbeitsgewohnheiten zu reflektieren und Prozesse zu optimieren.

Weblinks weitere Werkzeuge:

<< Archiv 2015 | AkTuellArchiv | Archiv 2013 >>