Aktuelles

29.09.2017 :: Relais-Steckdosenschalter reparieren

Alle Funksteckdosen sind so aufgebaut, dass ein kleines Relais den Strom schaltet. Bei einigen Stromsparschaltern ist es ebenso, z.B. beim Brennenstuhl CSA1. Und auch Zeitschaltuhren schalten in der Regel mit einem elektromagnetischen Relais.

Schaut man sich die Produkt-Rezensionen bei Amazon an, entdeckt man sehr oft bei solchen Produkten eine Fehlfunktion nach kurzer Zeit: Die Relaiskontakte verkleben, so dass ein Ausschalten nicht mehr möglich ist.

Woran liegt das? Ein Relais hat genau wie ein Schalter 2 Kontakte, die miteinander verbunden werden, wenn man einschaltet. Allerdings sorgt hier ein Elektromagnet dafür, dass die Kontakte zusammen kommen. Hierzu sind die Kontakte federnd ausgelegt und der Elektromagnet drückt sie dann einfach zusammen. Damit die Relais klein und billig sein können, wird mit möglichst wenig Federdruck gearbeitet. Auch sind die eigentlichen Kontakt eher klein ausgelegt.

Wenn das Relais nun schließt, kann ein Funke entstehen. Dieser kann so energiereich sein, dass er die Kontakte ein klein wenig verschweißt. Die Rückholkraft der Kontaktfeder reicht nun nicht mehr aus, das Relais zu trennen, wenn der Magnet abschaltet.

Solche Funken entstehen vor allem durch hohe Stromflüsse im Einschaltmoment. Hier kann der Strom ein Vielfaches des normalen Stroms sein. Glühlampen zum Beispiel ziehen etwa kurz den zehnfachen Strom. Erst wenn der Glühfaden heiß ist, sinkt der Strom wieder. Auch Schaltnetzteile, wie sie heute fast in jedem elektronischen Gerät verwendet werden, können durch ihre Kondensatoren kurz hohe Ströme ziehen.

In den letzten Jahren sind mir bestimmt 10 solcher Relais-Schalter kaputt gegangen. Anfangs landeten die gleich im Müll, später hab ich sie aufgeschraubt und versucht, das Relais irgendwie zu retten oder zu ersetzen. Mittlerweile hab ich einen ganz einfachen Trick, der oft funktioniert:

Man schlägt das Teil, in dem das Relais sitzt, mehrfach kräftig gegen die Handinnenfläche. Damit sorgt man für ordentlich Beschleunigung, die Hand federt es aber etwas ab, so dass man die Elektronik nicht zerstört. Nach 3-4 Schlägen testet man nochmal, ob das Teil nun wieder funktioniert. Sehr oft klappt es...

09.09.2017 :: Das Ungewisse ist unbeliebt

Eigentlich ist doch im Leben und auf der Welt so vieles ungewiss. Wir wissen es schlicht nicht. Doch viele Menschen strengen sich tagtäglich an, mehr Gewissheit ins Ungewisse zu bringen. Damit wir ein kleines Stück mehr in die Zukunft blicken können, z.B. beim Wetterbericht. Oder an der Börse wäre es doch schön, wenn wir Kursentwicklungen ein klein wenig vorausahnen könnten. Und wann der Berliner Flughafen nun wirklich fertig wird - das wäre doch schön zu wissen.

Hier zeigen sich auch unsere Erwartungshaltungen. Ungewissheit wird oft nicht akzeptiert. Man stelle sich vor, beim Berliner Flughafen hätte man von Anfang an gesagt: "Wir wissen nicht, wann er fertig wird. Vielleicht in 5 Jahren, vielleicht in 10 Jahren. Schaun wir mal..." Das hätte keiner akzeptiert und die Empörung wäre groß gewesen. Gerade die Deutschen müssen doch alles ganz genau können und wissen.

Wenn jemand klar Ungewissheit äußerst, ist das schon etwas Besonderes. So besonders, dass ich mich noch an ein Radio-Interview mit Herbert Grönemeyer vor vielleicht 15 Jahren erinnere. Er wurde gefragt, wann denn das nächste Album erscheint. Er sagte, er wisse es nicht, es kommt dann, wenn es fertig ist. Super dachte ich, endlich mal jemand, der sich nicht dem gesellschaftlichen Druck unterwirft, dass alle immer wissen wollen, was gar nicht sagbar ist.

Diese große Erwartungshaltung, dass wir immer wissen müssen, wann etwas wie passiert, sorgt natürlich regelmäßig für falsche Aussagen. Und diese sorgen wieder für falsche Erwartungshaltungen und dann zwangsläufig auch zu Enttäuschung, Ärger und Frust.

Viele Menschen überschätzen sich auch maßlos. Sie glauben immer zu wissen, wann etwas wie passiert. Ihre Selbstüberschätzung nehmen sie aus ihrer selektiven Wahrnehmung. Haben sie mal recht, führt das zur Selbstbestärkung und es wächst eine falsche Selbstsicherheit, ein überhöhtes Ich. Haben sie unrecht, bemerken sie gar nicht ihre falschen Voraussagen. Damit entsteht das Gefühl, dass sie scheinbar immer recht haben und so halten sie Ungewissheit aus ihrem Leben.

Wenn ich einen Computer repariere, kann ich oft nicht voraussagen, wie lange es dauern wird. Und meist dauert es länger, als ich wollte. Weil eben auch so viel Unplanbares passiert. Eigentlich gibt es hier viele Probleme, die können sich sehr lange hinziehen, wollte man sie wirklich systematisch lösen. Aber weil diese Zeit nur selten zur Verfügung steht, kann man nur abbrechen und sich andere Strategien überlegen. Die Neuinstallation oder das zurücksetzen auf einen alten Stand ist bei Windows-Systemen z.B. sehr beliebt, weil man dieses System systematisch an vielen Stellen einfach nicht in den Griff bekommt. Da wabern in der Tiefe irgendwelche Probleme, die an der Oberfläche nur undefinierbar-verwaschen ankommen. Ja noch schlimmer, die Fehlermeldungen leiten einen nicht selten genau in die verkehrte Richtung, womit man dann wieder viel Zeit vergeudet.

Ich musste gerade geschäftlich eine Werbekarte in Druck geben, wo ich überhaupt noch nicht weiß, ob das was wird. Die eingescannte Vorlage war nicht gut, ob mein Scanner farblich gut kalibriert ist, weiß ich nicht und auf dem Bildschirm kann ich mich bei Farben auch null verlassen. Es ist ein Standard-Monitor ohne Farb-Kalibrierung. Ich bin kein Grafiker und mein Equipment nicht dafür geeignet. Solche Aufgaben mag ich äußerst ungern machen. Ich möchte lieber Aufgaben machen, wo es recht sicher gut ausgeht. Was mache ich, wenn die Karte schlecht von der Druckerei zurückkommt? Natürlich, ich ärgere mich. Und es ist mir peinlich anderen gegenüber. Aber wäre es nicht viel besser, ich könnte diese Ungewissheit des Ausganges mal annehmen? Als kleines Experiment. Wenn es gelingt, war es ein Erfolg mit wenig Aufwand. Wenn es misslingt, wirds halt nochmal gedruckt mit ein paar Korrekturen. Es geht auch nur um 40 Euro... Und könnten meine Kollegen es auch annehmen? Oder wären die dann von mir enttäuscht? Muss ich die Ungewissheit des Lebens verantworten? Oder darf ich nur noch tun, wo keine Ungewissheit droht?

Ich wünsch mir eine Welt, wo wir selbstverständlicher das Ungewisse willkommen heißen. Etwas runterkommen von diesen völlig überzogenen Vorstellungen, alles immer 100% wissen zu müssen, wie es werden wird. Da fällt mir ein: Die schönsten Fotos entstanden oft völlig unüberlegt und unvorbereitet aus dem Moment. Es waren nicht die Fotos, wo ich mich aufwändig darum bemüht hatte, dass ich wirklich alles richtig mache.

Wie kann man das Leben planen und gleichzeitig wissen, dass vieles ungewiss ist? Ich hab früher viel mehr und viel intensiver geplant. Ich las Bücher, wo einem suggeriert wurde, man müsse sein ganzes Leben durchplanen und wissen, wo man in 5 oder 10 Jahren stehen will. Und wie groß ist hier der Frust, wenn das alles nicht so wird, wie geplant? Wäre es nicht besser, zwar einen gewissen Plan im Kopf zu haben, aber auch jederzeit flexibel, das Beste aus dem machen zu können, was einem im Jetzt begegnet? Ich kenne Menschen, die laufen unbemerkt an einem schönen Sonnenuntergang vorbei, weil der nicht eingeplant war.

Das Ungewisse ist auch das Unfassbare. Etwas, was sich nicht begreifen oder beschreiben lässt, was aber doch da ist. Wenn das real da ist und man aber eine Welt nicht mag, die so ist, dann blendet man es aus. Aber vielleicht kann dieses Unsagbare, was spürbar wäre, uns so viel mitteilen. Vielleicht ist dort Erkenntnis und Wahrheit zu finden. Auch hier wäre eine Offenheit für das Ungewisse hilfreich.

Resilienz ist in den letzten Jahren ein großes Thema geworden, wo auch viel geforscht wird. Die Fähigkeit, trotz widriger Umstände gut durchs Leben zu kommen. Zahlreiche Buchtitel sind am Markt und stehen auf Bestseller-Listen. Ich unterhielt mich letztens mit einer Frau, die sich tiefer mit dem Thema auseinandergesetzt hat. Auch hier geht es viel darum, die Ungewissheit im Leben als Herausforderung anzunehmen. Nicht an ihr zu verzweifeln und auch nicht daran zu verzweifeln, dass ein geplantes Leben sich nun nicht wie geplant fortführen lässt. Das erscheint mir eine wirklich große Herausforderung im Leben. Und doch kann die neue Orientierung vielleicht zu einem viel spannenderen Leben führen, als das, was geplant war.

Dazu fällt mir eine schöne Resilienz-Geschichte ein, die mich seit vielen Jahren begleitet und die ihr hier nachlesen könnt:

04.08.2017 :: Wohnraumgifte

Spätestens dann, wenn irgendwelche Gesundheitsprobleme auftauchen, geht die Blickrichtung auch mal auf Wohnraumgifte. Etwas, was täglich in der eigenen Wohnumgebung ausdünstet, kann über die Zeit hinweg eine Wirkung auf unsere Gesundheit haben.

Wir achten seit einigen Jahren stärker darauf, uns erst gar keine Wohnraumgifte ins Haus zu holen. Aber das ist gar nicht so einfach. Der Kauf neuer Sachen wird damit teilweise schon ganz schön schwierig. Einen großen Teil des Warenangebotes kann man dabei gleich abhaken. Und oft sind es Dinge, die einem besonders gut gefallen. Hier ist man dann oft mit diesen widerstreitenden Gefühlen beschäftigt.

Hier mal ein paar Anregungen, auf was man so achten sollte:

  • Alles, was großflächig ins Haus eingebracht wird, sollte besonders gut ausgewählt werden. Je größer die Fläche, um so mehr Schadstoffe könne ausdünsten. Das gilt also besonders für Wände, Decken und Fußböden.
  • Die meisten Dispersionswandfarben sind nach Trocknung unproblematisch. Während der Verarbeitung aber ist man mit Konservierungsmitteln belastet, auf die man allergische Reaktionen entwickeln kann. Hat man sich einmal so eine Allergie eingefangen, reagiert man auf kleinste Mengen.
  • Bei Lacken und Lasuren im Innenbereich keine Produkte verwenden, die ausschließlich für den Außenbereich gedacht sind. Die enthalten oft Biozide, die permanent ausdünsten. Es ist derzeit noch Stand der Technik, dass Innenseiten von Holzfenstern und Türen noch mit biozidhaltigen Lasuren beschichtet werden, die eigentlich nur für außen gedacht sind. Nach dem Motto: "Das ist ja nur eine kleine Fläche." Folgt man dem Minimierungsprinzip, ist das eine völlig unsinnige Belastung der Raumluft.
  • Bei allen Anschaffungen lohnt sich ein Blick auf Ökotest. Auch ein Blick auf http://www.codecheck.info kann sich lohnen, wenn es um Kosmetik, Reiniger oder andere Haushaltsartikel geht.
  • Möbel aus Billiglohnländern halte ich generell für kritisch. Dort gibts kaum Vorschriften, die Schadstoffe in Produkten vermeiden. Auch Kontrollen fehlen auf allen Ebenen. Lediglich dann, wenn große Ketten die in Deutschland vermarkten, die regelmäßig von Stiftung Warentest oder Ökotest überwacht werden, sinkt das Risiko. Hier wird das Unternehmen regelmäßig eigene Schadstofftests machen. Aber auch diese Unternehmen profitieren schlussendlich von zweifelhaften Produktionsbedingungen, wo sich nie jeder sicher sein kann, ob das Altölfass nicht mal eben als Lagerstätte eines Holzöls verwendet, was man später auf seinem Möbel hat. An Kontrollen und Standards Vorort fehlt es in der Regel.
  • Teppiche nur von Herstellern, die explizit auf Schadstoffe prüfen und einen Ruf zu verlieren haben. Hier würde ich auch keine Billigware kaufen.
  • Laminat scheint sich in Sachen Schadstoffausdünstungen recht positiv entwickelt zu haben. Aber auch hier würde ich kein Billiglaminat zweifelhafter Herkunft kaufen.
  • Wasserbasierte Lacke für Parkett, Fenster und Türen von Markenherstellern dürften mittlerweile in der Regel relativ unkritisch sein. Bedenken sollte man hier, dass auch wasserbasierte Lacke Lösemittel enthalten (5-10%). Meist welche, die längere Zeit ausdünsten. Die ersten 6-12 Monate wird man also noch eine merkliche Belastung haben. Generell ist die Umstellung auf wasserbasierte Lacksysteme günstig zu bewerten, was die Schadstoffbelastung angeht. Viele Produkte schneiden auch bei Ökotest mittlerweile recht gut ab. Es gibt hier aber auch kritische Produkte. Hauptproblem sind die nötigen Konservierungsstoffe die man braucht, damit diese Lacke in der Dose nicht schimmeln können.
  • Ausreichend lüften ist das Mittel, um ausdünstende Schadstoffe regelmäßig aus der Wohnung zu befördern und damit die Innenraumbelastung stark zu senken.
  • Alle Weichkunststoffe sollte man kritisch betrachten, also z.B. Kunstleder, Uhrenarmbänder, Kugelschreiber oder Werkzeuge mit eingarbeiteten weichen Kunststoffen, Spielzeuge aus Weichkunststoff, Gymnastikmatten. Nicht alle Weichkunststoffe enthalten belastende Weichmacher (z.B. Pthalate). Aber dem Laien ist es kaum möglich, unterscheiden zu können. Mitunter gibt es Alternativen: Braucht ein Schraubendrehergriff wirklich diesen Weichkunststoff? Muss die neue Zahnbürste wirklich einen weichen Griff haben? Statt Plastikarmbänder für Uhren gibts auch welche aus Silikon, was als unbedenklich gilt. Leder wäre hier auch kritisch, bliebe nur noch Metall als zweite gute Alternative. Weichkunststoffe bei Alltagsgegenständen haben noch weitere Nachteile: Sie schmudeln schnell an oder werden nach wenigen Jahren weich und klebrig. Dann muss man sie entsorgen, was auch wieder Umweltbelastung ist.
  • Füllmaterialien von Kissen und Sitzsäcken: Gerne wird auf Styroporkügelchen zurückgegriffen. Eigentlich ist geschäumtes Polystyrol unkritisch. Allerdings wird hier auch gerne mal auf recyceltes Baustyropor zurückgegriffen. Und das enthält Flammschutzmittel, die ausdünsten.
  • Mineralöle in Lebensmitteln: Ein Thema, was in den letzten Jahren stärker im Fokus steht. Druckfarben für Papier enthalten Mineralölbestandteile, die recht schädlich für den Organismus sind. Diese dünsten aus Umverpackungen aus und gehen ins Produkt über. Ökotest hat hier bei vielen Lebensmitteln problematische Mengen gefunden.
  • Kosmetik: Hier verfolge ich die Strategie, durch gute Recherche z.B. auf codecheck.info Produkte zu finden, die wenig belastend und die längerfristig verfügbar sind. Und dann bleibe ich längere Zeit bei dieser Auswahl an Produkten.
  • Reiniger: Auch bei Haushaltsreinigern und Waschmitteln kann man sich einmal sinnvolle Produkte heraussuchen und dann beständig dabei bleiben. Hier gibt es auch Hersteller, die bewusst auf Ökologie und Schadstoffminimierung achten. Bei Reinigern lohnt sich auch ein Blick auf Profiprodukte.
  • Kunststoffe: Mitunter findet man Angaben der verwendeten Kunststoffe als Stempel. So als grobe Orientierung: PE, PE-HD, PP, PET, ABS, Polystyrol ist unkritisch. PVC hart dünstet auch keine Schadstoffe aus, ist allerding umweltbelastend in der Herstellung und Entsorgung. Weich-PVC ist kritisch, weil Weichmacher ausdünsten. Auch Polycarbonate können Weichmacher freisetzen, sollte man im Kontakt mit Lebensmitteln vermeiden.
  • Silikone: Sind gummiähnliche Elastomere. Aus Silikonen sollten sich keine problematischen Stoffe lösen. Weil sie auch hohe Temperaturen aushalten, gibts inzwischen auch Backformen oder andere Küchenutensilien daraus. Persönlich bin ich noch etwas skeptisch, wenn hohe Temperaturen auf Silikone einwirken. Ich habe bisher aber keine negativen Infos dazu gefunden. Unterscheiden muss man hier aber unbedingt Silikon-Dichtmassen. Diesem werden oft Biozide zugemischt, die später ausdünsten oder sich auswaschen. Hier würde ich auf biozidfreie Produkte (Silikon mit Zulassung Kontakt Lebensmittel) achten. Zwar ist hier die Gefahr von Schimmelbildung größer, aber gegen Schimmel hilft vor allem eine saubere Ausführung der Fuge und eine Vermeidung von länger stehendem Wasser auf der Fuge. Silikonspray ist wieder was ganz anderes - es ist ein recht universell verwendbares Öl. Silikonöle würde ich vollständig aus dem Haushalt verbannen. Problem: Silikonöl wird nicht durch natürliche Prozesse in der Umwelt und im eigenen Körper abgebaut. So kann es auch im Körper durch eingeatmeten Sprühnebel Schaden anrichten. (Alternative z.B. Ballistol). Ich würde auch alle Produkte meiden, die Silikonöle enthalten.
  • Im Schlafbereich besonders auf Schadstoffreduzierung achten. Hier verbringt man immerhin typisch 1/3 seiner Lebenszeit. So sorgt man auch dafür, dass der Körper sich erholen kann.
  • Die Nase kann helfen, Problemstoffe wahrzunehmen. Viele achten mittlerweile darauf, sich nichts in die Wohnung zu stellen, was stinkt. Ich denke, grundsätzlich ist das eine gute Idee. Allerdings sollte man sich auch der Tatsache bewusst sein, dass es zahlreiche schädliche Stoffe gibt, die geruchlos sind. Geruchlos heißt also keineswegs schadstoffarm oder gar schadstofffrei. Umgedreht gibt es unangenehme Gerüche natürlichen Ursprungs, die völlig unproblematisch sind. Holzöle zum Beispiel riechen längere Zeit durch das enthaltene Leinöl.
  • Schimmel ist eine natürliche Schadstoffquelle, die man sehr ernst nehmen sollte. Schimmel ist in der Regel gut über die Nase zu erkennen. Hier sollte man sofort Gegenmaßnahmen ergreifen. Aber auch hier wieder darauf achten, sich keine kritischen Schadstoffe zur Bekämpfung ins Haus zu holen. Es gibt z.B. Schimmelfarbe, die permanent Biozide ausdünstet. Eine Abtötung von Schimmel geht recht unkritisch mit Spiritus. Je nach Situation halte ich auch den Einsatz von chlorhaltigen Produkten noch für sinnvoll (z.B. Danklorix). Natürlich gut lüften. Es geht vor allem darum, keine langfristige Belastung in die Wohnung zu bekommen. Gegen Schimmel gibt es stark alkalische Farben, die auf natürliche Weise die Schimmelgefahr senken (Silikat-Innenfarben).
  • Luftbefeuchter: Auch hier die Schimmel- und Verkeimungsgefahr im Auge behalten. Regelmäßiges säubern ist wichtig.
  • Duftöle und Duftkerzen - da wäre ich auch sehr vorsichtig. Der Markt wird hier kaum kontrolliert, so dass man hier auch viele Schadstoffe inhalieren kann. Überhaupt sind fast alle Duftstoffe in Kosmetik und Reinigern als kritisch einzustufen. Wo es geht, sollte man drauf verzichten. Wer Duftöle einsetzt, sollte zumindest auf gute Qualität achten.

02.08.2017 :: Kupplungsschaden kann teuer werden

Bei einem Kupplungsschaden am Auto kann es teuer werden. Hier muss oft der ganze Motor ausgebaut werden. Das kann 1500-2500 Euro kosten. Dabei muss man auch an weitere Folgekosten denken: Einen kompletten Motor aus- und wieder einzubauen, da können viele Fehler passieren, womit dann weitere Probleme auftauchen. Viele Fehler, die ich bei Autos erlebt habe, entstanden dadurch, dass an den Stellen schonmal rumgebastelt wurde und irgendwas falsch zusammengebaut war.

Eigentlich sind Kupplungen so ausgelegt, dass sie 300.000 Km und länger halten können. Wie kommt es dann, dass die schon viel früher kaputt gehen? Ich kenne Fälle, da war die Kupplung schon nach 60.000 Km defekt.

Manchmal liegt es einfach an schlechten Angewohnheiten. Eine dieser Angewohnheiten ist, an der Ampel nicht den Gang rauszunehmen, sondern die ganze Zeit auf der Kupplung zu stehen. Diese Angewohnheit ist gar nicht so selten. Hat mitunter etwas damit zu tun, dass Anfangs eine Sorge war, man könne den Gang nicht schnell genug reinbekommen, wenn es grün wird. Beim Auskuppeln wird aber das Ausrücklager stärker beansprucht. Gerade wer viel Stadtverkehr fährt, verlängert die Lebensdauer des Ausrücklagers enorm, wenn man sich hier umgewöhnt. Kurz kuppeln, Gang raus, Kupplung loslassen.

Eine andere Angewohnheit ist, den Kupplungsfuß leicht auf der Kupplung stehen zu lassen, so dass dieser ständig schon etwas auf die Kupplung drückt. Auch das belastet das Ausrücklager oder kann sogar dazu führen, dass die Kupplung durchrutscht. Damit verschleißen die Kupplungsbacken.

Eine dritte schlechte Angewohnheit ist, beim Anfahren zu lange auf der Kupplung zu stehen und so längere Zeit mit schleifender Kupplung zu fahren. Und dabei den Motor dann auch noch hoch zu touren. Man sollte hier mit eher niedriger Drehzahl anfahren, die Kupplung so schnell es geht loslassen, ohne das der Motor ruckelt. Und dann auch schnell in den zweiten Gang hochschalten.

Nicht jeder Kupplungschaden liegt aber an ungünstigen Fahrgewohnheiten. Mitunter ist es einfach ein Materialfehler oder ein Fehler in der Fertigung. Hier lohnt sich eine Internetrecherche, ob ein bestimmtes Auto eines bestimmten Baujahres öfter betroffen ist. Ich hab z.B. einen Wagen, bei dem rupfende Kupplungen bereits nach 20.000 Km typisch sind. Und ja, meine rupft auch, aber ich hab mich dran gewöhnt.

30.07.2017 :: Smoothie Standmixer

Wir suchten einen kleinen Standmixer für Smoothies. Wir hatten vor Jahren schonmal einen großen Standmixer gekauft und hier Lehrgeld bezahlt.

Ich dachte damals noch, dass Markenhersteller ausgereifte Technik verkaufen. Aber diese Zeit ist vorbei. Es scheint mir so, dass früher Küchenmaschinenhersteller ein Produkt über viele Jahre immer reifer werden ließen und man so von einem gut durchdachten Gerät ausgehen konnte. Wer z.B. schon seit 50 Jahren Standmixer herstellt, der sollte ein wirklich ausgeklügeltes System haben.

Heute ist es anders. Die Hersteller scheinen ihr Know-How nicht mehr fortzuführen, wenn sie überhaupt noch eigenes Know-How haben. Stattdessen gibts alle paar Jahre ein neues Modell, bei dem wieder alles Know-How verloren geht. Vielleicht liegt es daran, dass diese Dinger nur noch irgendwelche Firmen in China entwerfen, die auch ständig wechseln. Man kauft dort, wo man den besten Deal bekommt. Nur so kann ich mir die unausgereiften Geräte erklären, bei denen die selben Fehler immer wieder gemacht werden.

Kurzum, unser alter Standmixer war nur sehr mühsam zu reinigen und ab und zu war er undicht. Wir fanden keinen eindeutigen Grund für diese Undichtigkeit. Aber die ganze Konstruktion war auch wenig vertrauenserweckend.

Also haben wir diesmal im Geschäft genauer hingeschaut. Das Wichtigste ist das aufschraubbare Messerwerk. Ist das schnell und einfach zu säubern? Oder hat es viele verwinkelte Ecken, wo sich Rückstände festsetzen? Interessanterweise sind diese Messerwerke bei vielen Hestellern fast identisch. Leider identisch schlecht, weil zahlreiche kleine Ausbrüche, wo sich Reste ansammeln können, die man nur schlecht mit Bürste wegbekommt. Weiterhin fast alle in einer Art Deckelform, wo die Dichtung recht tief sitzt und man so schlecht herankommt.

Interessant hier: Auch ein Gerät, was mit Stiftung Warentest gut beworben wurde, hatte diese ungünstige technische Ausführung.

Ein Standmixer im Geschäft machte eine löbliche Ausnahme. Der Bosch MMBM401W. Bei Amazon gibts ein schönes Bild, wie das Messerwerk hier designt ist: Schön offen, so dass sich alles schnell reinigen lässt. Die Dichtung lässt sich herausnehmen, es reicht aber in der Regel, sie seitlich etwas hochzuklappen, um auch unter der Dichtung säubern zu können.

Der erste Praxistest endete erstmal in einer Enttäuschung: Nichts geht. Gerät defekt? Ich war schon kurz davor, es wieder einzupacken und zu reklamieren. Dann schaute ich mir das alles nochmal genau an. Irgendwo muss es ja einen Schalter geben, der ein Einschalten verhindert, wenn der Behälter nicht richtig eingerastet ist. Ich war auf der richtigen Spur. Nach etwas Herumspielen bemerkte ich, dass ich zwar bis zum ersten Rastgefühl den Behälter hineindrehte, aber das reichte nicht. Es brauchte noch mehr Kraft und dann klackte es ein zweites Mal. Erst dann war der Behälter wirklich soweit drin, dass der Sicherheitsschalter entriegelte und den Stromfluss freigab. Dann funktionierte es auch. In meinen Augen schlecht designt, möchte nicht wissen, wie viele Geräte so sinnlos zurückgegeben werden. Wenn man es aber weiß, ist es kein Problem mehr. Das Problem scheint nach ein paar Nutzungen auch weniger zu werden. Vielleicht nur ein Grat, der sich mit der Zeit wegschleift. Wer aber wenig Kraft in den Händen hat, dem würde ich von dem Gerät abraten.

Woran man sich gewöhnen muss: Das Messerwerk wird vom Bajonettverschluss genau anders herum eingedreht, wie man es normal erwartet. Es hat sozusagen "Linksgewinde". Aber sehr schön, dass es nur ein Bajonettverschluss ist und kein echtes Gewinde, wie bei vielen anderen Geräten. So hat man es mit einer kleinen Drehung schon fest.

Schön auch, dass ein zweiter Behälter dabei ist. Das vereinfacht einige Anwendungs-Szenarien. Zumal die Behälter auch einen Deckel haben, womit man sie gleich als Vorratsbehälter in den Kühlschrank stellen kann. Ein großer Vorteil gegenüber einem großen Standmixer. Die Deckel haben wir übrigens noch nicht genutzt, die erscheinen mir etwas aufwändig konstruiert, mit zu vielen Einzelteilen. Da ist die Reinigung auch wieder umständlich. Brauchen wir nicht, stattdessen wird im Kühlschrank einfach irgendein anderer Deckel draufgelegt. Bei Smoothies lohnt es sich sowieso, die sofort zu trinken.

Ansonsten gibts nichts Spektakuläres mehr zu berichten. Das Teil mixt gut, wie erwartet. Laut sind Standmixer immer, aber es ist erträglich. Stufe 1 ist auch deutlich leiser. Wie langlebig das Gerät sein wird, bleibt abzuwarten.

Es gibt von Bosch übrigens noch weitere kleine Standmixer bzw. Smoothie-Maker, mit anderem Design, z.B. in Edelstahl. Alle mir bekannten Geräte nutzen das selbe System beim Messerwerk.

09.07.2017 :: LED-Beleuchtung - Licht und Schatten

In den letzten Monaten spüre ich nochmal einen deutlichen Technologie-Schub bei LED-Beleuchtung. Man kann immer günstiger produzieren. Mittlerweile kann ich ein 60x60cm LED-Panel mit 45 Watt in brauchbarer Qualität ab 29 Euro kaufen. Und LED-Leuchtmittel gibts beim Discounter teilweise auch schon für unter 2 Euro. Vor 2 Jahren waren die Preise noch teilweise Faktor 5-10 höher.

Auch die möglichen Lichtleistungen steigen. So gibts jetzt schon Baustrahler mit 100 Watt zu erschwinglichen Preisen. Das entspricht von der Lichtleistung ungefähr dem typischen 500Watt Halogenstrahler.

Auch in den Leuchtenabteilungen der Bau- und Fachmärkte hat sich die LED-Technologie soweit durchgesetzt, dass es kaum noch Leuchten mit herkömmlichen Leuchtmitteln gibt.

Doch die neue Technologie bringt auch viele neue Themen auf den Tisch, die überlegt werden müssen und die evtl. zu Problemen führen. Hier mal ein paar Dinge, die mir so aufgefallen sind und die euch bei der Planung helfen können:

  • LED-Panels, die man unter die Decke schraubt, oder abhängt, strahlen typisch 110 Grad nach unten ab. Das sorgt für schattige Bereiche an der Decken und der oberen Zimmerwand. Auch bodennahe Bereiche oder Arbeitsflächen, die nicht im 110 Grad Bereich sind, sind schattig. Das sorgt mitunter für eine unnatürliche Lichtwirkung im Raum. Abhilfe: zusätzliche indirekte Beleuchtung, was auch sehr gut mit LED-Panels geht.
  • Viele LED-Leuchtmittel in Glühlampenform haben LEDs, die nicht in alle Richtungen abstrahlen. Viele strahlen nur in Richtung Lampenkopf. Das macht sich besonders bei Leuchten negativ bemerkbar, wo die Lampe liegend eingebaut wird. Es gibt zahlreiche ältere Decken- und Wandleuchten, wo dies der Fall ist. Hier ist dann der gesamte Bereich hinter der Lampe abgeschattet. Eine bessere Lichtverteilung haben sogenannte Filament-LED-Lampen.
  • LED-Panels und viele Leuchten enthalten heutzutage fest installierte LEDs. Also keine Leuchtmittel, die man wechseln kann. Wenn alles gut geht, wäre das auch vielfach vertretbar. Dann würde eine Leuchte 10-15 Jahre halten. Das Problem beginnt, wenn die Qualität nicht stimmt und Teile der Leuchte bereits nach kurzer Zeit kaputt gehen - typischerweise kurz nach Ablauf der Gewährleistung. Eine Reparatur ist von einem Laien nicht durchführbar. Damit hat man einen finanziellen Schaden und belastet die Umwelt.
  • Für Baugrößen vieler LED-Panels und Leuchten gibt es keinen Standard. Das ist gerade bei Einbauleuchten ein Problem. Gehen diese mit der Zeit kaputt, kann kein Ersatz beschafft werden, der in die Einbauöffnung passt. Oder die Ersatzbeschaffung gestaltet sich sehr schwer und muss teuer bezahlt werden.
  • Bei Ausfällen von Leuchten mit fest eingebauten Leuchtmitteln steht man erstmal im Dunkeln. Und das so lange, bis Ersatz beschafft und von einem Fachkundigen eingebaut wird. Hier kann keiner mehr mal eben so eine Glühlampe wechseln. Ein Leuchtenwechsel kann sich auch teuer gestalten, wenn Fachpersonal beauftragt werden muss, die oft auch gleich besonders teure Ersatzleuchten mitbringen.
  • Nervig können Teilausfälle sein, wo einige Leuchtdioden blinkend ein- und ausschalten oder immer mal wieder aufblitzen. Viele LED-Lampen enthalten ja zahlreiche LEDs, die einzeln in undefinierte Zustände übergehen können.
  • Die Auswahl der Lichtfarbe ist nicht trivial. Zwar geben Hersteller die Farbtemperatur in Kelvin an, aber die unterscheidet sich mitunter erheblich von Hersteller zu Hersteller. Es gibt auch sehr unnatürlich wirkende LED-Leuchtmittel. Unschön auch, wenn man von Raum zu Raum sehr unterschiedliche Lichtfarben hat. Interessanter Effekt: Das menschliche Auge scheint sich recht schnell an die Lichtfarbe zu gewöhnen. Empfindet man es am Anfang als völlig unnatürlich, nimmt man es nach 14 Tagen schon nicht mehr wahr.
  • In Bereichen, wo gearbeitet wird, erscheinen mir neutralweise Farbtemperaturen von 4000-4500 K am Sinnvollsten. Wenn man es gemütlich haben will, erscheinen mir warmweiße Farbtemperaturen von 2500-3000 Grad sinnvoll.
  • LED-Leuchtmittel lassen sich grundsätzlich gut dimmen und man spart dann nochmals viel Energie ein. Ob die Leuchten sich wirklich dimmen lassen, muss man vorher in Erfahrung bringen. Wichtig: Gedimmte LEDs verändern ihre Farbtemperatur nicht! Wo das gedimmte Licht früher also schön gelblich wurde, hat man heute ein genauso weißes Licht, nur eben dunkler. Gemütlich wird es dadurch dann nicht unbedingt.
  • Es gibt (auf dem breiten Consumermarkt) keine standardisierten Konzepte für Dimmung und Farbwechsel. Manche Leuchten lassen sich mit Standard-Dimmern, wie sie schon seit Urzeiten gebaut werden, dimmen. Viele Leuchten haben hierzu aber eine extra Fernbedienung. Es kann sehr unpraktisch werden, wenn man so zahlreiche Fernbedienungen rumliegen hat. Und was geht natürlich zu erst kaputt? Die Fernbedienung. Und gibts nach 2 Jahren dann Ersatz im Baumarkt? Natürlich nicht. also wird die ganze Leuchte unbrauchbar. Im Profibereich gibt es DALI (Digital Addressable Lighting Interface) als einheitliche Schnittstelle für die Lichtsteuerung. Mittlerweile ist diese Technologie auch im privaten Bereich preislich interessant, insofern man Neuplanungen macht, wo auch zusätzliche Leitungen verlegt werden können.
  • Es gibt LED-Leuchtmittel, die bei 50 Hz bzw. 100 Hz flimmern (Netzflimmern). Auch wenn einem das bei direkter Betrachtung nicht auffällt, so stört es z.B., wenn man seinen Kopf schnell bewegt. Oder auch Gegenstände, die schnell bewegt werden. Bei empfindlichen Personen kann das Flimmern auch zu Kopfschmerzen oder anderen Irritationen führen. Markenprodukte sollten diese Problematik nicht haben. Ein simpler Test: Man warte, bis es draußen dunkel ist. Dann schalte man nur die zu testende Lampe ein. Nun nimmt man einen Bleistift und bewegt ihn schnell hin und her. Sieht man ihn in der Bewegung mehrfach, flimmert die Lampe. Um ein Gefühl dafür zu bekommen, kann man als Gegentest mal eine Lampe nehmen, wo man sicher ist, dass die nicht flimmert. Oder eine Kerze.
  • Auf dem deutschen Markt landen sehr viele Leuchten und Leuchtmittel, die direkt aus China oder Hongkong kommen. Zum Beispiel über Marktplätze wie Amazon oder Ebay. Hier existiert kaum eine Überwachung, ob diese Leuchten überhaupt in Deutschland zulässig sind und verkauft werden dürfen. Mitunter wandern so Leuchten auf den Markt, die gefährlich sind (Brandgefahr, Gefahr von elektrischem Schlag). Ich würde hier empfehlen, keine China-Direktimporte zu kaufen, sondern nur von deutschen/europäischen Händlern entsprechender Größe und Reputation.
  • Die gute Wärmeabfuhr ist bei LED-Leuchten wichtig. Bei Leuchtmitteln in Glühlampenform ist es sowieso schon schwierig für die Hersteller, bauformbedingt die Wärme gut abzuführen. Ungünstige Leuchten können dazu führen, dass der Wärmeaustausch zum Raum hin ungünstig ist. Wärme und Lebensdauer stehen in einem direkten Zusammenhang. Nicht nur bei den Leuchtdioden, sondern auch bei einigen Bauteilen der Elektronik, die jedes Leuchtmittel bzw. jede Leuchte benötigt.
  • Helligkeit und Lichtfarbe wird oft verwechselt. Es entsteht der Eindruck, dass ein besonders weißes Licht auch hell ist, weil wir das so gewohnt sind. Hier darf man sich nicht irritieren lassen. Die Helligkeit kann man leider nur schwer mit den Augen abschätzen. Zu wenig Licht strengt aber das Auge an und man sieht auch nicht so viel, was einem bei filigranen Arbeiten auffällt. Ich habe vielfach Situationen erlebt, wo gerade mal 30-70 Lux im Arbeitsbereich ankamen, obwohl dort Werte von 500-2000 Lux für ergonomische Arbeit gefordert sind. Preiswerte Luxmeter gibts ab 25 Euro und sind für die Lichtplanung ganz wichtig.
  • Die Blendwirkung von Leuchtmitteln sollte beachtet werden. Hierfür ist interessant, wie verteilt das Licht aus einer Leuchte austritt. Hat man eine Einzel-LED von vielleicht 15mm Durchmesser, die 50 Watt hat, konzentriert sich die komplette Lichtleistung auf diesen Punkt. Schaut man rein, wird das als extrem blendend empfunden. Hat man hingen ein Panel von 60x60cm Größe, wo das Licht gleichmäßig auf die komplette Größe verteilt ist, werden 50 Watt nicht mehr als blendend erlebt. Auch alle Spot-Lampen, die in einem schmalen Öffnungswinkel Licht abgeben, werden als blendend empfunden, wenn man im Spotbereich steht.
  • Indirekte Beleuchtung verbreitet ein weiches Licht im Raum. Leider gibt es nur wenig Leuchten am Markt, die für indirekte Beleuchtung sorgen. Hier kann man sich aber durch vielfältige LED-Lösungen einfach selbst was basteln. Im einfachsten Fall lässt man ein LED-Panel gegen die Decke strahlen.
  • Die LED-Technologie entwickelt sich rasend schnell. Beim Kauf von LED-Technologie muss man aufpassen, keine veralteten Produkte zu kaufen.
  • Neben der Lichtfarbe ist auch die Farbtreue ein wichtiger Faktor. Dieser wird mit der Farbwiedergabeindex (CRI) angegeben. Oft findet man diese Angabe noch nicht auf LED-Leuchten. Dieser Parameter gibt an, wie ausgewogen die Farbwiedergabe ist. Es kann z.B. sein, dass eine Leuchte blaue Farben sehr stark in den Vordergund holt und rote Farben eher in den Hintergrund bringt. Ziel ist eine möglichst gleichmäßige und natürliche Farbwiedergabe. Die Qualität vieler LEDs ist in diesem Bereich noch nicht so gut. Sie haben einen CRI von 80. Es gibt aber auch schon LEDs, die einen CRI über 90 haben, was schon ein recht guter Wert ist.

02.07.2017 :: Dicke Bleistiftmine hält länger?

Standard-Bleistifte haben eine Mine mit typisch 2mm Durchmesser. Nun gibt es auch dickere Bleistifte, die 3-6mm Minen haben. Die Schreiblernbleistifte haben oft eine Minendicke von 3-4 mm. Und der Castell 9000 Jumbo hat eine 5,3mm dicke Mine.

Wenn man mit so einem Bleistift schreibt, hält die Mine dann länger, als bei einem Standard-Bleistift? Intuitiv würde man vielleicht sagen, ja. Doch stimmt das wirklich?

Nehmen wir an, wir wollen immer mit einem spitzen Bleistift schreiben. Wir spitzen ihn auf einen Spitzendurchmesser von 0,5mm und schreiben ihn soweit runter, bis er einen Spitzendurchmesser von 1,0mm hat. Wir bewegen uns sozusagen immer im Bereich von 0,5mm - 1,0mm. Damit wird auch eins klar: Wir nutzen im Grunde nur die innerste Seele der Graphitmine wirklich zum schreiben. Nämlich nur den innersten Millimeter. Und selbst den nicht mal vollständig, weil wir ja noch auf 0,5mm herunterspitzen. Auf jeden Fall wird der Bereich außerhalb des inneren Millimeters nie zum Schreiben genutzt. Der ist definitiv Abfall und landet im Spitzer! Genauso, wie das darüberliegende Holz. Bei diesem Szenario hält so ein Stift also kein bisschen länger, als ein Standard-Bleistift.

Wollte man wirklich länger mit einem dickeren Bleistift schreiben, müsste man den Graphitanteil nutzen, den ein Standard-Bleistift nicht hat. Und damit müsste man ihn soweit herunterschreiben, dass die Spitze über 2mm Durchmesser hat. Erst dann macht sich ein wirklicher Vorteil bemerkbar. Je mehr man diesen Bereich oberhalb von 2mm nutzt, um so größer wird der Vorteil ausfallen.

24.06.2017 :: LanUpdate 2017

Einmal im Jahr kommt Lancom u.a. nach Dortmund, um Einblicke in die neuesten Entwicklungen bei ihren Internet-Routern zu geben. Vorwiegend kommen Fachhändler dorthin, aber grundsätzlich ist die Veranstaltung offen für alle Interessierten.

Ich war mal wieder dabei, weil ich auch ein paar Lancom-Router betreue und mich auf dem Laufenden halten möchte.

Letztes Jahr wurde schon deutlich, dass das Thema Cloud ein Unternehmensschwerpunkt für die nächsten Jahre werden wird. Dieses Jahr rückte das Thema noch mehr in den Mittelpunkt. Ich habe den Eindruck, dass Lancom derzeit alle Entwicklerkraft darauf fokusiert.

Was steckt hinter der Idee einer Cloud für Router? Auf der ersten Ebene gehts erstmal darum, dass man alle Router, die man an verschiedensten Standorten administriert, auf einer zentralen Weboberfläche administrieren kann. Hierzu bietet Lancom eine Cloudlösung an, also einen Webdienst. Hier lassen sich alle Router eintragen über Seriennummern eintragen, die unter eigener Verwaltung stehen.

Die Router selbst halten eine permanente Verbindung zur Cloud. Dadurch wird es möglich, Livedaten der Router zu erhalten, sobald man in der Cloud eingeloggt ist. Und das ist dann schon die zweite Möglichkeit - das Monitoring aller seiner Router.

Die beiden Sachen - Administration und Monitoring - sind für sich schon recht schick. Das macht alles sehr einfach. Man muss nicht erst umständlich eine VPN-Verbindung zu einem Router aufbauen, um sich dort dann mit Lanconfig oder Lanmonitor Infos abzurufen. Man muss sich keine Gedanken mehr machen, in welcher Niederlassung man wie auf welchen Router kommt. Man loggt sich einfach bequem in die Cloud ein und hat wirklich alle Router im Zugriff.

Natürlich kann man Router in Projekte und Standorte zusammenfassen. So wird die reale Struktur hier abgebildet, was es leicht macht, die richtigen Router zu finden. Es lassen sich auch weitere Infos zu jedem Router hinterlegen, z.B. Bilder, damit man weiß, wo die Vorort installiert sind. Wo welcher Router geografisch installiert ist, kann man über Google-Maps-Karten sehen.

Soweit schonmal alles sehr spannend. Aber Lancom zieht jetzt noch eine ganz neue Ebene ein, die sehr viel Potenzial hat. Router eines Projektes lassen sich grafisch miteinander vernetzen. Man legt sozusagen fest, wie welche Router miteinander in Beziehung stehen und welche Netze sie aufspannen. Und wenn man das getan hat, erzeugt die Cloud automatisch die Konfiguration aller Geräte und rollt sie automatisch aus.

Wenn das wirklich funktioniert, hat man damit enorme Zeitvorteile bei der Erstkonfiguration, wie auch bei Konfigurationsänderungen. Ja, die Sache ist revolutionär, weil man weg kommt von der Konfiguration von Geräten. Man ist eine Abstraktionsebene höher und konfiguriert ein Gesamtsystem. Und das auch noch mit nur wenigen Mausklicks.

Die ganze Lancom Hardware soll zukünftig cloudfähig sein, also auch die Switches. Das ist von zentraler Bedeutung, damit man eben das Gesamtsystem konfigurieren kann.

Jetzt kommt natürlich auch gleich Skepsis bei mir. Es gab schon so viele Versuche, über einfache grafische Tools automatisiert irgendwas zu generieren. Und es scheiterte so oft daran, dass man keine Kontrolle mehr über die Feinabstimmung hat, dass einem das Tool irgendwas diktiert, was man so nicht haben will und dass man nicht mehr richtig versteht, was da eigentlich passiert und warum jetzt wo etwas so merkwürdig läuft, wie man es gar nicht will. Kurzum, man verliert die direkte Kontrolle über das System.

Vieles funktioniert derzeit in der Cloud auch noch nicht. Diese Entwicklungen stehen ziemlich am Anfang. Das System lässt aber eine Konfiguration von Hand und per Cloud parallel zu. Man kann also einen beliebig konfigurierten Router haben, den man jetzt per Cloud verwaltet. Die Cloud liest die komplette Konfiguration aus, erzeugt dann seine eigene Konfiguration, mischt diese mit hinein und lädt es dann wieder auf den Router. Man kann jederzeit von Hand am Router was ändern, insofern man nicht an den Konfigurationsdetails rumfummelt, die automatisch von der Cloud generiert wurden.

Ob das alles reibungslos funktioniert und überhaupt von der Idee sicher funktionieren kann, da bin ich skeptisch. Das beginnt schon damit, dass man mit Lanconfig gar nicht genau weiß, was hier automatische Konfiguration der Cloud ist und was meine eigene Konfigurationsdetails sind. Oder es entstehen Fehler, weil man manuell was falsch konfiguriert hat, so dass die automatisch generierte Cloud-Konfiguration dann nicht funktioniert.

Ich denke, da muss in den nächsten Jahren noch sehr viel Gehirnschmalz hineingesteckt werden. Und weil das alles so komplex und anspruchsvoll ist, wird Lancom recht sicher sehr viele Kapazitäten in den nächsten Jahren daran binden, die Cloud zu einem ausgereiften System zu machen. Ich denke, es ist die größte Innovation der letzten 15 Jahre und gleichzeitig die größte Herausforderung.

Umgedreht wird man wohl jetzt in einigen anderen Bereichen weniger Entwicklung sehen, weil die Ressourcen gebunden sind.

Was gabs sonst noch? Sehr schade finde ich die Umstellung in der Update-Versorgung für ältere Geräte. Das war wirklich einzigartig, dass man auch für recht alte Geräte noch das neueste Betriebssystem installieren konnte. Damit ist jetzt Schluss. Die Frage ist jetzt nicht mehr, was technisch geht, sondern es wird eine künstliche Regelung eingeführt. Sobald ein Gerät nicht mehr verkauft wird (End of Sale - EOS), gibts nur noch 2 Jahre Updates. Danach läuft der Support aus, sieht man mal von ein paar Garantieverlängerungsoptionen ab.

Im günstigen Fall kauft man ein Gerät, was noch 6 Jahre produziert wird. Dann ist man 8 Jahre versorgt. Und weil heikle Bugs bei Lancom sehr selten sind, kann man auch ohne Updates vielleicht nochmal 2 weitere Jahre sein Gerät betreiben. Das wäre alles ganz ok.

Anders sieht es aus, wenn man heute ein Gerät kauft, was ein halbes Jahr später schon nicht mehr hergestellt wird. Dann hätte man 2,5 Jahre nach Kauf schon keine Updates mehr, was ich bitter finde. Man wird also jetzt bei Neuanschaffungen sehr genau hinschauen müssen, welche Geräte vielleicht Auslaufgeräte sind. Bei manchen Geräten kann man es ahnen, bei anderen weiß man es nicht.

Im WLAN-Bereich gibts jetzt Wave2 Geräte, die für etwas mehr Performance sorgen können und Randbereiche besser funkmäßig abdecken können. Hier darf man sich aber nicht zu viel erwarten, je nach Szenario wirds vielleicht 20-30% schneller. Details kann man auf der Homepage nachlesen.

Das LCOS Betriebssystem gibts jetzt in Version 10. Hier scheint die Konzentration auch auf Cloud-Integration zu liegen. Gings im letzten Jahr noch um zahlreichen interessante Features, die im LCOS hinzugekommen sind, war diesmal gar nichts zu hören.

Die Umstellung auf All-IP war letztens Jahr noch ein sehr leidiges Thema, weil in der Praxis generell noch viele Probleme auftauchen, die aber nicht Lancom-spezifisch sind. Mittlerweile soll sich die Umstellung aber bei allen Beteiligten so gut eingespielt haben, dass es halbwegs reibungslos funktioniert.

Weblinks:

18.06.2017 :: Staat will Whatsapp mitlesen

So, so. Bayerns Innenminister Joachim Herrmann will die Überwachung von Messenger Diensten gesetzlich so regeln lassen, dass die Inhalte mitgelesen werden können.

Manchmal frage ich mich, ob es heutzutage keine fähigen Berater mehr gibt, die unseren Politikern mal ein wenig erklären, was in einer bestimmten Technologie überhaupt Sinn macht.

Da ist ja erstmal fraglich, ob man ein internationales Unternehmen überhaupt dazu bringen kann, in ihre Software Hintertüren einzubauen, die die Ende-zu-Ende-Verschlüsselung aushebeln. Ich glaube eher nicht. Und selbst wenn, dann würden Täter doch sofort auf ein anderes sicheres Programm umsteigen. Da müsste man schon die Verschlüsselung durchs Internet perse verbieten. Aber das ist doch lächerlich.

Da müsste man sogar noch einen Schritt weiter gehen: Jeder Datenstrom, der durchs Internet geht und den man nicht interpretieren kann, ist verboten. Denn alles, was nach einem zufälligen Datenstrom aussieht, könnte etwas Verschlüsseltes sein. Ja, es ist ja sogar möglich, unerkannt Nachrichten in Bilder hineinzuverschlüsseln (Steganographie). Dann müsste man gleich jeglichen Informationsaustausch verbieten.

Freie Software verträgt sich gar nicht mit dieser Idee des Mitlesen-Wollens. Da müsste man ja der gesamten Community um freie Software verbieten, verschlüsselte Verfahren zu verwenden. Oder sie zwingen, bestimmte Hintertüren einzubauen. Ja, man müsste es unter Strafe stellen, wenn irgendein Mensch irgendwo auf der Welt ein Programm erstellt, was verschlüsselt übers Internet kommunizieren kann. Das ist doch alles völlig absurd.

Das Ganze erscheint mir ein echter Schildbürgerstreich.

Weblink:

17.06.2017 :: Passende Handzahnbürste

Ich bin schon längere Zeit auf der Suche nach einer optimalen Handzahnbürste. Was man normal als mittlere Härte kauft, ist mir eigentlich schon zu hart. Sowohl Zahnfleisch als auch einige empfindliche Zahnhälse quittieren das mit Schmerzen. Man kann sich mit zu harten Borsten auch durchaus das Zahnfleisch ruinieren, wodurch dann freiliegende Zahnhälse entstehen.

Einige Zeit nutzte ich eine Sensodyne sensitive. Die war schon nicht schlecht, allerdings reicht die Härte nicht aus, um wirklich sicher die Zahnbeläge herunterzuputzen. Wenigstens einmal am Tag brauche ich eine härtere Bürste. Ähnlich war es mit einer Meridol Zahnbürste (vom Zahnarzt empfohlen) - sie war zu weich und nach ein paar Tagen waren deutlich Beläge zu spüren.

Ein anderer Zahnarzt empfohl mir dann mal, es mit einer Curaprox Zahnbürste auszuprobieren. Eine Zahnbürste aus der Schweiz. In Geschäften findet man die überhaupt nicht. Ich hab sie nur übers Internet bekommen. Der Preis ist mit 3-4 Euro recht happig. War aber erstmal egal, ich wollte die testen. Es gibt sie in 3 verschiedenen Härten. Die Nummer der Zahnbürste ist die Anzahl der einzelnen Borsten. Die Curaprox 5460 wird am meisten verkauft und ist die weichste Zahnbürste (Ultra Soft). Die Curaprox 1560 ist die härteste (Soft). Dazwischen gibts noch die 3960 (Super Soft). Relativ weich sind sie aber alle.

Bei einige weichen Zahnbürsten geht man den Weg, dass die Borste sich oben stark verjüngt. Ich halte davon nichts für die regelmäßige Zahnpflege, weil damit die Borsten sehr weich werden. Es gelingt dann nicht mehr, die Zahnbeläge herunter zu putzen. Außerdem haben Tests gezeigt, dass diese Borsten stärker verkeimen.

Bei den Curaprox-Zahnbürsten handelt es sich um einfache Borsten, die im Durchmesser gleich bleiben. Die Borsten stehen aber sehr dicht, so dass es wesentlich mehr sind, als was die Konkurenz so bietet. Sie hat auch insgesamt 5 Reihen Borsten, die meisten Zahnbürsten haben nur 4 Reihen.

Jetzt nach 3 Monaten Test kann ich sagen, dass diese Zahnbürsten wirklich außergewöhnlich gut sind. Zumindest für meine Bedürfnisse. Die weicheste schafft es bei mir auch nicht, alle Beläge zu entfernen. Aber die 1560 erscheint für mich optimal. Sie ist noch relativ weich, so dass sie Zahnfleisch und Zähne nicht reizt. Hat dabei aber ein sehr gutes Putzergebnis.

Ich hätte nicht damit gerechnet, jenseits der Massenware, wie man sie in jedem Supermarkt oder Drogerie kaufen kann, nochmal etwas wesentlich besseres zu finden.

In Holland hab ich letztens eine Bürste gefunden, die das gleiche Borstenprinzip zu nutzen scheint: Auch sehr viele Borsten, die recht eng stehen. Es ist die Jordan Clean Smile und kommt aus Norwegen. Zu kaufen gibts die derzeit in Deutschland nicht, man kann sie aber Online aus den Niederlanden beziehen. Es gibt sie in Soft und Medium, wobei die Soft etwa die Härte der Curaprox 1560 hat. Also optimal für mich. 3 Zahnbürsten bekommt man regulär für 3 Euro, mitunter im Angebot noch günstiger. Endgültige Testergebnisse werde ich in ein paar Monaten haben, im ersten Test war die gut.

Was ich mittlerweile für ziemlichen Unsinn und reines Marketing halte:

  • Unterschiedlich hohe Borsten: Viele Zahnbürsten haben unterschiedliche hohe Borsten, teilweise stehen sie auch schräg. Ich hab im praktischen Alltag keine Vorteile erkennen können. Sie verschleißen aber oft schneller, weil die hochstehenden Borstenbereiche schneller verbiegen. Auch noch ein Indiz: Alles, was eindeutig von Vorteil ist, würde sich bei vielen Herstellern durchsetzen. Hingegen wird aber ständig herumexperimentiert, ohne dass sie etwas Bestimmtes durchsetzt. Selbst bei einem Hersteller wird in einem Jahr was präsentiert, was im nächsten Jahr schon wieder durch was völlig anderes abgelöst wird. Eine sukzessive Weiterentwicklung tragender Ideen sieht man hier kaum.
  • Federnde Stile: Die Curaprox hat einen absolut steifen Stil. Eine Dr. Best, die ich hier habe, hat diesen gefederten Stil. Viele andere Hersteller experimentieren auch mit mehr oder weniger flexiblen Stilen. Meiner Erfahrung bringt das kaum was. Das Wichtigste ist, dass die Hand den richtigen Druck lernt. Schlussendlich kommt die Druckkraft der Hände immer zu 100% am Borstenkopf an, egal, ob der Stil flexibel ist oder nicht. Wer es nicht gelernt hat, die Kraft richtig zu dosieren, schafft es auch nicht mit einem flexiblen Griff.

Warum überhaupt eine Handzahnbürste? Ist elektrisch nicht besser? Ich schwanke da immer mal wieder. Wenn ich elektrisch bürste, dann bei Oral-B auch mit den sensitive Bürsten (rotierender Rundkopf), die für mich optimal sind. Und bei der Philips Sonicare sind die Standard-Bürsten (ProResults) auch relativ weich. Beide Geräte haben Vor- und Nachteile, was vor allem an dem Wirkprinzip liegt. Einen klaren Favoriten kann ich nicht ausmachen. Was mich an beiden Geräten total nervt: Nach 2-3 Jahren sind die Akkus kaputt und die Weichplastikteile werden klebrig und lösen sich auf. Ökologisch könnte man das besser lösen. 10 Jahre wären problemlos denkbar, wenn der Akku wechselbar wäre und hochwertige Materialien eingesetzt würden.

Weblinks:

11.06.2017 :: Endlich Wahrheit!

Wie habe ich mich gefreut, endlich mal die Wahrheit über eine Sache zu lesen: Mailverschlüsselung mittels PGP ist tot!

Ausgerechnet gelesen im Linux-Magazin, was ein extrem leidensgeprüftes Publikum liest. Aus der Linuxecke wurde viele Jahre behauptet, PGP wäre doch gar kein Problem. Lässt sich kinderleicht einrichten und wenn man es mal verstanden hat, ist das alles einfach. Ich kenne einige Prediger, die mich dazu überreden wollten, meine Mails nur noch verschlüsselt zu versenden.

Und jetzt kommt auch aus dieser Ecke die Erkenntnis, dass das so nichts wird für die große Masse. Und warum? Weil es zu kompliziert ist. Komplexität ist nichts für die Masse. Noch dazu bei einem Thema, was wenig attraktiv ist. Bei einem Zugewinn an Sicherheit schreit kaum jemand Hurra und es stellen sich keine Glücksgefühle ein. Maximal ist man etwas weniger besorgt. Was die Meisten hingegen anspricht, sind coole Features, mit denen man einen echten Mehrwert hat.

Mehr Sicherheit wird nur akzeptiert, wenn es unbemerkt im Hintergrund läuft. Ohne das irgendwas, irgendwie komplizierter wird. Zumindest im privaten Umfeld. Klar, in Firmen können Sichheitsstandards durchgesetzt werden, wenn die Führungsetage das für wichtig erachtet. Wird es aber auch für die Führungsetage unbequem, wirds als Admin schon wieder schwierig, sein Bedürfnis nach Sicherheit durchzusetzen.

Wenn man sich das Spannungsfeld rund um Linux anschaut, dann gehts dabei oft genau um diese Komplexität. Leidenschaftliche Linuxanhänger sind begeistert von dem, was Linux so kann. Und das stimmt ja auch. Verschiedene Bedürfnisse erfüllt Linux einfach besser. Gerade der Aspekt, dass man eine gute Kontrolle über alles hat und ganz tief im System herumstellen kann, begeistert diejenigen, die sich damit ihre eigenen Lösungen zusammenbasteln können. Die Begrenzung ist hier oft nur noch das eigene Können. Insofern ist Linux eine tolle Spielwiese.

Aber eine optimale Spielwiese ist es bei weitem nicht. Wie oft hab ich mich schon darüber geärgert, dass ich mal wieder eine Nacht rumprobiert habe, bis ich etwas ans Laufen bekommen habe, was eigentlich ganz einfach hätte sein können. Nur weil irgendjemand mal wieder die Dokumentation oder ein Skript nicht angepasst hat, muss ich tief in den Keller hinabsteigen und schauen, wo es denn nun klemmt. Wieder aus dem Keller hochgestiegen kann ich zwar behaupten, dass ich jetzt viel mehr davon verstehe, aber ist solches Wissen wirklich sinnvoll? Läuft es einmal, kümmere ich mich 5 Jahre nicht mehr darum und dann wird es bei einem Neuinstall ganz andere Probleme geben. Wer nicht gerade täglich Systeme neu aufsetzt, für den ist dieses Wissen oft recht nutzlos.

Menschen, die solches Basteln gewöhnt sind, blenden immer wieder auf beeindruckende Weise diesen Aspekt aus. Sie erkennen nicht, dass die meisten Menschen keine Freude an so einer Bastelei haben. Kurzum: Normalos wollen das schlichtweg nicht und Systeme, bei denen man viel (sinnlos) basteln muss, werden zurecht ignoriert.

Da müssten die Linuxer sich manchmal mehr an ein wichtiges Prinzip erinnern:

Was du machst, mach richtig.

Doch leider bedeutet "richtig" unter Programmierern oft nur, dass der Code richtig funktioniert. Über Installation, Benutzerfreundlichkeit und Dokumentation machen sich viele keine Gedanken. Damit treffen sie die Bedürfnisse derer nicht, die es nutzen könnten.

Viele Linuxer wünschen sich, dass Linux auf dem Desktop Einzug hält. Und zwar bei einer ernstzunehmenden Masse. Um dieses Ziel zu erreichen, braucht es aber nicht immer hübschere Desktops und technische Spielerein. Man braucht Systeme, die jeder Depp sofort versteht und mit denen er umgehen kann. Auch müssen solche Systeme von jedem lauffähig gehalten werden können, weil man nicht bei jeder Kleinigkeit einen Profi ins Haus holen kann, der es einem richtet.

Aber kann oder darf man überhaupt etwas erwarten, wenn Leute das aus Spaß an der Sache in ihrer Freizeit programmieren? Nein, kann man natürlich nicht. Zumindest nicht in dem Sinne, dass derjenige einen bestimmten Qualitätsstandard erreichen muss.

Es gibt aber trotzdem einen Grund, warum es sehr sinnig ist: Es macht Freude, etwas wirklich Gutes in diese Welt zu bringen, was viele Menschen bereichert. Und wenn man in diesem Sinne Projekte gestaltet, dann sind die Bedürfnisse der Menschen ganz wichtig, die so etwas nutzen sollen und wollen. Will man in diesem Sinne erfolgreich sein, ist genau diese Einfachheit wichtig und nötig, die der Mailverschlüsselung mit PGP schon immer gefehlt hat. So schön bestimmte Verfahren der Verschlüsselung für Mathematiker auch sind, die Masse braucht etwas anderes, um sich glücklich zu fühlen.

Die andere Seite gibts natürlich auch: Unglaubliche Erwartungshaltungen an Programmierer freier Software. Das sehe ich bei Bewertungen von Android-Apps. Da geben sich Leute null Mühe, mal etwas zu verstehen und schreiben wutentbrannt eine Bewertung wie "Dreckszeug, Programmierer sollte man sofort erschießen!".

Das finde ich echt bitter, aber auch hier wieder eine völlige Unfähigkeit, sich in die Welt des Gegenüber einzufühlen. Als Programmierer muss man sich oft mit irgendeinem Mist herumschlagen, den z.B. schon das Betriebssystem mit sich bringt. Da muss man um schwerwiegenden Mist herumprogrammieren, um es doch irgendwie ans Laufen zu bekommen. Und weil man nicht 100 verschiedene Handys zu Hause hat, auf denen man es testen kann, hilft oft nur die Rückmeldung der Nutzer. Hier wünschte ich mir einen einfühlsameren Umgang, weil man ansonsten Leuten den Spaß an solchen Projekten verdirbt und die ihre Zeit dann lieber mit Dingen verbringen, wo sie mehr positive Anerkennung ernten.

Fazit: Wenn wir alle mehr echtes Einfühlungsvermögen für die Bedürfnisse der anderen hätten, wäre viel getan. Linux hatte noch nie ein Problem auf Programmierebene, es krankt auf der zwischenmenschlichen Ebene. Allerdings wird sich das eben auch nie komplett lösen lassen. Denn was machen wir, wenn viele Programmierer nur ein Bedürfnis auf guten Programmcode, aber null Bedürfnis auf gute Dokumentation haben? Diese Lücke lässt sich vermutlich nur durch bezahlte Leute überbrücken, die die unbeliebte Arbeit machen.

PGP ist tot. Und wir stehen auch nach 20 Jahren Mails für die Masse immer noch am selben Punkt einer katastrophalen Absicherung von persönlichen Mitteilungen. Ein Grund, warum auch heute noch das Faxgerät seine Bedeutung in einigen Branchen behalten hat. Werden wir in den nächsten 20 Jahren was Einfaches hinbekommen, was den Sicherheitsstandard bei Mails erhöht? Im Moment ist nichts zu sehen, was in Richtung Ende-zu-Ende-Verschlüsselung geht. Und vielleicht klappt es auch nicht mehr, Mails von Grund auf umzukrempeln. Vielleicht muss erst eine völlig neue Technologie kommen, die die Mail ersetzen wird. Teilweise ist das ja schon heute mit Instant-Messaging-Diensten der Fall. Die sind schon größtenteils Ende-zu-Ende verschlüsselt. Gerade im privaten Bereich nutzen mittlerweile viele mehr Whatsapp, Threema oder Signal, als noch eine Mail zu schreiben. Aber leider hat sich auch hier eine Technologie in der Masse durchgesetzt, von der man aus Sicherheits-Aspekten abraten muss.

02.06.2017 :: Spezial-Bleistift Stabilo All 8008

Der Stabilo All 8008 sieht wie ein normaler Bleistift aus. Bei genauer Betrachtung erkennt man, dass die Mine mit 3,3mm etwas dicker ist. Auf Papier meint man, man schreibt mit einem normalen Bleistift mit etwa der Härte 3B. Er lässt sich auch genauso radieren.

Das eigentliche Geheimnis dieses Stiftes ist, dass er auch auf vielen glatten Oberflächen vorzüglich schreibt. Lackierte Oberflächen, viele Kunststoffe, Glas, Metalle, Keramik - fast überall kann man mit diesem Schrift schreiben, anzeichnen oder Konturen übernehmen. Er ist dabei nicht für dauerhafte Beschriftungen gedacht, sondern nur für temporäre Sachen. Das ist aber auch der Vorteil: Man kann den später problemlos wieder herunterwischen. Wo ein Bleistift gegenüber Wasser recht resistent ist, kann dieser Stift auch mit Wasser gut heruntergelöst werden.

Das macht den Stabilo All 8008 zu einem interessanten Begleiter in der Werkstatt und im Hobbybereich.

Man kann den Stift auch sehr spitz anspitzen, so dass man feinste Linien damit zeichnen kann. Gerade beim genauen Anzeichnen ist das wichtig. Es funktioniert jeder handelsübliche Anspitzer oder auch ein Kurbelspitzer.

Ich nutze den jetzt teilweise dort, wo ich vorher einen Folienschreiber verwendet habe. Ein großer Vorteil: Er kann nie austrocknen und es braucht keine Hülle, die man nach Benutzung wieder draufstecken muss. Auch kann ich damit noch feiner anzeichnen und schreiben.

Zu kaufen hab ich den bisher nur im Internet gesehen, preislich liegt er zwischen 1-2 Euro. Den Stabilo All gibt es auch noch als Farbstift in verschiedenen Farben, die hab ich aber noch nicht getestet. Interessant ist der weiße Stift für dunkle Oberflächen. Der hat die Nummer 8052.

21.05.2017 :: Was ist eigentlich ökologisch?

Wenn wir als Verbraucher ökologisch orientiert handeln und einkaufen wollen, dann müssen wir überhaupt erstmal abwägen können, was die ökologischere Alternative ist. Mir ist jetzt mal wieder ein schönes Beispiel untergekommen, was nachdenklich macht:

Die Firma Staedtler ist Hersteller des legendären Noris 120 Bleistiftes. Dieser Bleistift besteht ganz klassisch aus einer Graphitmine, aus Holz und etwas Lack.

Vor ein paar Jahren hat Staedtler kräftig in eine interessante Fertigungs-Technologie investiert und brachte den Noris Eco auf den Markt. Hierbei handelt es sich um einen extrudierten Bleistift. Was hat es damit auf sich?

So ein Bleistift wirkt für das ungeschulte Auge wie ein normaler Bleistift aus Holz. Wer etwas genauer hinspürt, wird das höhere Gewicht wahrnehmen. Normale Bleistifte wiegen so um 3g, der Noris Eco wiegt um 8g, also fast dreimal so viel.

Das, was normal Holz ist, ist bei diesem Bleistift - vereinfacht gesagt - ein Gemisch aus etwa 70% Holzmehl und 30% Kunststoff (Polyethylen/PE). Man erkennt das erst beim genauen Hinsehen und auch beim Spitzen.

Das Herstellungsverfahren ist sehr anspruchsvoll. Durch eine Düse werden mit einmal gleich 3 verschiedene Materialien gepresst. Das Material wird dabei erhitzt, damit es eine zähflüssige Konsistenz hat. In der Mitte des gepressten Stranges befindet sich ein Graphit-Kunststoff-Gemisch, darum dann der Holzersatz und außen eine dünne farbige Kunststoff-Hülle. So entsteht ein fortlaufender Bleistiftstrang, der nach Erhärtung dann auf Länge geschnitten wird.

Das die Mine kunststoffgebunden ist, merkt man auch am etwas anderen Schreibverhalten. Sie gleitet etwas besser und leiser, färbt aber nicht so dunkel. Standard-Minen enthalten Ton, Graphit und Wachs, also keine Kunststoffe.

Für Staedtler ist dies ein ökologischer Stift. Doch das typische Bild, was wir von ökologisch im Kopf haben, sagt eher "Holz ist ökologisch, Plastik nicht.". Kann Plastik ökologischer sein, als Holz?

Ich glaube, die Frage ist schwer zu beantworten. Es kommt erstmal darauf an, was konkret man miteinander vergleicht. Nehmen wir die Argumentation von Staedtler: Dieser Stift ist ressourcenschonend. Es braucht hier kein hochwertiges Holz, man kann vielmehr aus Holzresten Holzmehl herstellen. Und man kann Holzsorten einsetzen, die normal für Bleistifte nicht geeignet wären.

Wenn dies bedeutet, dass dadurch weniger Raubbau betrieben wird, dann wäre das ein klarer ökologischer Vorteil.

Umgedreht lässt sich klar benennen, dass wir ein massives globales Kunststoff-Problem haben. Jede Kunststoff-Vermeidung erscheint da aus ökologischer Sicht attraktiv.

Könnte man Bleistifte aus Holz fertigen, welches unter ökologisch einwandfreien Umständen nachhaltig erzeugt wurde, dann wäre dies auf das Material bezogen vermutlich ökologischer.

Doch dann kommt der nächste Aspekt: Der Energieverbrauch. Wie viel Energie verschlingt der klassische Herstellungsprozess gegenüber dem neuen Herstellungsprozess? Und auch hier gleich die nächste Frage: Wie wird diese Energie erzeugt? Ökologisch oder weniger ökologisch?

Beim klassischen Herstellungsprozess hat man zahlreiche Fräsarbeiten, die energieaufwändig sind. Beim neuen Verfahren wird man erstmal einiges an Energie und Erdöl einsetzen müssen, um Kunststoffe herzustellen. Und dann muss das Material bei der Extrusion erhitzt werden. Erdöl im Produktionsprozess ist übrigens auch eine Sache, die ökologisch zumindest zum Nachdenken anregen sollte.

Genauere Infos, wie die Energiebilanz ist, bekommt man bei Staedtler übers Internet natürlich nicht. Wenn es um ökologische Aspekte geht, ist die Informationstiefe fast aller Hersteller sehr gering. Da geht es mehr um die Weckung ökologischer Gefühle und nicht um eine ökologische Beweisführung. Weil sich auch die meisten Kunden damit zufriedengeben, zumindest ein oberflächliches Gefühl zu haben, ökologisch zu handeln. Auch das ist natürlich schon eine Errungenschaft, sorgt es doch für einen gewissen ökologischen Druck auf die Hersteller.

Für mich als Kunde halte ich es heute für fast ausgeschlossen, eine sinnvolle Bewertung zu machen, was die wirklich ökologischere Alternative ist. Das zeigt mir dieses Bleistift-Beispiel sehr gut, bei dem ich mir sehr unschlüssig bin, was ich davon halten soll. Aber selbst Experten werden oft an der Komplexität so einer Aufgabe scheitern. Bei vielem kommt es eben darauf an und worauf es ankommt, ist konkret nicht greifbar. Woher sollen Experten wissen, ob weltweit weniger Raubbau betrieben wird, wenn ein paar Bleistifte nicht aus diesem Holz gefertigt werden? Vielleicht entsteht aus dieser Veränderung ein neues Produkt, was wieder viel Holz verschlingt...

Trotzdem denke ich, wir brauchen hier unabhängige Experten, die uns aufzeigen können, was recht wahrscheinlich die ökologischere Variante ist. Und die dabei auch offen sind für Erkenntnisse, die wenig attraktiv erscheinen. Das vielleicht Kunststoff wirklich manchmal ökologischer ist, auch wenn das manch einer nicht wahrhaben will.

Leider gibts in dieser Hinsicht noch nicht so viel. Da fällt mir nur Ökotest ein. Und da habe ich auch öfter mal große Zweifel, was die an Bewertungsmaßstäben zu Grunde legen.

Was mir auf jeden Fall wichtig erscheint: Wir müssen uns alle mehr mit Ökologie beschäftigen und hier gemeinschaftlich mehr Kompetenz aufbauen. Diese Kompetenz wird sehr wahrscheinlich dazu führen, das wir ökologisch klügere Entscheidungen treffen und mehr hinterfragen. Das wiederum wird die Hersteller nötigen, mehr fundierte Informationen offenzulegen. Und es wird auch plumpes Greenwashing aufdecken.

Eins ist damit auch erreicht: Wer sich über ökologische Dinge Gedanken macht, baut ein ökologisches Bewusstsein auf. Und das wird bei allen Belangen des Alltags auch eine Rolle spielen. Gut so.

Vom ökologischen Gesichtspunkt könnten übrigens Druckbleistifte mit ihren sehr dünnen Feinminen noch besser abschneiden: Hier braucht es nur einmal Kunststoff oder Metall für den eigentlich Stift. Dieser kann aber viele Jahre genutzt werden und das Verbrauchsmaterial hat nur eine geringste Materialmenge. Wenig Material bedeutet auch wenig Energieaufwand. Hier wird auch null Material weggespitzt und sinnlos verbraucht. Lediglich ein kleiner Minenrest bleibt, aber auch hier gibt es Stifte, die da sehr sparsam sind.

An dem Punkt zeigt sich aber, dass es nicht nur schlicht um Ökologie geht. Es geht auch um eine Hinwendung zum Einfachen und Ursprünglichen. Ein simpler Holzbleistift ist vielleicht seelischer Ausdruck, sich von dieser komplexen Technisierung der Welt abzugrenzen. Er ist in diesem Sinne seelisch heilsam, in dem man sein Leben wieder einfacher gestaltet und reduziert. Zurück zum Wesentlichen. Und recht sicher hat ein Mensch, der sich so mehr auf das Wesentliche konzentriert, ganzheitlich einen kleineren ökologischen Fußabdruck.

Weblinks:

27.04.2017 :: Standard-Radierer

Meine Hitliste:

  • Faber Castell Dust Free 187120 - Dieser Radiergummi ist besonders weich und schmiert nicht. Sehr schonend zum Papier, durch die Weichheit eher für unpräzises großflächiges Radieren. "Dust Free" finde ich irreführend, es meint, dass weniger Radierreste entstehen. Material: Kunststoff. Preis ab 90 Cent.
  • Faber Castell 188121 - Mittlere Härte. Radiert ohne zu schmieren. Material: Kunststoff. Preis ab 65 Cent.
  • Staedtler Mars Plastic - Mittlere Härte, ähnlich wie Faber Castell 188121. Material: Kunststoff. Preis meist erst ab 1,50 Euro.
  • Rotring B20 oder das kleine Modell B30. Etwas weicher, als der Staedtler Mars Plastic. Material: Kunststoff. Der Rotring Tikky 20/30/40 ist etwas härter, radiert aber auch sehr gut und papierschonend. Dem Tikky fehlt die Papp-Banderole, weshalb er auch preisgünstiger ist.

Gibts auch schlechte Radiergummis? Jede Menge. Auch von Markenherstellern? Zumindest gibts welche von Markenherstellern, die deutlich schlechter, als meine Favoriten sind. Manche neigen z.B. zum Schmieren.

Besser Kunststoff oder Kautschuk? Ein guter frischer Kautschukradierer radiert erstklassig. Aber: Die Oberfläche altert oft recht schnell. Diese wird dann hart, dann neigt der Radiergummi zum Schmieren. Wird die Oberfläche vorher mit etwas Sandpapier entfernt, radiert er wieder gut. Wer sich nicht viel Gedanken um Radiergummis machen will und die seltener nutzt, kauft besser welche aus Kunststoff. Der ist auch nach 20 Jahren fast so frisch, wie neu.

Plastikradierer sollten frei von Phthalaten (Weichmachern) sein, weil die gesundheitsschädlich sind. Überhaupt können in diesen Weichkunststoffen zahlreiche giftige Stoffe versteckt sein. Aus diesem Grund würde ich keine Billigware aus China kaufen. Deutsche Marken-Fabrikate, auch wenn in China gefertigt, sollten unbedenklich sein.

Warum sind die Radierer nur noch mit Pappe ummantelt? Früher gabs oft eine (meist blaue) Plastik-Ummantelung. Gibts auch heute noch, z.B. Läufer L-125 oder Edding R 20. Ich vermute eine Umstellung auf Pappe, weil das Umweltbewusstsein gestiegen ist.

Die meisten Plastik-Radierer sind übrigens aus PVC. Ein Material was ökologisch nicht so gut abschneidet. Es gibt einige wenig PVC-freie Alternativen, z.B. den Staedtler 525B. Ausprobiert habe ich die aber noch nicht.

Meine Aussagen beziehen sich ausschließlich auf Bleistifte (Härte H bis 2B) und Standard Druckerpapier. Bei anderen Voraussetzungen könnten die Testergebnisse ganz anders sein. Das ist auch ein Grund, warum Produktrezensionen oft so widersprüchlich ausfallen.

Noch ein kleiner Sicherheitshinweis: Radierer aus Plastik enthalten Weichmacher. Legt man sie auf bestimmte Kunststoffe, können diese Weichmacher auf den Kunststoff übergehen und die Oberfläche kaputt machen. Das gilt vor allem für die Thermoplaste Polysterol, ABS und PVC. Hingegen sind PE/PP oder Duroplaste (z.B. Melamin) nicht anfällig. Auch manche Lacke sind anfällig für Weichmacher (besonders Wasserlacke).

24.04.2017 :: Stiftradierer


Rotring Tikky, Läufer Radierstift, Pentel Z11

Bei Radierern habe ich mich schon vor 25 Jahren an sogenannte Stiftradierer gewöhnt. In einem stiftähnlichen Gehäuse ist eine Radiermine untergebracht. Diese lässt sich Stück für Stück weiter rausschieben, bis sie vollständig aufgebraucht ist.

Ich finde diese Teile sehr praktisch. Man kann recht präzise radieren und man kann sie wie Stifte aufbewahren. Die meisten haben auch einen Clip, womit man sie z.B. in der Hemdtasche befestigen kann.

Der beste Radierstift, den ich seit bestimmt 15 Jahren habe, ist ein Rotring Tikky Eraser. Diese Teile konnte man damals in fast jedem Schreibwarenladen kaufen. Er besitzt eine 6,7mm dicke Radiermine.

Als ich jetzt einen nachkaufen wollte, musste ich feststellen, das Rotring die nicht mehr im Programm hat. Und auch die baugleichen "Papermate Speed Erase" fand ich nur noch in Kanada in Onlineshops, nicht hierzulande.

Ich fand dann einen nahezu baugleichen Radierstift von KOH-I-NOOR, ein tschechischer Markenhersteller von Schreibwaren. Die Stifte an sich sind auch gut, aber die Radierminen sind eine Katastrophe. Viel zu hart bzw. zu abrasiv. Da geht das Papier schnell von kaputt. Mir unverständlich, wie ein Markenhersteller das so ungünstig abgestimmt hat.

Leider hat dieser Stift einen Minendurchmesser von 6,4mm, damit sind die Rotring Tikky und Papermate inkompatibel. Ich kenne auch keinen anderen Anbieter von 6,4mm Radierminen, die man für diesen Stift verwenden könnte.

Gerade habe ich noch entdeckt, dass Lyra einen Stift im Angebot hat, der dem KOH-I-NOOR sehr ähnlich sieht. Vielleicht wäre das nochmal einen Versuch wert. Und auch der Aristo Geo-Eraser scheint baugleich zu sein. Von Ecobra.de gibts einen Radierstift, der vom Design dem Rotring Tikky nahe kommt. Angeblich sollen die Minen auch passen.

Nach etwas Recherche und Tests gibt es derzeit diese interessanten Alternativen:

  • Der Tombow Mono Zero ist mit 2,3mm der dünnste Radierstift, den ich kenne. Er ist eher für sehr feine künstlerische Arbeiten geeignet.
  • Läufer hat seit 2 Jahren einen Radierstift mit 4mm Radiermine im Angebot. Auch hiermit kann man recht fein arbeiten, er eignet sich aber auch schon für den alltäglichen Einsatz. Wenn man recht klein schreibt, lässt sich auch Verschriftlichtes schnell damit radieren. Ich habe mir einige davon besorgt und finde die recht gut. Läufer ist ja auch seit vielen Jahren ein Experte für Radiergummis.
  • Den Pentel Clic Eraser ZE11 kenne ich auch schon seit bestimmt 20 Jahren. Er ist Online gut verfügbar. Der Minendurchmesser liegt bei 6,8mm. Ein Maß, was ich für den Alltag als besonders universell empfinde. Die Mine ist auch schön weich und radiert gut. Leider gibts hier eine technischen Einschränkung: Die Mine wird ganz am oberen Ende geklemmt. Drückt man beim Radieren auf, komprimiert die Mine und schiebt sich so rein. Das wusste auch der Hersteller, weshalb unten im Griffbereich noch ein Drücker ist, mit dem man den Radiergummi zusätzlich blockieren kann. Diese Lösung finde ich aber nicht sonderlich ergonomisch. Zumal es Stifte gibt, die in dieser Hinsicht einfacher sind. Trotzdem bleibt es wegen guter Verfügbarkeit und kleinem Preis eine interessante Alternative.
  • Der Maped Gom Pen hat auch eine 6,7 mm dicke Mine. Die Minen habe ich mir als Ersatz für meinen Rotring Tikky gekauft, die sind gut. Maped ist auch ein großer Markenhersteller von Schreibwaren. Den Maped Gom Stift hat eine ähnliche Mechanik, wie der Pentel. Allerdings rutscht die Rasterung bei leichtem Druck schon zurück und damit der Radiergummi rein. Man kann hier aber auch wie beim Pentel, vorne auf eine Klemme drücken, die den Radiergummi hält. Das braucht aber recht hohen Druck und ich empfinde das umständlich. Für mein Empfinden nicht ausgereift.
  • Der Staedtler Mars plastic Radierminenhalter hat eine 7,3mm Radiermine und ist damit auch im universellen Bereich anzusiedeln. Auch hier ist die Klemmung am oberen Minenende. Getestet hab ich ihn noch nicht.

Nachtrag 02.06.2017: Ich hatte zufällig bei einem Büroversender einen sehr preisgünstigen Radierstift entdeckt, der dem alten Rotring sehr nahe kommt. Er nennt sich "Q-Connect Radierstift" und ist derzeit bei zahlreichen Versendern für 1-3 Euro erhältlich. Der ist gerade eingetroffen und macht einen sehr guten Eindruck. Sowohl mechanisch, wie auch von der Radiergummiqualität. Der Durchmesser der Radiermine ist hier auch 6,7-6,8mm, wie beim Rotring. Die Ersatzradierminen sind für 30-60 Cent zu bekommen.

15.04.2017 :: Lockangebote von Internet-Shops

2 unterschiedliche Preise für das selbe Produkt? Gibts sowas?

Gerade ist es mir mal wieder aufgefallen. Ich suchte ein Produkt über die Google-Preissuchmaschine. Da fand ich es zu einem erstaunlichen Preis von 3,70 Euro. Damit war dieser Laden weitaus billiger, als andere Läden. Jetzt machte ich in diesem Online-Shop nochmal eine Suche nach dem gleichen Artikel. Und siehe da, jetzt lautete der Preis auf 10,70 Euro! Fast dreimal so teuer.

Die Strategie dahinter ist die: Man will natürlich, dass man in Preissuchmaschinen auch möglichst weit oben positioniert wird. Also muss man da mit extrem günstigen Preisen aufwarten. Vielleicht ist man damit sogar unter dem Einkaufspreis. Wenn der Kunde dann erstmal im Shop gelandet ist und dieses Produkt auch billig bekommt, kauft er bestimmt auch zahlreiche andere Sachen. Und die gibts dann zum normalen Preis, bei dem der Shop dann auch hinreichend verdient.

Mitunter gibts auch Sperren. So kann man diesen Artikel so günstig nur mit Stückzahl 1 bestellen.

Bevor man in seinem Lieblings-Shop einkauft, könnte es also Sinn machen, erstmal den Preis über Preissuchmaschine zu ermitteln.

14.04.2017 :: Billige MS-Office-Lizenzen

Auf Ebay bekommt man sehr günstig MS-Office-Lizenzen. MS-Office 2010 ist ja noch halbwegs aktuell. Das kann man schon für 5-20 Euro erwerben. Allerdings findet man auch Angebote, die 200 Euro kosten. Wie kann das sein?

Bei den billigen Angeboten handelt es sich fast immer nur um den Lizenzkey, den man erwirbt. Daran ist grundsätzlich erstmal nichts schlecht. Nach meinem Kenntnisstand ist daran auch nichts illegal. Die Software lässt sich legal im Internet herunterladen und dann mit diesem Key aktivieren.

2 Probleme können aber auftauchen. Es könnte sein, dass es sich um einen gestohlenen Key handelt. Damit wäre alles illegal. Und nicht nur das: Microsoft sperrt immer mal wieder solche Keys. Was eine Zeit lang läuft, kann irgendwann gesperrt werden. Hier hilft ein wenig, dass man Keys nur von seriösen Händlern kauft. Eine Firma, die eine eigene Homepage hat und schon länger existiert, wäre eine kleine Orientierungshilfe.

Ein weiteres Problem lässt sich nicht so leicht bewältigen. Meist sind es nämlich sogenannte Volumenlizenzen, die da verkauft werden. Ein einziger Lizenzschlüssel umfasst hier z.B. 100 Lizenzen. Microsoft hat auf seinem Aktivierungsserver einen Zähler laufen und wenn damit 100 Geräte aktiviert wurden, kann kein weiteres Gerät aktiviert werden. So mal vereinfacht ausgedrückt, real ist es etwas komplizierter.

Wenn der Händler nun so einen Key 100 mal verkauft und alle Käufer sich daran halten, den Key nur auf einem Rechner zu nutzen, ist alles ok. Wenn aber Käufer anfangen, diesen Key auf vielen weiteren Rechnern zu installieren oder den Key sogar mehrfach weiter verkaufen, hat man bald ein Problem. Schlimmstenfalls sperrt Microsoft diesen Key dann auch einfach und er ist dann auf keinem Rechner mehr gültig.

Dagegen kann man kaum etwas tun. Man kennt die Leute nicht, die meinen gekauften Key mitverwenden. Und es kann in keiner Weise sichergestellt werden, dass dieser Key nicht missbräuchlich verwendet wird.

Soweit mir bekannt, bleibt ein einmal aktiviertes Office 2010 auch dann noch aktiv, wenn ein Key von Microsoft gesperrt werden sollte. Erst wenn man explizit Updates einspielen würde oder einen Systemwechsel vornimmt, wirds wieder kritisch. Ein gekaufter Key sollte also sofort verwendet werden, bevor der missbraucht wird. Und dann sollte man möglichst keine Veränderungen mehr am System machen. So hat man gute Chancen, dass der legal erworbene Key einem keinen Ärger beschert.

Alternativ muss man sich nach Einzellizenzen umschauen, wo also ein Key genau zu einer Lizenz gehört. Den hat dann auch niemand anderes. Aber genau das sind die Lizenzen, die bei Ebay oder Fachhändlern wesentlich mehr kosten. Leider lässt sich oft nur schwer herausfinden, um welche Form Lizenz es sich handelt. Ein Indiz ist, wenn man mit Original Install-DVD kauft. Auch die Angabe von PKC-Aktivierungscode deutet auf einen Einzelcode hin. Das wird aber auch gerne wieder fälschlich angegeben. Für einen echten Einzel-Key zahlt man derzeit so um die 100-150 Euro für ein Office 2010 Professional.

14.04.2017 :: Mein optimaler Bleistift

Die scheinbar belanglosen Dinge des Alltags springen mich manchmal an. Dann entwickle ich ein vertieftes Interesse. Nachdem ich das Thema Spitzmaschine abgehakt hatte, waren es jetzt folgerichtig die Bleistifte. Ein bisschen infiziert wurde ich über die Website lexikaler. Ich staunte, was es in Sachen Bleistiften so alles zu entdecken gibt.

Meine jetzige Wahl fiel auf den Staedtler Noris 120, womit ich mich auch erstmal eingedeckt habe.

Ich will kurz erklären, warum dieser Bleistift optimal für mich ist:

  • Starke Marktpräsenz. Man bekommt den fast überall und das nahezu unverändert seit über 60 Jahren. Sozusagen ein Allerwelts-Wald-und-Wiesen Bleistift.
  • Qualitativ sehr hochwertig. Ich konnte keine wesentlichen Unterschiede zu teureren Stiften wie Staedtler Mars Lumograph 100 oder Faber-Castell 9000 feststellen.
  • Die Minen lagen bisher gut zentriert, so dass man nach dem Anspitzen nicht so einseitig Holz stehen hat. Die Minen sind auch relativ bruchfest.
  • Zwar wirkt ein Faber-Castell 9000 mit seiner zurückhaltend dunkelgrünen Lackierung wertiger, ist aber auch schlechter auffindbar. Auf einem vollen Schreibtisch oder in der Werkstatt ist mir ein Bleistift lieber, der mit schwarz-gelb schnell auf dunklen wie auf hellen Untergründen zu finden ist.
  • Farbliche Markierung am Ende finde ich sehr praktisch, um unterschiedliche Härtegrade auseinanderhalten zu können. Ich kenne keinen anderen marktgängigen Stift, der farblich markiert ist. Überhaupt gefällt es mir, wenn das Ende lackiert und nicht offen ist. Denn manchmal kaue ich - ganz unbewusst - auch mal drauf rum. ;-)
  • Es ist der günstigste Stift mit lackierter Endkappe, den ich finden konnte. Im Laden kostet er so um 1 Euro. Im Internet ist er im 50er Großpack ab 25 Cent zu bekommen. (Manchmal unter der Bezeichnung Noris School Pencil)
  • In Dortmund muss man dem BVB natürlich seine Treue erweisen, da ist schwarz-gelb eigentlich Pflicht. ;-)

Von den Härtegraden bin ich noch etwas am Schwanken. HB ist sicherlich eine gute universelle Härte. Wenn ich viel schreibe, verwende ich lieber weichere Stifte, also B oder 2B. Aber die sind nicht so wischfest.

Eine kostengünstige Alternative bei hoher Qualität ist übrigens der Faber Castell 1111. Den kann man derzeit mit etwas Glück schon ab 10 Cent pro Stück bekommen (Ladenpreis etwa 50 Cent). Allerdings ist er einfarbig schwarz und ohne lackierte Endkappe.

Wer einen sehr bruchfesten Bleistift sucht, kann die Staedtler Wopex bzw. Staedtler Noris Eco ausprobieren. Sie sind durch die Polymermine etwas zurückhaltender in der Graphitabgabe, halten dafür aber auch doppelt so lange. Sie sind nicht aus Holz gefertigt, sondern aus einem Holzmehl-Kunststoff-Verbundmaterial. Ladenpreis liegt auch so bei 1 Euro, Internetpreis so ab 30 Cent.

Was wirklich bemerkenswert ist: In einer Zeit, wo fast alle Massenprodukte aus China kommen und die Qualität immer weiter abrutscht, ist das bei Bleistiften anders. Im Nürnberger Raum haben wir mit Lyra, Faber-Castell, Staedtler und Schwan-Stabilo gleich 4 Firmen, die vielfach noch in Deuschland bei hoher Qualität produzieren.

Weblinks:

15.03.2017 :: Anspitzmaschine

Ich wollte mal eben eine Bleistift-Anspitzmaschine kaufen. Mit normalen messerbasierten Anspitzern lassen sich Bleistifte ja nur sehr suboptimal anspitzen.

Irgendwie ist das auch so ein kaputtes Marktsegment, wo viel Billigschrott angeboten wird. Auch das Design ist vielfach unterirdisch. Da fällt die Auswahl dann sehr schwer. Was qualitativ Hochwertiges findet man kaunm und die Frage ist dann eher: Welcher Murks ist noch hinreichend gut, um seinen Zweck zu erfüllen.

Wer Freude an gut durchdachter und wertiger Technik hat, findet vielleicht an der Maschine von Caran D'Ache seine Freude. So ganz 100% ist das Teil aber auch nicht, wie ich bei einigen Rezensionen gelesen habe. Auch passt für mich das billige Blech-Design der Bleistift-Klemmung nicht zum Rest. Wenn ich so viel Geld ausgeben würde, dann wünsche ich mir auch etwas, was wirklich in allen Details gut ist.

Am deutschen Markt findet man vor allem billige Maschinen im Preissegment von 7-45 Euro. Die kommen natürlich durchweg aus China, Hongkong oder anderen Billiglohnländern.

Von diesen günstigen Maschinen ist eine recht interessant: Die Dahle 133. Sie ist recht klein und leicht, damit auch gut transportabel. Vieles an dieser Maschine ist Plastik und das Design schreckt mich eher ab. Aber technisch ist die nach meinen Tests schon in Ordnung. Der Fräser ist scharf, die Stiftführung ist aus Druckguss, der Rest der Maschine ist überwiegend Plastik, auch der Zahnkranz, der den Fräser bewegt. Und auch der Kurbelarm.

Was an dieser Maschine gut und außergewöhnlich ist: Sie hat Gummigreifbacken für die Stifteinspannung. Das verhindert hässliche Abdrücke in den Stiften. Gerade bei schönen und hochwertigen Bleistiften finde ich das wichtig.

Der Spitzwinkel beträgt ungefähr 21-22 Grad und ist damit im typischen Bereich, wie auch bei Handspitzern üblich.

Der Spitzenstopp wird über eine Rändelschraube eingestellt, die typisch am Drehpunkt der Kurbel angebracht ist. Sie ist groß genug, so dass sie sich gut einstellen lässt. Damit lässt sich einstellen, wie spitz die Spitze wird. Gerade beim Schreiben möchte ich eine eher stumpfe Spitze.

Die Maschine kann auch die Jumbo-Stifte (z.b. Schreiblernstifte) aufnehmen (bis 11.5mm).

Die komplette Fräseinheit inkl. Kurbel lässt sich über Bajonettverschluss nach hinten herausnehmen. Das ist wichtig, um den Fräser säubern zu können.

Kurzum: Die Maschine ist recht universell, schont die Stifte, ist klein und handlich, spitzt ordentlich und kostet gerade mal 6-12 Euro. Natürlich ist das keine Maschine, die für die Ewigkeit gebaut ist.

Die Dahle 133 gibts auch (vermutlich) baugleich von anderen Herstellern, z.B. von M+R.

Die Dahle 155 ist mit 8-16 Euro ein klein wenig teurer und ist ähnlich brauchbar. Sie hat einen größeren Behälter, kann auch Stifte bis etwa 12 mm aufnehmen und hat eine fast baugleichen Fräser. Der Spitzenstopp ist etwas fummeliger einzustellen, geht aber auch. Die Stiftführung ist hier aus Plastik, zumindest bei meiner Maschine. Dürfte aber kein Schwachpunkt sein. Auch hier ist eher der Zahnkranz aus Plastik das Element, was am ehesten verschleißen wird. Nachteil bei dieser Maschine: Sie hat keine Gummibacken. Die Federspannung der Backen ist aber relativ niedrig, so dass die Abdrücke in den Stiften relativ gering sind. Spitzwinkel ist hier auch so um die 21-22 Grad. Die Maschine gibts übrigens schon seit etwa 30 Jahren.

Die Dahle 155 gibts auch (vermutlich) baugleich z.B. von Staedtler, Westcott und Faber Castell. Hier zeigt sich: Für die großen Stifthersteller scheint es sich nicht mehr zu lohnen, eigene Spitzmaschinen zu entwickeln.

Die Dahle 77 für etwa 40 Euro wirkt etwas wertiger. Sie wird seit den 80er Jahren produziert, über die Jahre wurde aber immer mehr Metall wegoptimiert und durch Kunststoff ersetzt. Auch diese Maschine hat hart zugreifende Backen. Die Fräseeinheit wirkt nicht wertiger, als bei den preisgünstigeren Spitzmaschinen 133 und 155. Auch hier gibt es einen Kunststoff-Zahnkranz. Die komplette Fräseinheit inkl. Kurbel gibt es hier aber als Ersatzteil nachzukaufen, falls die mal verschleißt.

Unter anderem Label gibts nahezu baugleiche Maschinen auch ab 20 Euro. Ob die im Detail wirklich identisch sind, ist schwer zu sagen. Derzeit gibts z.B. die M+R Spitzmaschine ab 20,79 Euro. Aber die schneidet in den Amazon-Rezensionen nicht sonderlich gut ab. Möbius+Ruppert ist aber eine Firma mit langer Tradition in Sachen Spitzer, die bis auf das Jahr 1908 zurückgeht.

Ein Insidertipp, den ich bekam, sind die Maschinen des japanischen Herstellers Carl. Die beste Maschine von Carl ist die CC-2000. In Deutschland sind die Carl-Maschinen nur schwer zu bekommen, weil es keinen Distributor hier gibt. Man bekommt sie aber z.B. über Amazon. So hab ich meine Carl CC-2000 für gerade mal 30 Euro bekommen.

Die CC-2000 ist schon eine tolle Maschine. Das Hauptgehäuse besteht komplett aus Metall, so dass die sehr stabil wirkt. Gegenüber einer Dahle 133 wirkt sie mit 15cm Höhe fast doppelt so groß. Die Fräseinheit ist hier hochwertiger, so ist der Zahnkranz auch aus Druckguss. Ich denke, diese Maschine wird wesentlich langlebiger sein.

Ein paar Besonderheiten der Carl CC-2000:

  • Recht flacher Spitzwinkel von 17,5 Grad, was außergewöhnlich lange Spitzen produziert. (Die 16,5 Grad, die man öfter im Netz findet, scheinen nicht zu stimmen, ich habs nachgemessen.) Hier muss man überlegen, was man will. Für Bleistifte gefällt mir der flachere Spitzwinkel sehr gut und ist praktisch. Für Buntstifte hingegen dürfte er ungünstig sein, weil diese dann schneller abbrechen. Die Carl ist vor allem für Bleistifte optimiert.
  • Gummibacken - Stifte werden nicht vermackt.
  • Ausschließlich für Stifte bis 8mm geeignet, also normale Bleistiftdicke.
  • Direkt ablesbarer Spitzenstopp. Es gibt hier eine Skala, durch die man sofort weiß, wie spitz oder stumpf man spitzt. Wer den Spitzenstopp oft verstellt, hat hier bessere Kontrolle.

Hier der Unterschied im Spitzwinkel (Links: Dahle 133, Rechts: Carl CC-2000)

Neben der Carl CC-2000 ist wohl auch die Carl Angel-5 ganz brauchbar. Bei dieser muss man aber aufpassen, es gibt verschiede Versionen (harte/weiche Backen, mit/ohne Spitzenstopp). Auch wird manchmal die Angel-5 fälschlich als CC-2000 angeboten. Hier sollte man sich die Originalbilder vom Hersteller genauer anschauen.

Weblinks:

30.01.2017 :: Langlebige Software

Wer langfristig richtig Geld und Aufwand sparen will, sucht sich langlebige Software. Kaum eine Branche ist so stark in Bewegung, wie die EDV. Änderungen bei Software führen regelmäßig zu Kosten. Nicht nur Lizenzkosten, sondern auch Kosten in der Wartung und der Einarbeitung von Mitarbeitern. Auch ändern sich Arbeitsabläufe durch Software, was Kosten und Aufwand verursacht.

Ich hab mal Bilanz gezogen, wie sich meine Auswahl in den letzten 10 Jahren bewährt hat. Vieles hat überlebt. Hurra! Ich hab aber auch damals schon sehr darauf geachtet, langlebige Software auszusuchen.

Hier mal ein paar Einblicke:

  • BackupMyPC - Ich fang mal mit einer Software an, die es nur so halb gepackt hat, zu überleben. Ich setze sie seit mittlerweile 20 Jahren ein. Damals hieß es noch BackupExec. Eine sehr abgespeckte Version lag früher jedem Windows dabei. Interessant war, dass man damit direkt auf CD oder DVD sichern konnte. Aber auch diese Form der Sicherung hat sich ja inzwischen fast überlebt. Die letzten 10 Jahre war abzusehen, dass diese Software vermutlich den Bach runter geht. Sie wurde mehrfach verkauft und nur noch notmäßig angepasst, damit sie überhaupt noch auf neuen Betriebssystemen läuft. Aber trotzdem: Sie wird weiter notdürftig gepflegt und ist bis Windows 10 lauffähig. Preis ca. 50 Euro.
  • FreeFileSync - Auch für Backupzwecke nutze ich seit etwa 9 Jahren. Es hat sich in dieser Zeit sehr gut weiterentwickelt und wird regelmäßig gepflegt. Viele andere Synclösungen hab ich während dieser Zeit den Bach runtergehen sehen. Oder sie haben mich fürchterlich genervt. Hat einige Zeit gebraucht, bis ich mit FreeFileSync ein gut funktionierendes System gefunden hatte.
  • Firefox - Hatte sich vor 10 Jahren schon als einer der guten Browser etabliert und das ist bis heute so geblieben. Hatte nie wirklich Probleme mit dem. Vor vielleicht 15 Jahren war ich eine Zeit lang auf Opera fixiert, merkte aber, dass das wohl nichts Langfristiges werden wird. Das hat sich auch bestätigt, Opera führt heute ein totales Schattendasein. Chrome wäre heute die einzige Alternative.
  • Thunderbird - Ganz ähnlich wie Firefox. Lange Zeit setzte ich für Mails einen kleinen Exot ein: Agent von Forteinc. Bekannt war vor allem Free-Agent als Client für Newsgroup. Ich kaufte mir die Vollversion, die auch einen sehr schnellen Mailclient hatte. Ich hab den sehr geliebt. Als Thunderbird von der Geschwindigkeit benutzbar war und keine Alternativen am Markt existierten, stieg ich um. Anfangs tat ich mich sehr schwer mit der mangelhaften Geschwindigkeit der Oberfläche. Das war doch alles sehr zäh. Seit bestimmt 10 Jahren hat sich nun Thunderbird bestens bewährt und Geschwindigkeit normal kein Problem. Ok, der wird jetzt nicht mehr mit hoher Priorität weiter entwickelt, er wird aber recht sicher die nächsten 10 Jahre Bestand haben. Es gibt ja auch weiterhin kaum freie Alternativen. Seit einiger Zeit ist der Kalender-Client Lightning integriert. Auch dieser Kalender funktioniert gut und zuverlässig. Einzig wenn man zahlreiche Netzwerkkalender einbindet, wird der Start von Thunderbird langsam. Wir hatten schon Startzeiten bis 3 Minuten bei etwa 30 eingebundenen Kalendern.
  • Linux Ubuntu - Vor 12 Jahren wechselte ich von Debian Linux auf Ubuntu Linux im Serverbereich. Damals war für mich noch nicht so richtig klar, ob das mit Ubuntu langfristig gut geht. Mittlerweile hat sich gezeigt, es ging gut und Ubuntu hat sich prächtig entwickelt. Es war der richtige Schritt. Debian hat auch weiterhin Bestand und ist eine feste Größe. Ubuntu ist aber für meine Zwecke etwas bequemer.
  • Linux Serverprogramme - Da gibts so einiges, was sich als langlebig bewährt hat: Samba, Apache, postfix, vim, fetchmail, dnsmasq, sqlite, mysql, php...
  • Skriptsprache Ruby - Viele Skripte, die ich vor 10 Jahren schrieb, laufen auch heute noch und übernehmen täglich Adminaufgaben. Mit Ruby war das von Anfang an so eine Sache. Ich hatte mich sehr in diese Sprache verliebt. Nachdem ich zuvor in den 90ern mit awk und perl rumgespielt hatte, war Ruby endlich mal eine echte objektorientierte Sprache von hoher Eleganz. Zu dieser Zeit programmierte ich auch in C++, aber diese Sprache empfand ich immer als sehr steif und umständlich. Ruby hat mich von Anfang an von der Ästhetik begeistert und tut es heute noch. Allerdings war mir von vornherein klar, dass Skriptsprachen wie Perl und Python wesentlich verbreiteter waren und das ist sehr wichtig. Denn bei Skriptsprachen hängt viel davon ab, ob eine große Nutzergemeinschaft viele Bibliotheken schreibt und vor allem auch wartet. In dieser Hinsicht war das mit Ruby in einigen Bereichen etwas problematisch. Und es war vor 20 Jahren auch sehr unklar, ob Ruby sich überhaupt so entfalten würde, dass es eine feste Größe ist. Heute kann man sagen: Ja, Ruby ist eine der großen Skriptsprachen, die auch für die nächsten 20 Jahre Bestand haben wird. Es gibt mittlerweile viele Bibliotheken. Im Bereich Webentwicklung ist sie durch Rails recht stark geworden und so hat sich Ruby überhaupt stärker verbreitet. Lediglich im Bereich Grafische Benutzeroberfläche ist sie noch lange nicht so stark, wie z.B. Python.
  • Photoshop - Das war vor 20 Jahren schon eine feste Größe für Bildbearbeitung und es war ziemlich klar, dass es das auch bleiben wird. Ich kaufte mir vor 15 Jahren eine Lizenz, die ich auch heute noch nutze. Ist das nicht super? Ganze 15 Jahre mit einer Lizenz auszukommen...
  • Acrobat - nicht der allbekannte Acrobat-Reader, sondern das echte Acrobat. Ich brauchte es vor allem für PDF-Formulare und zu Bearbeitung von PDF-Dokumenten. Daneben ist aber auch der PDF-Printer sehr hochwertig und erzeugt schöne kompakte PDF-Dateien, was ich mit kostenloser Software wie pdfcreator oder pdf24 so nicht hin bekam. Auch zur Anlage passwortgeschützter PDFs nutze ich Acrobat. Die Lizenzkosten hab ich zähneknirschend bezahlt, wobei auch diese Lizenz langlebig ist. Mein ist schon 7 Jahre alt. Manchmal hat mich Acrobat etwas genervt, weil es immer mal wieder Hänger gibt und man wartet, bis es weiter geht. Der schafft es auch, den ganzen Rechner zu blockieren.
  • Openoffice - Für typische Wald- und Wiesenaufgaben im Bürobereich gut durchentwickelt und problemlos nutzbar. Tut, was es soll, macht wenig Zicken, nutze ich auch schon seit etwa 12 Jahren. Geht man in die Tiefe, ist Microsoft in mancherlei Hinsicht besser, gerade was die Fähigkeiten von Excel angeht. Aber bei Microsoft gibts auch vieles, was nervt und ich als undurchdacht erlebe. Die Entwicklung der letzten 5 Jahre bei Openoffice ist etwas ins trudeln gekommen und man weiß nicht, ob es langfristig damit weitergeht. Auf der anderen Seite brauchts kaum neue Features und ein Umstieg auf das abgespaltene LibreOffice, was wesentlich aktiver weiterentwickelt wird, ist problemlos möglich. Was Langlebigkeit angeht, so kann man natürlich auch auf Microsoft Office setzen. Auch das nutze ich seit 25 Jahren, weil wir im Firmenumfeld nicht drumherumkommen.
  • Faststone Image Viewer - Nutze ich bestimmt auch schon seit 10 Jahren als Wald- und Wiesen-Viewer für Bilder. Damit lässt sich auch einfache Bildbearbeitung oder Bild-Größenanpassung machen. Hat sich gut bewährt, mehr brauche ich oft nicht.
  • truecrypt - Ein super Projekt in Sachen Festplattenverschlüsselung, was viele Jahre stabil funktionierte und weiterentwickelt wurde. Und dann das überraschende Ende, weil die Entwickler abrupt alles beendeten. Das war Stoff für Verschwörungstheoretiker. Ok, recht schnell gabs - dank Opensource - einen Nachfolger namens veracrypt, was jetzt auch seinen Dienst tut.
  • taskcoach - Mein wichtigstes tägliches Werkzeug für die Aufgabenplanung. Nutze ich jetzt vielleicht 5 Jahre. Ich finde es nachwievor eine gute Wahl. Die Entwicklung läuft mittlerweile reduzierter, aber das stört mich nicht. Was ich an Features brauche, ist weitestgehend vorhanden. Daneben nutze ich seit ungefähr 3 Jahren noch eine Cloudlösung namens todoist. Auch die hat sich sehr gut bewährt. taskcoach hat für mich bewiesen, dass man auch mit Skriptsprachen eine gut funktionierende Software mit GUI-Interface schreiben kann, die flüssig ihren Dienst tut. Ist in Python geschrieben. Wäre es Ruby gewesen, hätte ich mich natürlich noch mehr gefreut und wohl auch am Quellcode geschraubt.
  • teamviewer - Wir haben uns vor 10 Jahren auf Teamviewer für die Fernwartung festgelegt. Damals gabs noch so einige andere am Markt, aber mittlerweile gibts kaum noch Konkurenz. Glück gehabt, da haben wir aufs richtige Pferd gesetzt. Die Qualität ist gut, allerdings ist man doch leider genötigt, alle 3-5 Jahre mal ein Update zu kaufen.
  • audacity - Auch das nutze ich bestimmt schon seit 10 Jahren für die Audionachbearbeitung. Es ist auch zu einer festen Größe in dem Bereich geworden. Kenne keine freie Software für Windows, die ähnlich viel bietet. Ist gut benutzbar, aber nicht alles erschließt sich intuitiv. Ein wenig Handbuch lesen oder youtube gucken muss sein.
  • inkscape - Mit inkscape bin ich nie richtig warm geworden, aber für ein paar Vektorgrafiken, die ich mal brauche, funktioniert es. Und das auch schon seit 10 Jahren.
  • cdburnerxp - Ist eher eine Notlösung zum Brennen von CDs. Gab immer wieder Probleme auf unterschiedlicher Hardware. Aber es bleibt weiterhin eine schlanke und einfache Lösung, um mal eben eine CD oder DVD zu brennen. Wobei CD und DVD für mich nur noch selten mal nötig sind.
  • greenshot - Hab ich immer wieder mal für Screenshots genutzt und das auch schon seit 10 Jahren. In den letzten 3 Jahren vom wesentlich komfortableren Snagit ersetzt, was allerdings Lizenzkosten verursacht. Wenn es funktioniert, ist Snagit sehr gut. Auf mancher Hardware gibts öfter mal Hänger und Stress.
  • notepad++ - Ein freier Wald- und Wiesen-Texteditor, den es nun auch schon viele Jahre gibt. Der hat bei mir vor 10 Jahren den Textpad abgelöst, für den ich keine Lizenzgebühren mehr zahlen wollte.
  • yed - Eine Software, um Flussdiagramme oder Ähnliches zu zeichnen. Gibts auch schon einige Jahre und wird stabil weiterentwickelt. Konzeptionell etwas eingeschränkt in den Möglichkeiten, aber was drin ist, lässt sich recht komfortabel bedienen. Nutze ich aber nur gelegentlich mal, weil nicht so viele Flussdiagramme anfallen.
  • putty - Als ssh-client kann der alles, was ich brauche und läuft nun auch schon seit 15 Jahren.
  • filezilla - Als ftp-Client tut er seinen Dienst vernünftig seit bestimmt 15 Jahren.
  • turbocad - Nutze ich bisher ausschließlich als 2D-CAD-Programm. An die Bedienung hab ich mich gewöhnt und kann damit recht schnell Zeichnungen erstellen. Und das jetzt auch schon seit 8 Jahren. Was nervt, sind die schnellen Produktzyklen - jedes Jahr eine neue Version. Angeblich soll sich dabei das Dateiformat immer mal wieder ändern, so dass man irgendwann mal Probleme bekommt, ältere Dateien zu öffnen. Das ist nicht gut für Langlebigkeit der Daten. Ich arbeite immer noch mit einer 5 Jahre alten Lizenz, das werde ich aber wohl noch bis zum Windows 7 Ende 2020 tun. Vorteil ist, dass man 2-3 Jahre alte Versionen meist für sehr wenig Geld bekommt (100-200 Euro).
  • Windows 7 - Funktioniert grundsätzlich stabil. In der Wartung nerven so einige Dinge gewaltig, die auch nie verbessert wurden. Aber grundsätzlich eine gute und langlebige Basis, die jetzt auch schon 8 Jahre alt ist. Viele Unternehmen arbeiten weiterhin mit Windows 7. Warum sollte man umstellen? Für den Arbeitsalltag ergeben sich durch Windows 10 keine wirklichen Verbesserungen. In der Wartung gibts zwar einige Dinge, die verbessert wurden, aber auch zahlreiche Dinge, bei denen man nur schreien könnte. Windows ist und bleibt eine Hassliebe. Man muss es nehmen, weil es oft keine Alternative gibt. Warum es Microsoft seit 20 Jahren nicht gelingt, gerade die Basics mal wirklich rund zu machen, ist mir schleierhaft. Langlebig sind vor allem die rudimentären Bugs. ;-) Vermutlich traut sich kein Entwickler mehr an diesen Code heran, der vor 20 Jahren mal geschrieben wurde.
  • PmWiki - eine Wikisoftware, die ich in zahlreichen Zusammenhängen nutze, auch als Basis für diese Homepage. Ich hatte damals sehr gehofft, mit PmWiki eine langlebige Lösung zu finden. Und in dieser Hinsicht bin ich nicht enttäuscht worden. PmWiki wird weiterhin aktiv gepflegt und läuft super stabil. Ich bin auch sehr froh, dass die Entwicklung eher langsam und kontinuierlich läuft und es keine großen Feature-Sprünge mehr gibt. Denn das macht immer wieder viel Arbeit in der Wartung. So gibt es die Version 2.2.x nun auch schon seit 8 Jahren, wobei alle paar Monate trotzdem ein kleines Update kommt.
  • SMF Forum - Hab ich vor 5 Jahren als Ersatz für das sehr verbreitete phpbb ausgewählt. Das phpbb war von der Codebasis einfach nur gruselig. Das macht die Wartung sehr zeitintensiv. SMF läuft klaglos und wird ordentlich gepflegt. Das Admin-Interface empfinde ich als unnötig kompliziert und wenig intuitiv strukturiert. Wie oft hab ich mir da schon einen Wolf gesucht. Aber egal, irgendwann weiß man, wo man was findet oder hat einen kleinen Spickzettel.
  • ScribblePapers - Eine Freeware, die nur von einem Entwickler gepflegt wird ist kritisch, was Langlebigkeit angeht. ScribblePapers hat es geschafft. Ich nutze diesen hierarchisch orientierten Informationsmanager seit bestimmt 15 Jahren. Er ist einfach zu bedienen und funktoniert robust. Wenn ich mich in Linux oder andere komplexe Systeme einarbeite, muss ich jede Menge dokumentieren. Da braucht es auch hierarchische Strukturierungsmöglichkeiten, um alles schnell wiederzufinden und logisch voneinander abzugrenzen. Ich hab mittlerweile bestimmt 30 solcher Informationssammlungen. Freunde nutzen es auch ganz gerne als universellen Zettelkasten, wo man alle möglichen Informationen sammelt.

24.12.2016 :: Wo überall persönliche Daten drinstecken...

Ich nutze die Jahresendzeit gerade dazu, alles Mögliche wegzuschmeißen. Gestern hab ich 2 alte Drucker zum Elektroschrott gebracht. Dabei ist mir aufgefallen, wie kritisch solche Geräte bei der Entsorgung sind. Die enthalten nämlich persönliche Daten.

Genaugenommen beunruhigt mich da das WLAN-Passwort, was noch im Gerät steckt. Kombiniert mit meiner Adresse, die im Faxgerät noch drinhängt, gibts auch gleich eine geographische Zuordnung, wo der WLAN-Router zu finden ist.

Nun hätte ich ja das Gerät einfach auf Werksreset zurücksetzen können. Aber diese blöden Canon Tintenstrahldrucker, die alle 2-3 Jahre ihren Dienst einfach so einstellen, sind blockiert. Sie funktionieren eigentlich noch vollständig. Aber die Software spuckt nur noch einen Fehlercode aus und will einen nicht mehr in die Menüs lassen. So hat man keinerlei Chance mehr, das Gerät zurückzusetzen oder diverse Infos zu löschen.

Auch die Möglichkeit, irgendwelche Permanentspeicher auszubauen, gibts bei solchen Geräten nicht. Die Chancen stehen sehr schlecht, gespeicherte persönliche Daten vom Gerät zu bekommen. Da bleibt mitunter nur, sein WLAN-Passwort im Netzwerk auf allen Geräten zu ändern, will man zumindest dieses Problem umschiffen.

Eine etwas schwächere Vorsichtsmaßnahme wäre die mechanische Zerstörung der Geräte, damit man es möglichen Angreifern nicht ganz so einfach macht. Irgendwann ist Aufwand und Nutzen in so einem ungünstigen Verhältnis, dass es keinen Sinn mehr macht, an die Daten zu gelangen. Die gezielte Zerstörung der datenspeichernden Chips ist bei einem Drucker leider kaum möglich. Dazu müsste man das ganz Gerät zerlegen und wissen, welcher der vielen Chips die Daten speichert.

Es gibt viele weitere Geräte, die bei der Entsorgung mit sensiblen Daten gefüllt sind: USB-Sticks, Festplatten, Digitalkameras, Smartphones, Laptops, Anrufbeantworter, Navigationsgeräte und neuerdings die ganzen vernetzten Dinge, die man so im Haushalt hat. Und fast überall ist es schwierig, persönliche Daten sicher zu entfernen. Perfide wirds auch, wenn einem Sicherheit vorgegaukelt wird. Wenn das Handy nach dem Werksreset trotzdem noch sensible Daten enthält, an die Hacker drankommen können. Oder wenn formatierte Festplatten eigentlich die Daten gar nicht löschen. Und defekte Geräte kann man erst gar nicht löschen, sind aber für Hacker noch leicht auslesbar.

Als einzige Chance bleibt oft nur die mechanische Zerstörung. So habe ich schon häufig defekte Festplatten zerlegt, die Magnetscheiben ausgebaut und diese dann mit kräftigen Dauermagneten gelöscht und mechanisch zerkratzt. Die Scheiben werden dann am besten zu einem anderen Zeitpunkt entsorgt, als die restliche Festplatte, um auch die Zuordnung zu erschweren. USB-Sticks hab ich auch schon öfter mit Hammer und Meißel zerstört.

Thermische Zerstörung wäre auch ein günstiger Weg, aber wegen der entstehenden Schadstoffe privat kaum umsetzbar.

Geschäftlich bekommt die Sache nochmal ganz andere Dimensionen. Wenn hier ein Firmennetz bedroht ist, weil jemand unachtsam einen Drucker weggeworfen hat, kanns heftige Probleme geben. Von daher gehören Entsorgungs-Richtlinien unbedingt mit ins Sicherheitskonzept und sollte auch dokumentiert werden. Für jedes Gerät muss ein sicherer Entsorgungsweg gefunden werden. Eine unkontrollierte Entsorgung ist ein großes Sicherheitsrisiko. Und bei verlorenen bzw. gestohlenen Geräten muss natürlich auch immer analysiert werden, welchen Schaden sie im Worst-Case anrichten können. Das solche sicheren Entsorgungswege ordentlich Kosten verursachen, sollte man auch im Auge behalten.

Bisher fehlt im privaten wie im geschäftlichen Umfeld oft noch ein Bewusstsein für diese Gefahr, die von alten Geräten ausgeht.

22.10.2016 :: Fenster - bleib offen!

Was man im Auto mittlerweile alles an ausgeklügelter Technik hat. Doch in anderen Bereichen scheint die Entwicklung stehen zu bleiben. Eine nervige Sache, die ich schon so oft erlebt habe: Man möchte sein Zimmer lüften, aber das Fenster fällt immer wieder zu. Die kaufbaren Fensterklammern sind da eher eine unbefriedigende Lösung. Warum kann ein Fenster nicht so gebaut sein, dass es in jeder Stellung einfach stehen bleibt?

Ich hatte letzens in einem Krankenhaus ein Fenster benutzt, was genau das hatte. Es ging etwas schwerer auf, man musste also gegen einen Widerstand arbeiten. Es blieb dafür genau dort stehen, wo man es hinpositionierte. Grund war ein Teleskopgestänge, was bremsende Wirkung hatte.

Auf der Suche nach so einem Teil, was sich universell an jedes Fenster montieren lässt, wurde ich bei Axa fündig. Diese Fensterfeststeller gibts für ungefähr 25-30 Euro und sie passen an nahezu jedes Fenster.

Ich hab die heute montiert und sie funktionieren wirklich hervorragend. Sie sehen relativ einfach aus, wirken aber solide. Die Bremskraft lässt sich einstellen. Die Montage dauert ungefähr 15 Minuten pro Fenster. In die Fenster und in den Rahmen müssen dafür ein paar Löcher gebohrt werden. Montagematerial wird nicht mitgeliefert, es braucht ein paar sehr kurze Senkschrauben (Spax oder Blechtreibschrauben).

Man kann diese Feststeller unten wie oben am Flügel montieren. Oben fand ich intuitiv günstiger, weil sie da weniger stören. Die Kippfunktion des Fensters funktioniert damit auch noch. Der Vorteil oben ist zusätzlich, dass im gekippten Zustand auch eine Bremswirkung vorhanden ist, Fenster so also auch hier nicht so schnell zuschlagen.

Das Lüften ist jetzt ein Kinderspiel: Man öffnet und schließt wie bisher, kann sich jetzt aber darauf verlassen, dass das Fenster genau dort stehen bleibt, wo man es hinpositioniert. Auch dann noch, wenn es mal etwas zieht.

Weblinks:

27.09.2016 :: Zahnbürste - welche Härte?

Welche Härte sollte eigentlich eine Zahnbürste haben? Ich hatte mal eine Zahnärztin, die empfohl mir weiche Bürsten. Meine Erfahrung damit war aber nicht gut. Und das hatte rein physikalische Gründe.

Selbst wenn ich damit 5 Minuten putzte, die Zähne fühlten sich stumpf an, was immer auf Zahnbeläge hindeutet. Auch wenn ich mit einem Scaler mal über die Zähne ging, konnte ich weiche Beläge herunterkratzen. Ich hab das über die Jahre immer wieder aufmerksam beobachtet und kann bei mir definitiv sagen: Weichen Bürsten gelingt es nicht, die Zahnbeläge hinreichend herunterzubürsten. Diese Beläge haften besser, als ich vermutet habe. Weiche Bürsten gleiten dann nur über den Belag, ohne ihn abzutragen. Ich versuchte dabei unterschiedlichste Putztechniken und auch unterschiedliche Andruckkraft.

Besonders an den Schneidezähnen kann ich den Reinigungseffekt gut beobachten. Hier spürt man gut, ob die Zähne sauber werden. Das gelingt natürlich nur dann, wenn sich nicht schon Zahnstein gebildet hat. Hier haben die weichen Beläge sich nämlich dann schon in einen harten Belag umgewandelt, den man definitiv nicht mehr mit Zahnbürste herunterputzen kann. Hier hilft dann nur noch eine professionelle Zahnreinigung.

Warum sollte der Zahnbelag überhaupt regelmäßig runter? Zahnbeläge sorgen für eine stark poröse Zahnoberfläche, in die sich jede Menge Bakterien einnisten können. Diese können dann Karies und Parodontitis verursachen. Gerade die Gefahr von Parodontitis wird heute noch oft unterschätzt.

2009 wurde wissenschaftlich an der Uni Witten/Herdecke bestätigt, das weiche Bürsten nur eine schlechte Reinigungswirkung haben: https://www.test.de/Zaehne-putzen-Hart-oder-zart-1816471-0/

Jetzt gibts allerdings einen Haken: Man kann nicht sagen, je härter, um so besser. Mit harten Zahnbürsten macht man sich schnell das Zahnfleisch kaputt bzw. sorgt für Zahnfleischreizungen. Die sind auf Dauer auch nicht gesund. Ich kenne auch jemanden, der hat sich richtige Riefen in die Zähne geschruppt. Gerade wenn die Putztechnik nicht stimmt, können harte Zahnbürsten auch gefährlich sein.

Ich denke, die beste Möglichkeit ist, herauszufinden, wie hart die Bürste sein muss, damit Beläge recht sicher heruntergeputzt werden können. Ich komme in der Regel mit einer mittleren Härte gut klar.

Jetzt nutze ich aber noch einen Trick: Ich hab noch eine harte Zahnbürste, die ab und zu zum Einsatz kommt, um ein paar hartnäckige Beläge wegzuputzen. Die ist auch gut, um Essensreste aus den Zähnen zu putzen. Das gelingt nämlich mit weichen Bürsten auch nicht gut.

Daneben habe ich eine weiche Bürste. Die nutze ich morgens, weil es (nach meinen Infos) reicht, wenn man einmal am Tag Beläge runterbürstet. Die brauchen sowieso einige Zeit, bis sie sich bilden. Auch für zwischendurch nach dem Essen nutze ich gerne die weiche Bürste, um Zahnfleisch und Zähne nicht sinnlos zu belasten. Das klappt natürlich nur, wenn keine hartnäckigen Essensreste in den Zähnen hängen.

Bei elektrischen Zahnbürsten gibts teilweise auch unterschiedlich harte Aufsätze. Gibts die nicht, muss man auch hier checken, ob die verfügbaren Bürsten überhaupt geeignet sind, sicher zu reinigen. Wenn nicht, brauchts eine andere elektrische Bürste. Schallzahnbürsten haben einen interessanten Vorteil: Die Bürsten sind in der Regel relativ weich. Damit ist die Verletzungsgefahr für das Zahnfleisch gering. Durch die hohe Frequenz, mit der sie schwingen, schaffen es diese Bürsten trotzdem relativ gut, Beläge zu entfernen. Schallzahnbürsten können also ein guter Kompromiss sein, wenn man schon geschädigte Zähne oder empfindliches Zahnfleisch hat. Getestet hab ich das mit einer Philips Sonicare. Trotzdem fand ich die Entfernung von Belägen bei den klassisch rotierenden elektrischen Bürsten (Oral-B) überzeugender.

03.09.2016 :: Mit was reinigt man Computer- und Flachbildschirme?

Es gibt teure Spezialreiniger für Flachbildschirme, die noch dazu nur schwer in Geschäften zu bekommen sind. Doch es gibt auch einen sehr preiswerten Reiniger, der in fast jeder Drogerie und jedem Supermarkt zu bekommen ist: Sidolin Multi-Flächen.

Auf den Zusatz "Multi-Flächen" kommts dabei besonders an. Sidolin ist eine recht bekannte Marke und steht für Glasreiniger. Fast alle Glasreiniger sind aber eben nicht für Flachbildschirme geeignet!!! Das steht auch fast immer auf den Anwendungshinweisen auf der Verpackung. Der Grund: Sie enthalten Alkohole, die für transparente Kunststoffe auf Dauer schädlich sind.

Sidolin Multi-Flächen ist der einzig mir bekannte Sprühreiniger, der explizit für Flachbildschirme freigegeben ist (und der fast überall verfügbar ist).

Mit knapp 2 Euro für 500ml ist es zudem sehr preisgünstig.

Natürlich kann man mit diesem Reiniger auch vorzüglich alle Technik wunderbar reinigen: Telefone, Tastaturen, Computergehäuse, Drucker, Kopierer. Grundsätzlich lassen sich alle glatten Flächen damit reinigen.

WICHTIG: Sprühen sollten man nicht direkt auf die Geräte. Der Grund: Damit kann der Reiniger durch kleine Öffnungen in die Geräte eindringen. Das kann die Elektronik zerstören. In der Regel sprüht man also auf ein Tuch auf und reinigt dann mit dem die Oberfläche.

Welches Tuch? Für TFT-Bildschirme empfiehlt sich ein sauberes Glas-Mikrofasertuch. Grundsätzlich tun es auch Küchenrollen. Wer damit aber oft glänzende Oberflächen reinigt, kann sich damit Kratzer einfangen. Das liegt an der Härte des Papiers. Ähnlich kann es aber auch mit verschmutzten Mikrofasertüchern passieren: Wenn sich harte Staubkörner darin verfangen haben. Mikrofasertücher lassen sich problemlos in der Waschmaschine waschen. Hier darauf achten, keinen Weichspüler zu verwenden. Die meisten Tücher lassen sich bis 60 Grad waschen.

19.07.2016 :: Wenn wichtige Infos untergehen...

Jetzt hab ich es gleich 3 mal hintereinander erlebt: Zuerst waren es meine Blutwerte, wo ein wichtiger Wert aus dem Rahmen fiel. Normal werden alle Werte, die nicht im Normbereich sind, hervorgehoben. So kann jeder Arzt sich schnell auf die Werte konzentrieren, die problematisch sind. Der Arzt, der dieses Blutbild gemacht hatte, sagte mir, alles in Ordnung. Mehrere weitere Ärzte schauten kurz drüber und meinten auch, alles soweit ok.

Dann setzte ich mich mal selber hin und ging alle Werte auf dem A4 Blatt einmal durch. Und da fand ich dann den einen Wert, der nicht im Referenzbereich ist. Der war aber nicht hervorgehoben. Das ist schon sehr merkwürdig. Alle Blutergebnisse von diesem Arzt werden grundsätzlich nur aufgelistet, ohne irgendwas hervorzuheben.

Da waren dann auch andere Ärzte verblüfft, als ich im Nachhinein nochmal sagen konnte, dass hier doch ein Wert nicht im Limit ist. Die Ärzte, die ich erlebt habe, haben überhaupt nicht die Zeit, genauer jeden Wert durchzugehen und sie haben eine andere Erwartungshaltung. Über so eine simple Fehlsicht gehen doch tatsächlich wichtige Informationen verloren. Die wichtige Information hat sich einfach in der Fülle der restlichen, irrelevanten Information versteckt und wurde auch gar nicht erst gesucht, weil sowas nicht erwartet wurde.

Bei gesundheitlichen Themen ist das natürlich besonders fatal. Es zeigt, wie man trotz einer Vielzahl von Informationen nicht das Eigentliche erkennt.

Mittlerweile ist das in meinem Bekanntenkreis schon 3 mal so ähnlich passiert. Auch hier auffällige Blutwerte, die von keinem Arzt erkannt wurden. Erst als sie mit dieser selbst erkannten Information zum Arzt sind, wurde reagiert.

Hier zeigt sich auch schön, wie eine kleine Fehlentscheidung auf der Ebene der Softwareentwicklung zu einem fatalen Problem in der Praxis führt. Vielleicht hat man schon bei tausenden Menschen wichtige Informationen übersehen, die für die Gesundung wichtig gewesen wären? Vielleicht waren ein paar Softwareentwickler unter Zeitdruck und haben deshalb so eine Hervorhebung problematischer Blutwerte nicht eingebaut? Oder vielleicht hat ein Verantwortlicher leichtfertig die Entscheidung getroffen, so etwas nicht zu brauchen?

Eine andere Konsequenz, die man daraus ziehen kann: Auch wenn man selber kein Arzt ist, man kann für ein gutes Informationsmanagement sorgen. Man kann selber die Blutwerte durchgehen und alles unterstreichen, was aus dem Rahmen fällt. Es gibt viele weitere Ebenen, wo man für den Arzt Informationen gut aufbereiten kann. Ich hab da mittlerweile auch schon mehrfach positive Rückmeldung bekommen, dass Ärzte sich richtig gefreut haben, so gut vorbereitete Informationen zu bekommen. Gerade bei chronischen Erkrankungen mit längerem Krankheitsverlauf ist das wichtig.

Schlussendlich kann ein Arzt all seine Schlüsse nur aus dem ziehen, was er an Information erkannt und verstanden hat. Wenn man dann noch weiß, dass die meisten Ärzte den Patienten keine 30 Sekunden reden lassen, bis sie das erste Mal unterbrechen, wird klar, wie gut man organisiert sein muss.

13.07.2016 :: Vorsicht vor Vergleichs-Homepages

In letzter Zeit scheinen die wie Pilze aus dem Boden zu sprießen: Homepages, die sich mit dem Vergleich eines Produktes beschäftigen. Man sucht z.B. einen neuen Kompressor und landet auf einer Seite, die sich kompressor-vergleich-xyz.de nennt. Dem Benutzer wird es da einfach gemacht, meist gibts 5-15 Produkte, die verglichen werden und einige wenige machen das Rennen. Liest man sich die Texte zu den Produkten durch, merkt man oft, dass das Werbeleute ohne Ahnung von der Technik geschrieben haben. Wer die Homepage betreibt und welche Ziele dieser jenige damit verfolgt, erschließt sich oft nicht.

Der eigentliche Sinn solcher Homepages ist natürlich fast immer, dass es um die Vermarktung bestimmter Produkte geht. Also schlicht Werbung, die überhaupt nichts über Produktqualität aussagt. Die Täuschung liegt in scheinbaren Tests, für die viele Menschen empfänglich sind. Die Stiftung Warentest hat sicher dazu beigetragen, dass man Tests viel Vertrauen schenkt. Im Internet ist das aber anders, da sind die meisten Tests nichts weiter als Marketing.

Fazit: Solche Seiten sollte man schnellstens wieder verlassen, hier ist keinerlei Erkenntis zu erwarten. Gleichzeitig besteht die Gefahr, dass man doch Vertrauen in Geräte entwickelt, die keine gute Wahl wären.

Der beste Hinweis zu brauchbaren Produkten erscheint mir derzeit immer noch die Amazon-Rezension. Aber natürlich wird hier auch viel manipuliert und es entstehen unschöne Effekte. So werden schnell einige wenige Produkte hochgepusht, weil alle wie die Lemminge dem bestbewerteten Produkt folgen und es kaufen. Viele andere Produkte, die vielleicht sogar besser sind, bekommen keine Chance. Zudem gibts eben viele gute Produkte auch gar nicht erst bei Amazon. Oder es sind Produkte, die typischerweise nicht über Amazon gekauft werden und dann dort auch nicht bewertet sind.

Kleiner Tipp zu den Amazon-Rezensionen: Besonders die 3 Sterne-Bewertungen finde ich interessant, weil die selten manipuliert sind und weil die sowohl gute wie auch schlechte Seiten eines Produktes aufgreifen. Insofern sind sie auch weniger emotional gefärbt und objektiver. Und dann schaue ich mir auch immer das Verhältnis gute zu schlechte Bewertungen an. Es gibt zahlreiche 4-Sterne Produkte, die aber trotzdem viele 1-Sterne Bewertungen haben. Das macht verdächtig, da muss man sich dann mal genauer durchlesen, warum die schlechten Bewertungen gegeben wurden.

Auch wenn sich bei Amazon-Rezensionen viel manipulieren lässt: Hat ein Produkt klar definierbare Mängel, werden echte Kunden davon berichten und das lässt sich nur schlecht wegmanipulieren.

02.07.2016 :: Thermoablation Schilddrüse

Knoten in der Schilddrüse sind keine Seltenheit. In der Regel werden die operativ entfernt, was natürlich ein erheblicher Eingriff ist. Mitunter wird auch die ganze Schilddrüse herausgenommen, was dann wieder lebenslange Einnahme von Schilddrüsenhormonen bedeutet. Irgendwie finde ich es ja immer gut, wenn man möglichst zurückhaltend in das System Körper eingreift.

Heiße Knoten sind solche, die selber ungeregelt Schilddrüsenhormon produzieren. Diese konnte man bisher ganz gut mit einer Radio-Jod-Therapie behandeln. Dabei wird radioaktives Jod in den Körper eingebracht, was sich dann fast ausschließlich in diesen Knoten ansammeln. Man zerstört diese also durch Radioaktivität. So optimal ist das aber auch nicht, weil es eine gewisse Strahlenbelastung ist.

Seit wenigen Jahren gibt es jetzt eine neue technische Art, diese Knoten abzubauen: Die Thermoablation. Das funktioniert technisch recht simpel: Man geht mit einer Nadel bis ins Zentrum des Knotens. Und dann fungiert diese Nadel an der Spitze als Mikrowellenstrahler. Das umliegende Gewebe wird bis auf 60-80 Grad erhitzt und stirbt so ab.

Damit das gut funktioniert, muss man die Nadel natürlich erstmal möglichst genau positionieren. Das funktioniert mit Ultraschall ganz gut. Die Nadel wird rechts oder links vom Kehlkopf über einen ganz kleinen Schnitt eingeführt. Und mit dem Ultraschallkopf hat man eine Sicht, wo man die Nadel hinschiebt. Ist sie erstmal richtig positioniert, braucht es eine definierte Mikrowellenbestrahlung. Im Ultraschall kann man weiterhin beobachten, wie das Gewebe sich um die Wärmequelle verändert. So hat man auch ein Indiz dafür, wann es genug ist und die Mikrowelle unterbrochen wird. Die Nadel bzw. Sonde wird auch meistens gekühlt, damit sie durch die Eigenerwärmung nicht umliegendes Gewebe zerstört.

Obwohl das Verfahren eigentlich technisch gesehen relativ simpel und wirksam ist, gibt es diese Form der Behandlung erst seit wenigen Jahren in Deutschland. Führend auf dem Gebiet ist die Uniklinik Frankfurt, wo auch das Deutsche Zentrum für Theromablation für Schilddrüsenknoten angesiedelt ist.

Ich hatte Gelegenheit, mir das Vorort mal anzuschauen. Als mir eine Bekannte erzählte, dass sie das machen lässt, interessierte mich das technisch, so dass ich mitgefahren bin. So konnte ich Dr. Korkusuz mal über die Schulter schauen und alles direkt miterleben. Eigentlich ist das ja schon sehr erstaunlich, dass ein technisch doch so überschaubares Verfahren erst jetzt hier zum Einsatz kommt. Denn die Vorteile sind doch erheblich. Man spart sich Operation und auch radioaktive Strahlenbelastung.

Leider ist dieses Verfahren selbst unter Fachärzten (Endokrinonologen) noch wenig bekannt. Und selbst wenn sie es kennen, wird es selten als eine Alternative erwähnt. Selbst in Gesundheitssendungen im Fernsehen hört man bisher noch wenig dazu. Meine Bekannte war insgesamt bei 4 Fachärzten und keiner hat von sich aus die Thermoablation als Möglichkeit überhaupt erwähnt. Erst durch einen Fernsehbericht ist sie darauf aufmerksam geworden.

Das Ergebnis war übrigens positiv. Der heiße Knoten war bereits nach der ersten Ablation auf 1/6 des Volumens geschrumpft und der Wert des TSH-Hormons war wieder im Normbereich.

Weblinks:

19.06.2016 :: Interessante Logikfallen

Letztens erzählte mir eine Kollegin, dass ihr ein Stück vom Zahn abgebrochen ist. Dann sagte sie, dass das natürlich immer dann passiert, wenn sie Schokolade oder Nüsse isst. Die Schlussfolgerung war dann, dass es genau daran liegt und man diese Lebensmittel eher meiden müsse.

Wenn man sich das genauer betrachtet, ist das eine Logikfalle. Ja, es stimmt, dass Zähne und Füllungen gerne genau dann kaputt gehen, wenn man etwas Hartes isst. Meine Zahnärztin brachte es aber einmal so auf den Punkt: Was in solchen Momenten kaputt geht, war eh schon stark geschädigt. Und genau so ist das auch. Ein intakter Zahn kann problemlos mit Nüssen umgehen. Erst ein Zahn, der im Grunde schon kaputt ist, bricht dann endgültig, wenn er etwas mehr belastet wird. Es ist ein Trugschluss, dass Zähne länger halten, wenn man z.B. keine Nüsse mehr isst. Oder zumindest liegt der Trugschluss darin, aus der Beobachtung eines brechenden Zahnes darauf zu schließen, dass diese Nuss die Ursache war. Der Zahn wäre eine Woche später auch beim Essen von Kartoffelbrei abgebrochen.

Im Wald ist es ähnlich: Bei einem mittleren Sturm brechen die Bäume und Äste, die sowieso schon massiv geschädigt sind. Gäbe es keine Stürme, würden diese Bäume vielleicht noch 1-2 Jahre länger stehen, aber dann würden auch bei Windstille ständig Bäume umfallen, wenn wir durch den Wald gehen. Der Wind hat hier den positiven Effekt, die schon stark geschädigten Bäume umzuschmeißen. Das verringert das Risiko, dass bei wenig Wind die Bäume um- und uns auf den Kopf fallen.

Beim Auto ist es auch so: Geschädigte Teile gehen dann endgültig kaputt, wenn man das Auto etwas fordert. Das kleine Schlagloch war nicht die Ursache für den Federbruch, sondern es hat der geschädigten Feder den Rest gegeben. Und ein Reifen, der platzt, wenn man 0,5bar mehr drauf gibt, muss auch schon massiv vorgeschädigt gewesen sein und hätte sich auch so bald verabschiedet.

Das große Problem ist, dass wir durch solche Trugschlüsse jede Menge Fehlentscheidungen treffen und falsche Konsequenzen daraus ziehen. Im Computerbereich erlebe ich das immer wieder mal. Da werden dann z.B. keine Icons mehr auf dem Desktop gelöscht, weil davon mal der Rechner abgestürzt ist. Oder die Steckdosenleiste wird nicht mehr abgeschaltet, weil man irgendwann mal einen Rechner hatte, der seine Uhrzeit verloren hat (leere Stützbatterie des Uhrzeit-Chips). Oder Backups werden selten auf USB-Sticks gemacht, weil man mal einen hatte, der nach 10 Schreibvorgängen defekt war. Überall geht es hier um die falsche Verknüpfung von Ursache und Wirkung.

Je weniger Wissen man von einer Materie hat, um so größer ist auch die Gefahr, falsche Schlüsse zu ziehen. Wissen kann einen davor bewahren, falsche Schlüsse zu ziehen, weil wir durch das Wissen einen Widerspruch spüren: Ich entwickle einen Zusammenhang, aber nach meinem Wissen kann das gar nicht sein oder ist unwahrscheinlich. Dann fange ich an, genauer darüber nachzudenken.

Es lohnt sich, achtsam und kritisch mit Ursache-Wirkungs-Vorstellungen umzugehen. Software-Entwickler haben die Angewohnheit, beim Auftreten von Fehlern nach Bedingungen zu suchen, wie man diese Fehler reproduzieren kann. Anstatt sich also ängstlich dafür zu entscheiden, etwas besser nicht mehr zu tun, tut man es absichtlich, um seine Vermutung zu überprüfen. Und erst dann, wenn es mehrfach reproduzierbar ist, ensteht mehr Sicherheit, dass hier ein harter Zusammenhang besteht. Diese Haltung hat mir schon oft im Alltag geholfen, falsch vermutete Zusammenhänge aufzudecken.

22.05.2016 :: Projektplanung - Software

In den letzten 20 Jahren kam die Idee immer mal wieder auf: Nutz doch mal eine Projektplanungs-Software. Also sowas mit Gantt-Diagrammen. Ich erinnere mich noch daran, wie wir vor 20 Jahren im Hype der Zeitplanbücher sowas von Hand gemalt haben. Ging auch irgendwie, war aber gerade bei Zeitverschiebungen sehr unpraktisch. Dann musste man viel rumradieren. Folglich hat man sie nur noch in aufwändigeren Projekten genutzt.

Mein Alltag ist so, dass ich Projektplanung nicht regelmäßig brauche. Die alltäglichen Aufgaben organisiere ich mir mit Taskcoach und Todoist.

Es gibt aber immer wieder auch Ausnahmen. Projekte, wo zahlreiche Leute involviert sind, der Zeitplan eng wird und vieles koordiniert werden muss. Projekte, wo zahlreiche Aufgaben und Vorgänge voneinander abhängen - ist das eine nicht erledigt, kann das andere nicht begonnen werden.

Ich wollte mich ja immer mal in MS-Project einarbeiten, aber für ab und zu erscheint mir das reichlich kompliziert und ich arbeite auch in ehrenamtlichen Bereichen, wo kein Geld für Lizenzen da ist.

Jetzt war wieder so ein Projekt da, wo eine einfache "Gantt-Software" gut wäre. Ich hab mich also mal wieder auf eine kurze Recherche gemacht.

Recht schnell bin ich auf ein sehr ansprechendes Projekt gestolpert: GanttProject

Nach dem Download hab ich mal 30 Minuten mit rumgespielt und war sehr positiv von angetan. Genau das, was in mein Suchraster reinpasst: Sehr einfach zu bedienen, alle Funktionalität ist gut überschaubar, scheint auch flüssig und relativ fehlerfrei zu laufen. Das Projekt wird auch aktiv weiterentwickelt.

Das Wichtigste war mir eine gute Übersicht mittels Gantt-Diagramm. Das geht sehr gut. Schön ist, dass hier auch hierarchische Vorgänge/Aufgaben definiert werden können. Abhängigkeiten lassen sich definieren, Meilensteine ebenso. Der Umgang damit ist schnell gelernt. Die Benutzeroberfläche ist durch Java nicht Windows nativ, aber man gewöhnt sich schnell daran. Trotz Java startet die Anwendung relativ schnell und ist auch sonst nicht sonderlich träge.

Toll auch die Ausgabemöglichkeiten: Man kann drucken, direkt eine pdf erzeugen und auch HTML-Seiten generieren. Das finde ich besonders spannend, kann man so doch schnell die Projektplanung ins Intranet oder Internet stellen. So erhalten alle Beteiligten schnell einen Überblick auf jedem internetfähigen Endgerät auch ohne Installation von Software.

Der Lernaufwand ist sehr niedrig. Bereits nach 30 Minuten kann man direkt mit seinem Projekt loslegen und einfache Gantt-Diagramme erstellen. Alles weitere lernt man schnell nebenbei bei der Planung eines Projektes. Auch hier ist es so, dass man für einfache Projekte nur einen Bruchteil der Funktionalität braucht.

Wer also demnächst mal ein Projekt beruflich oder privat planen will, dem kann ich Ganttproject als eine interessante kostenlose Möglichkeit empfehlen.

Weblinks:

01.05.2016 :: Plattenspielerkauf

Ich war auf der Suche nach einem Geburtstagsgeschenk. Ein Plattenspieler sollte es werden. Derzeit gibts ja einen gewissen Hype, mal wieder auf die gute alte Schallplatte zurückzugreifen. In Zeiten von Streamingdiensten verkümmern ein wenig die Sinne. Das Materielle der Musik - Cover, Tonträger, spezielles Abspielgerät - geht verloren. Und auch das Rituelle vermisst man - Platte auflegen, Tonarm absenken und dann kommt die schöne Musik.

Technisch gesehen gibts ein Problem. Brauchbare Plattenspieler zu bauen - das kann heute kaum noch jemand. Das ganze Know-How ist mit dem Sterben der Platten auch verloren gegangen. Nur ein paar ganz wenige Hersteller im High-End-Bereich haben überlebt.

Wobei es da noch eine Nische gibt: DJ's nutzen Plattenspieler auch weiterhin. Und so gibt es im professionellen Musikbereich auch noch einige DJ-Plattenspieler, auch englisch als Turntable bezeichnet. Ein Blick bei Thomann mit dem Suchbegriff turntable, und man findet da ernstzunehmende Geräte im Preissegment von 250-600 Euro.

Eigentlich sind ja heute die Ansprüche an Musikwiedergabe bei vielen nicht sonderlich hoch. Da wird schonmal Musik per Handylautsprecher gehört, da dürfte es doch vielleicht auch eines der Billiggeräte bei einem Plattenspieler tun. Da tummeln sich mittlerweile zahlreiche Anbieter mit nett aussehenden Geräten im Preissegment von 60-100 Euro. Das sind meist Geräte, wo auch gleich Verstärker und Lautsprecher mit eingebaut sind.

Nachdem ich aber zahlreiche Rezensionen bei Amazon gelesen hatte, war mir klar, dass hier so ziemlich alles Schrott ist.

Also dann doch wieder etwas hochwertiger geschaut. Hier gibts zahlreiche reine Plattenspieler als Hifi-Komponente ohne Verstärker und Lautsprecher. Meist dann auch mit USB-Anschluss zum digitalisieren alter Platten. Annehmbare Qualität scheint hier so ab 150 Euro anzufangen.

Zum Schluss blieben für mich 2 Geräte, die optisch und technisch sehr ähnlich sind: Der Audio-Technica AT-LP120-USBHC für 299 Euro und der Dual DTJ301 USB für etwa 190 Euro. Beide haben ein ordentliches Tonabnehmersystem, einen schweren Aluteller und ganz wichtig, eine Einstellung des Auflagegewichts des Tonarms. Beide sind im Wiederverkaufswert auch recht hoch. Die lassen sich mit 30% Verlust auch nach Jahren noch verkaufen.

Ich hab mich dann für den Dual entschieden. Der erste Eindruck ist wirklich gut. Alles wirkt solide, funktionial und wertig. Das Gerät lässt sich direkt an jeden Verstärker anschließen oder auch mit einem Adapterkabel an Computer-Lautsprecherboxen. Der Ausgang lässt sich von Phono auf Line umschalten. Weil die meisten modernen Geräte keinen Phonoeingang mehr haben, ist Line dann die korrekte Einstellung.

Was etwas schade ist: Er hat keinerlei Automatik. Beim Auflegen kein Problem, aber am Ende der Platte läuft der Teller einfach weiter und der Arm bleibt auf der Platte liegen. Aber wer Nostalgie möchte, der gewöhnt sich auch an dieses Ritual schnell, am Ende der Platte die Tonarm von Hand zurückzuführen. Von Dual gibts aber auch Geräte mit Halb- und Vollautomatik (z.B. CS415 oder CS435).

Bei Dual ist übrigens noch davon auszugehen, dass altes Know-How erhalten geblieben ist. Zwar wechselte die Marke unzählige Male den Besitzer, aber das Know-How und die Fertigungsstraße ging in den 90er Jahren an die Alfred Fehrenbacher GmbH über. Und diese hat bis heute die Produktverantwortung für zahlreiche Dual-Plattenspieler. Die werden heute vermutlich auch größtenteils in China fertigen lassen, aber altes Know-How dürfte hier wieder mit einfließen. Auch werden noch hochwertige Plattenspieler im Preissegment von 500-1200 Euro gefertigt.

Eins sollte aber klar sein: Was technisch in den 80er Jahren für vielleicht 150-300 DM angeboten wurde, ist heute im Preissegment bis 500 Euro nicht mehr zu finden.

Weblinks:

09.04.2016 :: Windows 10: Bildschirm falsch herum

Letztens fragte mich eine Bekannte verzweifelt, wie sie Ihren Bildschirm vom Laptop wieder richtig herum bekommt. Das Bild war aus unerfindlichen Gründen auf dem Kopf stehend.

Die Lösung war ganz einfach. Seit Windows 8 gibts wohl eine Tastenkombination, um den Bildschirm zu drehen. Richtig herum gehts mit strg+alt+Cursortaste unten. Mit den anderen Cursortasten kann man den Bildschirm in jede beliebige Position drehen.

Ob das sinnvoll ist, so eine fiese Funktion auf standardmäßig auf Tasten zu legen? Die wenigsten werden es brauchen. Die Verwirrung ist aber groß, wenn es versehentlich passiert. Meine Bekannte konnte so ihr Laptop 4 Wochen nicht mehr benutzen.

Ähnlich lustig wirds, wenn man bei Android-Handys versehentlich den Modus für Blinde aktiviert - aber das ist eine andere Geschichte...

03.04.2016 :: Fensterwartung

Jedes Mal, wenn ich im Urlaub bin, schaue ich mir die Fenster genauer an. Nahezu immer gibt es Wartungsmängel. Hauptthema ist fehlende Schmierung. In aller Regel werden Fenster einmal eingebaut und dann nie wieder irgendwie gewartet. Und das ist fatal. Fenster könnten wohl doppelt so lange halten, wenn man die Mechanik regelmäßig pflegt und sie ab und zu neu justiert.

Geschmiert werden müssen alle beweglichen Teile und überall dort, wo etwas aufeinander schleift. In der Regel findet man im Internet für diverse Fenster auch Wartungspläne.

Was nimmt man zur Schmierung? Wenn man lange nichts gemacht hat, braucht man ein Öl, was gut kriecht und so auch in die tiefer liegendenen Teile der Mechanik hinkommt.

Bekannte Kriechöle sind z.B. WD40 oder Caramba. Persönlich ziehe ich Ballistol vor, weil das nicht ganz so dünn ist und wenig Lösemittel enthält.

Diese kriechenden Öle haben aber auch den Nachteil, dass sie nicht lange halten. Sie kriechen überall hin weg und werden auch schnell abgewaschen oder in Kombination mit Schmutz vom Wind weggetragen. Wie auch immer, nach recht kurzer Zeit sieht man einfach, dass nichts mehr da ist.

Für die regelmäßige Wartung finde ich ein Öl besser, was nicht so dünnflüssig ist. Ich finde hier das Würth HHS 2000 oder Würth HHS 5000 sehr gut. Aus der Dose kommt es durch Lösemittel noch sehr dünnflüssig und zieht so gut in Spalten. Wenn das Lösemittel weg ist, wird es zu einem leicht klebrig wirkenden Öl, was nicht mehr wegfließt und nicht mehr kriecht.

Infos dazu:

Als Endverbraucher kommt man schlecht an Würth-Produkte, aber über Ebay kommt man sehr günstig dran. Die 500ml Dose gibts dort ab 6 Euro. Mein lokaler Händler verkauft nicht an privat, hätte aber auch 14 Euro für die Dose haben wollen.

An Schleifstellen, die offen liegen, ist ein noch dickeres Schmiermittel haltbarer, ebenso an den offen liegenden Schließköpfen. Ein sehr beständiges Fett ist Autol Top 2000, was man nur ganz dünn aufträgt. Dieses Universalfett ist auch klebrig-fädenziehend und wird recht schwer von Wasser abgewaschen. Man kann es auch für nahezu alle anderen Fälle im Haushalt (auch Fahrrad, KFZ) nutzen, wo etwas gefettet werden muss.

Wie oft muss gewartet werden? Je nach Nutzungsintensität alle 1-3 Jahre. Man erkennt es aber auch bei einer Inspektion, ob noch Schmiermittel auf den Schließköpfe ist.

Die Einstellung der Fenster ist auch wichtig. In der Regel findet man im unteren Scharnier eine Schraube, worüber man hängende Fenster, die unten schleifen, wieder etwas nach oben anheben kann. Infos dazu gibts auch hier zum Download beim Fensterhersteller. Im Zweifelsfall lässt man es durch eine Fachfirma machen.

03.04.2016 :: Nicht im Stand lenken...

Da war ich letztens auf dem Parkplatz eines Einkaufszentrums. Der Parkplatz war voll, da fährt ein Wagen aus einer engen Lücke. Super, die nehme ich. Nun musste ich etwas warten, bis der Wagen aus der Lücke raus war. Und da tat mir richtig weh, was ich sah.

Es gibt immer mehr Fahrer, die lenken im Stand. Die Kräfte, die hier auf das Lenkgetriebe und andere mechanischen Komponenten der Lenkung einwirken, sind sehr viel höher, als in Fahrt. Auch wenn der Wagen sich nur ganz langsam bewegt, entlastet man das Lenkgetriebe stark. Der Grund dafür ist simpel: Im Stand muss sich die Kontaktfläche des Reifens an einem Punkt zum Untergrund verdrehen. Hier wirkt dann die volle Gleitreibung, ähnlich wie bei einer Vollbremsung mit blockierten Rädern.

Das war früher eine Weisheit, die man noch selbstverständlich spüren konnte. Als es noch keine Lenkkraftverstärker gab, hat man das Lenkrad im Stand kaum bewegen können. Und mein Fahrschullehrer sagte mir auch sofort: "Nie im Stand lenken!".

Heute kann man das gar nicht mehr erspüren. Jedes Auto hat heute einen sehr leistungsstarken Lenkkraftverstärker, so dass man mit Leichtigkeit auch im Stand lenken kann. Man hat sozusagen keinerlei Feedback mehr, etwas sehr Zweifelhaftes zu tun. Man muss es einfach wissen.

Defekte Lenkgetriebe oder defekte Lager an der Vorderachse sind keine Seltenheit. Ich könnte mir vorstellen, dass das Lenken im Stand hier auch einen gewissen Anteil dran hat. Vor allem auch dann, wenn es sich um Autos handelt, die viel im Stadtverkehr unterwegs sind.

Wer also seine Wartungskosten reduzieren möchte, achtet am Besten darauf, immer erst dann zu lenken, wenn der Wagen zumindest ein klein wenig in Bewegung ist.

16.02.2016 :: Wie lange halten LED-Lampen?

LED-Lampen lösen ja immer mehr herkömmliche Glühlampen ab. In unserem Haushalt lösen sie auch immer mehr die herkömmlichen Energiesparlampen ab, die ja auf Leuchtstoffröhren-Technologie basieren.

Es gibt vor allem 2 Vorteile bei LED: Die volle Helligkeit ist sofort nach dem Einschalten verfügbar. Bei den herkömmlichen Energiesparlampen kann das 1-2 Minuten dauern. Und dann holt man sich auch kein gefährliches Quecksilber ins Haus.

Aber wie ist es mit der Haltbarkeit? Herkömmliche Energiesparlampen von Markenherstellern haben sich gut bewährt. Besonders die Leuchtmittel von Osram hielten bei uns in aller Regel 10 Jahre und länger. Die Technologie hatte man gut im Griff und technisch veränderte sich da auch kaum was.

Im LED-Bereich überschlagen sich die Entwicklungen. Da kann es viel schneller passieren, dass etwas schief geht und eine ganze Produktserie Probleme macht.

Mir ist jetzt die zweite E27 LED-Lampe kaputt gegangen. Die erste war gerade mal 3 Monate alt, die zweite jetzt nach 2 Jahren. Bei beiden handelt es sich um 10W Leuchtmittel vom Markenhersteller Osram. Das fand ich etwas enttäuschend, weil ich bisher mit Osram immer ganz gut gefahren bin. Ich vermute mal, dass es kein generelles Problem ist, sondern nur mit einer bestimmten Serie oder Charge zusammenhängt.

Beachten sollte man diese Probleme vor allem bei einem Trend, der immer mehr um sich greift: LED-Leuchten ohne auswechselbare Leuchtmittel. Fällt da was aus, kann man die ganze Decken- oder Schreibtischlampe wegwerfen. Die 10-20 Jahre Lebensdauer sind eben nur theoretischer Natur. Man muss hier auch sehen, dass man es mit relativ empfindlicher Elektronik zu tun hat, die energiereiche Überspannungsimpulse im Netz nicht mag. Blitzeinschläge (auch entferntere) oder induktive Lasten können hier für frühem Lampentod sorgen.

09.02.2016 :: Fataler Bug Ixus 265 Digitalkamera

Seit einem Jahr hab ich eine kleine Canon Ixus 265 HS immer dabei. Für ein paar Schnappschüsse unterwegs reicht die vollkommen aus.

Jetzt hatte ich schon zum zweiten Mal ein doofes Problem: Akku leer. Ich dachte mir, dass kann doch eigentlich nicht sein. Hatte ich doch erst vor ein paar Wochen aufgeladen. Der müsste bei meinen Fotografiergewohnheiten 6 Monate durchhalten. So klappte das bei der vorherigen Fuji F60 auch.

Oft sind es die kleinen unbedeutenden Dinge, wo es sich lohnt, mal genauer hinzuschauen. Irgendwas stimmt da nicht, dass hatte ich im Gefühl.

Ich testete mal die Knöpfe durch, ob die Kamera sich vielleicht von selbst im Rucksack einschaltet. Der normale Einschalter ist recht gut untergebracht, der dürfte nicht von alleine auslösen. Blöderweise gibts aber bei vielen Kameras noch einen zweiten Knopf, mit dem man sich die gespeicherten Bilder angucken kann. Dieser liegt auf der Rückseite neben dem Display. Und dieser Knopf steht etwas hervor und lässt sich recht leicht drücken. Das ist sehr ungünstig, es ist denkbar, dass die Kamera im Rucksack darüber von alleine einschaltet. Auch dann, wenn sie in der recht weichen Hülle ist.

Die Kamera schaltet hier allerdings nach kurzer Zeit automatisch wieder aus. Da dürfte der Akku auch nicht so schnell leer gesaugt werden.

Nun gibts da aber noch einen dritten Knopf, der sich ebenso leicht auslöst und die Kamera einschaltet. Einen Knopf, den ich sonst nie brauche: Der ist für die Kopplung über WLAN. Die Kamera schaltet ein und wartet dann auf eine Auswahl, die man treffen muss.

Und jetzt kommt der verrückte Bug: Hier gibt es keinen Timeout. Macht man hier keine Eingabe, bleibt die Kamera und das Display so lange an, bis der Akku leer ist! Ganz übel! Jetzt ist mir klar, warum der Akku regelmäßig leer ist. Es braucht nur einen versehentlichen Druck auf diesen Knopf im Rucksack und schon ist der Akku leer!

Ich hab jetzt 2 Gegenmaßnahmen getroffen: In der Hülle hab ich eine Pappe eingelegt, die ganz gut verhindert, dass die Knöpfe gedrückt werden. Und zweitens hab ich einen dünnen Draht als Ring gebogen und diesen um die Taste aufgeklebt. Dieser Ring sollte zuverlässig verhindern, dass der Knopf gedrückt wird.

Eigentlich hätte der Bug in der Entwicklung nicht entstehen dürfen. Egal wie die Kamera eingeschaltet wird, die muss sich nach kurzer Zeit der Nichtbenutzung von alleine wieder ausschalten.

Es ist zu vermuten, dass andere Ixus-Modelle ebenso betroffen sind.

07.02.2016 :: Sicherheits-Gau Aldi Überwachungs-Kameras

Das ist schon eine schockierende Nummer: Da kaufen sich jede Menge Leute Überwachungskameras bei Aldi, um sich sicherer damit zu fühlen. Und dann entdecken Experten eklatante Sicherheitsmängel: Jeder hat über das Internet ungehinderten Zugriff auf das Kamerabild! Hundertausende Wohnzimmer oder Objekt im Außenbereich sind so komplett offen einsehbar. Und die Kameras lassen sich sogar noch aus der Ferne steuern bzw. neu ausrichten.

Das ist noch wesentlich schlimmer als der letzte Gau vor ein paar Jahren, wo man Zugriff auf die Laptop-Kamera bekam. Hier musste aber zumindest eine Schadsoftware auf dem Gerät installiert werden. Jetzt jedoch ist alles per Vorkonfiguration offen im Netz.

Schockierend ist hier, wie wenig Hersteller in der Computerbranche auf Sicherheit achten. Informationssicherheit scheint überhaupt viel zu wenig ernst genommen zu werden. Ein Auto, wo die Bremsen von Werk aus nicht funktionieren, ist völlig undenkbar. Aber offene Kameras können problemlos in den Handel.

Aber selbst, wenn die ordentlich vorkonfiguriert worden wären: Viele Laien sind völlig überfordert, diese Technologie zu verstehen und können schnell gefährlice Fehlkonfigurationen schaffen. Das wäre ungefähr so, als könnte jeder im Motorsteuergerät seines Autos rumfummeln und müsste das auch tun, damit das Auto überhaupt sinnvoll fährt. Hier gibt es ein völliges Ungleichgewicht von Wissen und gefährlichen Eingriffsmöglichkeiten der Benutzer, die nunmal keine ausgebildeten Administratoren sind.

Und dann auch noch die ständige Gefahr, dass ein Sicherheitsbug gefunden wird, der alle Sicherheitsvorkehrungen aushebelt. Damit bleibt so eine Technologie eine Bedrohung. Auch hier wieder der Vergleich zum Auto: Das wäre, als könnte jederzeit ein Hacker unser Bremssystem außer Kraft setzen.

Gibt es überhaupt einen Ausweg aus diesem Dilemma? Oder müssen wir auf solche Technik grundsätzlich verzichten, weil wir sie nicht wirklich im Griff haben?

Das man es in den Griff bekommen kann, zeigen Profilösungen. Hier wird aber jede Menge Geld in Sicherheit gesteckt. Die Firma Lancom wäre ein Beispiel, wo sehr gut ausgebildete Experten dafür sorgen, dass die Router sicher bleiben und Schwachstellen frühzeitig erkannt und kommuniziert werden. Solch Experten-Knowhow muss aber auch bezahlt werden. Hier zahlt man für einen Router nicht 50-200 Euro, sondern eher 600-2000 Euro.

Im Massenmarkt ist Sicherheit eigentlich wesentlich günstiger zu haben. Wenn man Millionen Kameras verkauft, dann sind die Mehrkosten für hohe Sicherheit gar nicht mehr so relevant. Dann gehts nur noch um Cent oder wenige Euro Mehrkosten pro Gerät. Das man einen relativ hohen Sicherheitstandard erreichen kann, sieht man z.B. an den Fritzbox-Routern von AVM. Die gelten als recht sicher, von einigen wenigen Zwischenfällen mal abgesehen.

Was ein Weg sein kann, um mehr Sicherheit zu schaffen, sind simple Teilsysteme, die sich nicht aushebeln lassen. Wenn man z.B. eine Kamera mit einem mechanischen Schalter komplett abschalten kann, wäre das ein sicheres Steuer-Element, was sich durch keinen Softwarebug aushebeln lässt. Wenn eine Fritzbox einen Taster hat, mit dem man das WLAN komplett abschalten kann und eine LED das auch signalisiert, dann kann man das in der Software so gut kapseln, dass auch das nicht aushebelbar ist. Wichtig ist immer, es müssen einfach überschaubare Subsysteme bleiben, weil man nur so alle Gefahren und Angriffsmöglichkeiten schnell erkennen kann.

Wenn eine Kamera eine mechanische Blende hat, die ein Benutzer manuell über einen Schieber schließt, wäre das zudem ein System, wo selbst dem Benutzer sofort einleuchtet, dass das sicher ist. Sowas hätte man z.B. bei Laptops einbauen können.

Ansonsten siehts aber sehr schlecht aus, was umfassende Sicherheit angeht. Heutige EDV ist wahnsinnig komplex geworden. Sie ist auch unter einem unglaublichen Entwicklungsdruck, ständig ändert sich alles und Nutzer wollen immer wieder neue Möglichkeiten. So kann sich nichts stabilisieren. Kommt hinzu, dass man vor allem Features verkauft und sich für Sicherheit kaum einer interessiert. Sicherheit ist auch schwer vergleichbar, man kann es den Produkten ja nicht ansehen. Sicherheit verkauft sich so sehr schlecht und deshalb unterlassen es Firmen, in Sicherheit zu investieren.

Das Hauptproblem bleibt aber, diese fürchterliche Komplexität soweit herunterzubrechen, dass ein Benutzer nichts mehr verkehrt machen kann, was die Sicherheit bedroht.

Noch ein Problem ist die Dauerhaftigkeit einer Lösung: Viele Hersteller unterstützen Geräte nur noch 2-3 Jahre, danach werden sie unsicher, weil Sicherheitslücken nicht mehr gestopft werden. Das sieht man sehr schön bei Android-Handys, die man aus Sicherheitsaspekten spätestens nach 3 Jahren entsorgen muss.

Raumüberwachung mit Kameras bleibt eine gefährliche Technologie. Man sollte sich nicht verlocken lassen, alles zu nutzen, was technisch möglich ist. Wenn man sich fragt, was technisch sicher möglich ist, schrumpft die Auswahl extrem stark zusammen. Die Kosten verzehnfachen sich auch schnell. Und selbst bei der teuersten Lösung kann es immer auch zu einem Supergau kommen. 100% Sicherheit gibt es nicht, mit jeder Lösung handelt man sich auch Gefahren ein. Zudem muss man an Wartungskosten denken und regelmäßige Wartung einplanen. Ein System in diesem Bereich, was nicht permanent auf Sicherheitslücken überwacht wird, wird schnell zu einer großen Gefahr.

Die Vorstellung, ganz günstig an Überwachungstechnik zu kommen, ist eine Illusion.

Weblinks:

07.02.2016 :: Neue LED-Lampen-Technologie

Eine recht neue LED-Technologie kann man gerade bei Aldi kaufen: Sogenannte Filament-LED-Lampen oder LED-Fadenlampen. Diese sehen den herkömmlichen Glühlampen sehr ähnlich. Typisch sind 4 LED-Fäden enthalten, die das Licht nach (fast) allen Seiten abstrahlen. Darüber ein Glaskolben, wie bei herkömmlichen Glühlampen.

Gerade bei Leuchten, die für herkömmliche Glühlampen designt sind, ist die ähnliche Abstrahlcharakteristik nach allen Seiten sehr positiv. Die Lichtfarbe ist bei den Aldi-Lampen recht warm. Obwohl auch 2700K, wie viele LED-Lampen, wirken sie wesentlich gelblicher. In meinen Augen interessant für gemütliches Licht, weniger geeignet als Arbeitslicht. Klar sollte auch sein, dass die Abstrahlung vor allem seitlich stattfindet. Bei einer hängenden Fassung ist das Licht, was direkt nach unten geht, wesentlich geringer, als bei herkömmlichen LED- oder Glühlampen.

Hier findet man ein paar Infos zu dieser LED-Technologie:

Osram verkauft diese Technologie unter der Bezeichnung "Osram LED Retrofit" und Philips unter der Bezeichnung "LEDClassic". Vom deutschen Hersteller Vosla gibt es sie unter dem Namen "VosLED".

Die Lebensdauer dieser Technik ist aufgrund der schlechteren Wärmeabfuhr nicht so hoch, wie bei herkömmlichen LED-Lampen, typisch werden 15.000 Stunden angegeben, herkömmliche LED-Lampen erreichen 25.000 - 50.000 Stunden. Trotzdem ist das immerhin Faktor 10 mal länger, als herkömmliche Glühlampen und damit für die meisten Anwendungen mehr als ausreichend. Es gibt auch Hersteller wie Vosla, die 25.000 Stunden angeben.

Der Wirkungsgrad ist mit über 100 Lumen/Watt recht hoch.

Auch wenn 2013 schon die ersten LED-Lampen dieser Bauart auftauchten, sind die erst jetzt so richtig reif für den Massenmarkt. Das spürt man vor allem am Preisverfall, wo man jetzt bei deutlich unter 10 Euro angekommen ist. Erstaunlich ist, dass diese LED-Glühfaden-Technologie in so kurzer Zeit den Massenmarkt erreicht hat. Einige große Hersteller hätten den Einstieg auch fast verschlafen und konnten erst Ende 2015 erste Produkte liefern.

Ich hab mir jetzt mal 2 Stück testweise bei Aldi gekauft (Preis 6,90 Euro bei 5,5 Watt und 600 Lumen). Bisher gefallen die mir für gemütliches Licht im Wohnzimmer sehr gut.

Weblinks:

30.12.2015 :: Rubiks Cube

In den 80er Jahren kam der Rubiks Cube auf den Markt und alle wollten einen haben. Das war ein echt großer Hype und ich erinnere mich an die vielen Stunden, die ich damit verbrachte.

Irgendwie überkam mich jetzt der Wunsch, so eine Würfel mal wieder in der Hand zu halten. Bloß welchen soll man denn nun kaufen? Mittlerweile gibt es eine unüberschaubare Vielfalt von Nachbauten, besonders aus China und Hongkong.

Interessant ist, dass sich hier wohl was verdreht hat: Der Original Rubik macht von den Gebrauchseigenschaften nicht das Rennen. Nahezu alle Speedcuber nutzen (richtig gute) chinesische Würfel.

Es hat sich da technisch auch viel getan. Ich erinnere mich noch an den ersten total schwergängigen Rubik, der bei jedem Drehversuch knarzte. Eigentlich musste man den erstmal auseinandernehmen und ordentlich schmieren.

Die neuen Würfel, die fürs Speedcuben geeignet sind, laufen sehr viel leichter. Auch ohne Schmierung lassen die sich sehr gut bewegen. Da liegen Welten zwischen heute und damals. Natürlich bekommt man auch heute noch vom Wühltisch extrem schlecht drehende Würfel.

Nach meinen Recherchen gibt es einen zentralen Onlineshop in Deutschland, der seit vielen Jahren die Speedcuber-Szene versorgt: Cubikon. Cubikon verkauft auch über Amazon. Vorteil dort: Keine Versandkosten, wenn man über 29 Euro liegt. Doch bei Cubikon direkt sind die Würfel in der Regel günstiger. Die 6,90 Euro Versandkosten sind aber happig.

Was für ein Würfel taugt denn nun? Bei Cubikon denke ich kann man sich sicher sein, dass die auf eine gewisse Qualität achten und keinen Schrott anbieten. Im Grunde kann man so sagen: Für 9-15 Euro bekommt man einen sehr guten Würfel. Die besten Würfel im Cubikon-Shop liegen irgendwo bei 19-25 Euro.

Empfehlenswert sind z.B.:

  • Moyu Sulong 8,95 Euro
  • Moyu Dianma 9,95 Euro
  • Cheeky Sheep 9,95 Euro (Cubikon Hausmarke)
  • Dayan II Guhong 12,95 Euro
  • Dayan V Zhanchi 14,95 Euro
  • Moyu Weilong 14,95 Euro
  • Moyu Aolong 16,95 Euro

Würfel gibts oft in 3 Varianten: In schwarzer oder weißer Grundfarbe mit aufgeklebten Stickern. Original war früher schwarz, auch heute noch wird schwarz bevorzugt, ist aber eher Geschmackssache. In den letzten Jahren kam eine dritte Variante hinzu: durchgefärbtes Plastik ohne Sticker. Großer Vorteil hier ist, dass keine Sticker kaputt gehen können. Denn die nutzen sich mit der Zeit ab oder lösen sich. Sie wirken vom Design aber doch sehr andersartig, da ist die Frage, ob einem das gefällt.

Ein paar wenige Würfel gibts mit Stickern, die aus stärkerem Plastik bestehen und so sehr lange halten, z.B. die Hausmarke von Cubikon "Speed Cube Ultimate" ab 17,95 Euro.

Schmieren: Muss man heute nicht mehr unbedingt, aber für beste Ergebnisse, längere Haltbarkeit und weniger Geknarkse macht es Sinn. In der Szene hat sich Silikonöl durchgesetzt. Entweder Silikonspray, was man überall zu kaufen bekommt, oder speziell für Würfel optimierte Öle (z.B. Maru Lube).

Wer noch billiger einkaufen will, kann auch direkt in China Online bestellen. Bestellungen sollten hier aber unter 22 Euro bleiben, damit man keinen Zoll bezahlt (angeblich solls auch noch bis 26 Euro funktionieren). Bezahlt wird in der Regel mit Paypal, die Lieferung dauert 2-4 Wochen. Hier kann man brauchbare Würfel schon ab etwa 4 Dollar bekommen, z.B. YC SuLong, Yuxin Fire oder Cyclone Boys 3x3. Einen Moyu DianMa gibts so um 6 Dollar. Versandkosten fallen oft keine an. Man trägt aber das Risiko, dass die unversicherte Sendung verloren geht oder Ware kaputt ankommt.

Tests von Würfeln findet man auch zahlreich auf youtube.

Wer den Würfel zerlegen will: In der Regel dreht man eine Ebene auf 45 Grad und hebelt dann den Kantenstein raus. Dazu gibts auch youtube-Videos. Aber Vorsicht: Bei neueren Würfeln gibts sogenannte Torpedos. Das sind kleine zusätzliche Plastikteile, die verhindern sollen, dass der Würfel popt (sich in ungünstigen Drehpositionen zerlegt). Hier braucht die Montage/Demontage mehr Sorgfalt und kann auch etwas kniffelig werden. Bei Torpedos sollte der Kantenstein beim Herausnehmen gleichzeitig gedreht werden.

Bei mir ist es jetzt schlussendlich ein Moyu DianMa geworden, mit dem ich sehr zufrieden bin.

Weblinks:

14.11.2015 :: Verflixte Dübellöcher im Altbau

Wenn man im Altbau bohrt, ist es reine Glückssache, ob ein gebohrtes Loch in der Wand wirklich tragfähig ist. Mal erwischt man einen Ziegelstein - wunderbar. Und dann geht die Bohrmaschine wie Butter durch und man hat ein zerbröseltes Loch, in dem der Dübel keinen Halt findet.

Seit einiger Zeit hab ich jetzt endlich eine recht praktische Lösung gefunden. Die ist vor allem für solche Fälle, wo man mit eher mittleren Kräften zu rechnen hat im unkritischen Bereich. Bei kritischen Hochlastanwendungen gibts ja Injektionsmörtel, die aber entsprechend teuer sind und für die man spezielle Mischdüsen braucht.

Die Lösung heißt Beko Allcon 10. Das ist ein PU-Klebstoff aus der Kartusche. Mit etwa 15 Euro pro 310ml Kartusche auch nicht gerade billig, aber das Zeug ist in vielerlei Hinsicht unschlagbar gut. Gekauft hatte ich ihn vor einem Jahr eher aus Neugier, mittlerweile setze ich ihn vielfältig ein.

Zum Bohrloch: Nach dem Bohren und dem Säubern des Loches kann man Beco Allcon 10 ins Bohrloch spritzen. Aber nicht zu viel, denn das Zeug quilt noch recht stark auf. Dann den Dübel einsetzen, 15 min warten und dann verschrauben. Durch die Expansion des Klebers ist das Bohrloch gut gefüllt. Der Klebstoff hat nach 15 min auch schon gut angezogen. Noch schneller gehts, wenn man das Bohrloch zuvor anfeuchtet. Dann läuft die Aushärtungs-Reaktion wesentlich schneller ab.

Wenns schnell gehen soll und der Dübel halbwegs hält, drehe ich die Schraube auch sofort rein. Dann wird die Schraube aber noch nicht vollständig angezogen. Erst nach 15-30 min ziehe ich dann alle bis dahin gesetzten Schrauben nochmal nach.

Achtung: Weil der Klebstoff wirklich überall bestens klebt, muss man alles gut davor schützen. Vor allem die Hände. Hier trage ich dann in der Regel Einmalhandschuhe. Auch auf die Klamotten und auf Teppichböden sollte man aufpassen. Nicht ausgehärteten Kleber am besten sofort entfernen, mit Waschbenzin, Verdünnung oder Aceton.

Der Hersteller erwähnt diesen Anwendungsfall übrigens explizit in seinen Anwendungs-Videos.

Noch ein Tipp: Im Altbau verwende ich möglichst lange Dübel. Von Fischer hat sich der UX-Lang bewährt. Der ist bei 6mm Durchmesser 50mm lang. Von Tox gibts den 6er Dübel auch in 50mm Länge. Auch die funktionieren gut. Die kurzen 6er Standarddübel mit 35mm Länge eignen sich deshalb nicht, weil im Altbau die ersten 20mm typisch nur bröseliger Putz sitzt.

Weblinks:

16.10.2015 :: Ganzjahresreifen?

Ganzjahresreifen führen seit vielen Jahren ein Schattendasein. Von vielen werden sie verschmäht: Das ist nichts Halbes und nichts Ganzes. So wird es in vielen Fachzeitschriften geschrieben und die Argumente fühlen sich sehr logisch an: Es gibt keine Gummimischung, die für Winter wie Sommer gleichgut geeignet ist. Es kann immer nur ein schlechter Kompromiss sein.

Doch stimmt das? Ich habe seit Jahren den Verdacht, dass hier von der Industrie stark darauf hingearbeitet wird, den Ganzjahresreifen ein schlechtes Image zu verpassen. Das ist auch logisch. Es verdienen ganz viele daran. Zweimal im Jahr werden überall im Land jede Menge Reifen gewechselt und eingelagert. Und dabei kommen die Autos in die Werkstätten, was eine gute Gelegenheit ist, andere Dienstleistungen gleich mit anzubieten. Oder man findet so Probleme am Auto, die gleich repariert werden. Auch werden so tendenziell mehr Reifen verkauft. Nicht zuletzt deshalb, weil beim Wechsel sehr zeitig darauf hingewiesen wird, dass man doch besser neue Reifen aufziehen lassen sollte. Kurzum: Es gibt ganz viele Gewinner an diesem Konzept.

Eins ist klar: Spezialisierte Winter- und Sommerreifen werden immer besser sein. Man kann sie besser an die jeweiligen Bedingungen anpassen. Aber spielt das wirklich so eine große Rolle? Im Bereich Reifen wird so viel geforscht und immer neue Gummimischungen entstehen. Das man es mittlerweile schafft, Ganzjahresreifen herzustellen, die fast genauso gut sind, wie spezialisierte Sommer- oder Winterreifen, ist bewiesen. Das findet man in Tests. Eine Aussage findet man z.B. hier... : "Tests der Gesellschaft für Technische Überwachung (GTÜ) haben ergeben, dass die guten Ganzjahresreifen im Vergleich zu den guten normalen Reifen nicht viel schlechter abschneiden. " Und doch wird im selben Artikel schnell wieder korrigiert: "Für den ADAC sind Ganzjahresreifen ein schlechter Kompromiss."

Wer es genauer wissen will, findet leider kaum Tests, die mal die Messdaten rausrücken. Da wird nur mit Noten bewertet, doch was bedeuten diese Noten? Man kann Noten durchaus so skalieren, dass z.B. ein Bremsweg von 20 Metern den Wert sehr gut erhält, ein Bremsweg von 21 Metern ein schlecht. Man kann Peanuts damit also aufwerten. Mit Noten lässt sich nur wenig anfangen, weil hier schon der subjektive Faktor drin ist, was andere als gut und schlecht bewerten. Ich glaube, hier werden absichtlich genauere Infos verschwiegen, um die Ergebnisse in eine gewünschte Richtung zu beeinflussen. Hin zu den Nachteilen der Ganzjahresreifen, weil die keiner in der Wertschöpfungskette wirklich gerne verkaufen will.

Vielleicht haben auch andere Einflüsse wie Alterungserscheinungen einen viel größeren Einfluss auf die Eigenschaften. Vielleicht ist ein 5 Jahre alter Winterreifen wesentlich schlechter, als ein neuer Ganzjahresreifen. Damit würden sich die Vorteile schnell relativieren. Tests, die sich mal für Ganzjahresreifen einsetzen, habe ich allerdings bisher nicht gefunden. Wer hätte auch schon Interesse daran?

Und was ist mit den Erfahrungsberichten? Zumindest gibt es hier auch eine eher negative Verzerrung. Wer ständig überall liest, dass man selber einen eher schlechten Kompromiss fährt, wird bei jedem Versagen seiner Reifen gleich denken: "Siehst du, taugt tatsächlich nicht." Bei einem guten Winterreifen hätte man vielleicht gesagt: "Bei diesem Schnee schafft das nicht mal der beste Winterreifen." Das ist oft pure Wahrnehmungspsychologie.

Was mir aufgefallen ist: Ganzjahresreifen haben beim Spritverbrauch oft nur ein E beim Reifenlabel. Sind also nicht besonders sparsam. Es gibt durchaus Sommerreifen mit einem Label B. Doch was bedeutet das wirklich? Im Grunde ist diese Labelung ziemlicher Unsinn. Der Unterschied zwischen B und E beträgt gerade mal 0,04 l/100km. Ja genau, 40 Milliliter auf 100 Kilometer. Was für ein Unfug. Bei solch kleinen Unterschieden kann man sich so ein Label gleich ganz sparen. Doppelte Einsparung hat man übrigens bereits dann, wenn man den Reifendruck um 0,2 bar erhöht.

Was das Reifenlabel hingegen gar nicht berücksichtigt, ist die Reifenbreite: Wirklich Sprit spart man mit schmaleren Reifen. Verglichen werden aber immer nur Reifen der gleichen Breite. Wer also schmale Ganzjahresreifen kauft, kann nochmal richtig Sprit sparen, mehr als ein Label A in einer breiteren Klasse.

03.10.2015 :: Schrittzähler

Wir wollten was tun, um uns mehr zu bewegen. So haben meine Frau und ich uns einen Schrittzähler zugelegt. Anfangs war ich etwas skeptisch. Ich dachte, das ist bestimmt wieder so ein Ding, was bald in der Ecke liegt. Außerdem hatte ich auch eine App auf dem Handy, die das bereits erledigte. Jetzt nach 4 Monaten merken wir beide: Das war eine super Entscheidung. Täglich gucken wir mehrfach drauf und vergleichen, wer schon wie viele Schritte gemacht hat. Und das motiviert total. So versuchen wir derzeit, so mindestens 6000-8000 Schritte am Tag zu laufen. Das sind ungefähr 4-6 Km.

Die App auf dem Android-Smartphone war eigentlich nicht schlecht, hat sich aber auf meinem Handy dann doch nicht bewährt. Einerseits hatte ich sowieso schon Performance Probleme und irgendwie zog die App einiges an Leistung. Andererseits war damit der Akku noch viel schneller leer. Das nervte mich irgendwann so, dass ich die Idee viel besser fand, ein kleines autonomes Gerät zu haben, was immer in der Hosentasche platziert ist. Bei Jeanshosen gibts ja rechts die kleine Zusatztasche für Geld oder eine Uhr. Da passt so ein Schrittzähler wunderbar rein.

Ich schaute mir auch die ganzen Fitness-Armbänder und Fitness-Logger an, aber irgendwie erschien mir diese Technik noch nicht so richtig ausgereift. Viele Hersteller mit allen möglichen Lösungen, aber nichts war dabei, was mich so richtig überzeugte. Ich wollte auch keine neue komplizierte Technik, mit der ich mich täglich rumärgern muss. Es sollte ganz einfach sein.

Nach etwas Recherche erschienen mir die Schrittzähler von Omron recht brauchbar, konkret der Omron Walking Style III. Den hat jetzt meine Frau. Ich hab mir etwas später den Omron Walking Style IV gekauft. Beide tun wunderbar ihren Dienst, vom Design gefällt mir der III besser, aber der IV hat einen 3D Sensor und kann so noch besser erkennen, was wirklich Schritte sind. Ob das in der Praxis wirklich eine Relevanz hat, kann ich gar nicht sagen. Wenn ich mal mit beiden in der Hosentasche eine Wanderung gemacht habe, waren beide nahezu identisch.

Preislich liegen die Teile so bei 20-30 Euro.

Die Programmierung scheint recht ausgeklügelt zu sein, so dass beide recht gut erkennen, was echte Schritte sind. Dies hinzubekommen, ist gar nicht so einfach, ich denke da wurde von Omron einiges an "Hirnschmalz" investiert. Das ist auch der Vorteil gegenüber einer App. Viele Appentwickler sind in der Regel keine Experten für Algorithmen, wie man am besten Schritte erkennt. Und deshalb sind viele Apps auch ungenau.

So einen Schrittzähler trägt man den ganzen Tag direkt am Körper. Den ganzen Tag werden die Schritte gezählt. Um 0:00 Uhr wird der Tageszähler zurückgesetzt, man kann aber die letzten 7 Tage noch aus dem Speicher abrufen. Den restlichen Schnickschnack brauchen wir im Grunde nicht. Was manchmal noch interessant ist: Man kann zusätzlich einen Zähler starten, wenn man z.B. eine Wanderung macht und wissen will, wie viele Schritte man nur dort gegangen ist.

Das Beste finde ich wirklich die Motivation, die damit aufgebaut wird, sich regelmäßig genügend zu bewegen.

08.09.2015 :: DHL-Online-Frankierung - die spinnen

Gegenüber anderen Paket-Dienstleistern war die DHL-Online-Frankierung schon immer etwas umständlich. Wenn man viel zu verschicken hat, ist das echt nervig. Aber was die sich seit ein paar Wochen einfallen lassen haben, geht für mich gar nicht.

Nachdem alles ausgefüllt war, konnte ich mich ins Bezahlsystem einloggen, hab einen Klick gemacht und alles war mit Postpay bezahlt, so dass ich nun endlich meinen Paketschein drucken konnte. Jetzt aber gibts gleich eine Hand voll Bezahlsysteme, aus denen ich jedes mal auswählen muss. Und wenn ich wie bisher Postpay auswähle, muss ich mich nun zusätzlich bei meiner Bank einloggen, dort nochmals bestätigen und dann meinen TAN-Generator vor den Monitor halten, der sowieso nur sehr schwermütig das Geflimmere entgegenimmt. Und wenn das alles erledigt ist, muss ich beten, dass die Masken nicht irgendwo hängen bleiben.

Also echt, so langsam macht das alles keine Freude mehr. Das bezahlen auch viel einfacher gehen kann, sieht man bei Amazon. Mit wenigen Klicks ist alles erledigt. Und wenn ich mit Hermes versende, gehts noch viel schneller, weil ich da erst im Geschäft bezahle. Ich glaub, ich werde jetzt wieder öfter mit Hermes versenden...

Nachtrag 17.05.2016: Hurra, DHL ist endlich aufgewacht und hat das Bezahlsystem komplett überarbeitet. Nun kann man direkt und völlig einfach mit Paypal bezahlen. Man glaubt es kaum, genauso einfach, wie bei allen anderen Jobs im Internet. Dieses blöde Postpay kann man sich so völlig schenken. Danke, liebe DHL. Das schont meine Nerven und verschafft mir wieder mehr Freizeit.

15.08.2015 :: Toner Katastrophe

Ich denke, im Laufe der Jahre werden wir bei allen Druckern, die ich betreue, schon so 100.000 Euro dadurch gespart haben, dass wir auf Drittanbieter bei Verbrauchsmaterial zurückgegriffen habe. Wir setzen hauptsächlich Kyocera-Laserdrucker ein. Eine Originalkartusche kostet hier 60-80 Euro, Nachbaukartuschen gibts so ab 10 Euro.

Wenn ich Lieferanten auswähle, dann schaue ich mir vor allem an, ob die schon längere Zeit in diesem Geschäft tätig sind und wie die Kundenzufriedenheit ist. Und dann gibts auch noch ein paar weitere Parameter, wo sich für mich dann das Gefühl einstellt, dass man dem Lieferanten trauen kann.

In der Regel waren die Erfahrungen auch ganz gut. Mitunter kam es vor, dass unsauber gearbeitet wurde und die Kartuschen außen mit Tonerstaub verschmutzt waren. In der Regel wird heutzutage aber so automatisiert auf hohem Niveau aufgefüllt, dass das kaum noch vorkommt.

Falsche Kartuschen hatte ich auch ab und zu mal dabei. Meist sind es Kartuschen des gleichen Herstellers, die aber irgendwo eine Plastiknase an anderer Stelle haben. Das fällt kaum auf und so kann es da auch mal zu Fehlern im Auffüllbetrieb kommen.

Ganz selten hatte ich auch schonmal eine leere Kartusche, die als voll verkauft wurde. Die Lieferanten sind in der Regel aber kulant, man ist ja auch an längerfristigen guten Beziehungen interessiert.

Diesmal hat es mich aber ganz unschön erwischt: Eine Tonerlieferung, wo das Tonerpulver irgendwie nicht zum Drucker passte. Es ging konkret um einen Kyocera M2030DN mit einer TK-1130 Kartusche.

Der Toner sorgte für ein schlechtes Druckbild, die schwarze Schrift war nur grau. Auch dann noch, wenn man die Druckintensität im Drucker auf ganz dunkel stellt. Da war nichts zu machen.

Der Wechsel der Kartusche brachte erstmal keinen Erfolg, auch nicht nach 100 Seiten Druck komplett schwarzer Seiten. Ich zweifelte schon an meiner Vermutung, dass das Tonerpulver schuld ist. Zum Glück hatten wir ein baugleiches Gerät da, wo wir die Belichtungs- und Tonereinheit mal tauschen konnten. Und hier zeigte sich: Die Tonereinheit macht das Problem.

Bei dem Kyocera ist es so, dass die Kartusche in eine Tonereinheit gesteckt wird. Diese Tonereinheit hat dann ein Reservoir, in dem sich einiges an Toner befindet, der dann gleichmäßig weitertransportiert wird. Ist dort erstmal falscher Toner drin, hat man ein echtes Problem. Denn da kommt man nur schwer ran, aufschrauben war mir auch zu gefährlich.

Schlußendlich haben wir dann 500 Blatt Vollschwarz gedruckt. Das saugte die neue Kartusche auch fast vollständig leer, allerdings sind in einer Kartusche auch nur etwa 50g Tonerpulver.

Nach diesen 500 Ausdrucken war die Intensität der Schrift zumindest wieder so, dass man es als hinreichend bezeichnen konnte. Ich denke, es wird jetzt im Alltag 1-2 weitere Kartuschen brauchen, bis sich der Zustand wieder komplett normalisiert.

Diesmal korrelierte Preis und Qualität übrigens: Die falsch gefüllte Kartusche stammte zwar von einem recht etablierten und großen Anbieter, war mit 10 Euro aber so mit das Billigste, was zu bekommen war.

18.07.2015 :: Sekundenkleber

Ich klebe regelmäßig mit Sekundenklebern. Was man mittlerweile von den etablierten Marken in Baumärkten und Bastelläden kaufen kann, ist ziemlich unbrauchbar geworden. Ich hab mal was von einer gesetzlichen Regelung gelesen, dass die im Endkundengeschäft gehandelte Ware nicht mehr so schnell aushärten darf, weil es da zu Unfällen kam. Das ist auch so meine Erfahrung, die meisten Sorten härten mir zu viel zu langsam aus. Das dauert teilweise 5 Minuten und nicht 5 Sekunden.

Modellbauläden haben meist bessere Noname-Ware oder Eigenmarken zu günstigen Preisen. Weil ich aber solche Sachen hauptsächlich im Internet kaufe, bin ich auf den Wiko Super Glue 15 aufmerksam geworden. Ich hatte den mal testweise mitbestellt, den gibts schon für 2,80 Euro 20g.

http://gluetec-industrieklebstoffe.de/product/super-glue-15

Das eigentlich Geniale ist der Dosierspender der Flasche. Was hab ich mich schon mit verstopften Flaschen oder Tuben rumgeärgert. Bisher fand ich kein System, was wirklich über längere Zeit gut funktionierte. Bei dem Super Glue 15 geht das aber wirklich hervorragend. Nach dem Zuschrauben wische ich den Restkleber außen nochmal ab. Seit einem halben Jahr bekomme ich aus der Flasche immer wieder problemlos Klebstoff. Verstopft war da noch nie was.

Der Kleber ist super schnell und von der Konsistenz recht dünnflüssig, aber nicht extrem dünnflüssig (20 - 30 mPa· s). Der legendäre Loctite 401 Wald- und Wiesenkleber hat 100 mPa· s. Für andere Ansprüche gibts zahlreiche andere Sekundenkleber von Wiko:

http://gluetec-industrieklebstoffe.de/wiko/cyanacrylat-klebstoffe

Fast alle werden mit dem gleichen praktischen Spendersystem geliefert.

Interessant ist, dass keiner der mir bekannten renomierten Markenfirmen es bisher hinbekommen hat, ein ausgeklügeltes Spendersystem hinzubekommen, was nicht nach einigen Anwendungen völlig verklebt.

Leider halten Sekundenkleber nicht sonderlich lange. So etwa nach einem Jahr entsorge ich die Reste. In der Regel erkennt man es daran, dass sie zähflüssiger werden. Im Kühlschrank lagern soll helfen, ich mache es allerdings nicht.

05.07.2015 :: Datensicherung mit 30 USB-Sticks

Für kleine Firmen wird die Datensicherung auf USB-Sticks immer interessanter. Ich erinnere mich noch an die Zeiten, wo hauptsächlich auf Bändern gesichert wurde. So ein Band hat immerhin auch 5-15 Euro gekostet. Für den gleichen Preis bekommt man heute auch USB-Sticks hinreichender Größe. Meine Erfahrung sagt mir auch, dass USB-Sticks im Alltag als recht sicher einzustufen sind, insofern man sich nicht nur auf einen Stick verlässt. Ausfälle waren bei mir bisher extrem selten.

In der Regel geht es bei Firmendaten um überschaubare Datenmengen: Hauptsächlich Word- und Exceldateien, ein paar Datenbanken, ein paar Bilder und Mails. Selbst umfangreiche Datensammlungen, die über 20 Jahre gewachsen sind, passen da noch auf 8-16 GB Sticks. Noch dazu, wenn man die Daten zuvor komprimiert.

Wenn das nicht reicht, sollte man sich überlegen, ob man seine Daten irgendwie aufteilen kann. Die Bilder des letzten Betriebsausfluges braucht man ganz sicher nicht im Set der regelmäßigen Datensicherung zu haben. Hier gilt es, all das auszulagern, was viel Speicher braucht, eher selten gesichert werden muss und wo Datenverlust kein großes Problem darstellt.

Eine gute Methode für einen umfassenden Schutz vor Datenverlust geht so:

  • 4 Sticks für die tägliche Sicherung Mo - Di - Mi - Do
  • 4 Wochensticks für Woche1 - Woche2 - Woche3 - Woche4 des Monats. Dieser wird immer am Freitag erzeugt.
  • 12 Monatssticks für Jan - Dez. Dieser wird immer am letzten Freitag des Monats befüllt.
  • 10 Jahres-Sticks, für jedes Jahr wird am Ende des Jahres eine Sicherung gemacht, die nicht wieder überschrieben wird.

Der Vorteil dieses Verfahren ist, dass man auch auf ältere Stände zurückgreifen kann. Nicht selten passiert es nämlich, dass eine Datei versehentlich gelöscht wird, dies aber z.B. erst 6 Monate später auffällt. Gleichzeitig sorgt man durch die größere Anzahl an Sticks für ausreichend Redundanz. Selbst wenn ein Stick kaputt ist, kann man auf einen anderen zurückgreifen, wenn auch nicht mit der gleichen Aktualität.

Somit braucht man für 10 Jahre ingesamt 30 USB-Sticks. Das kostet bei derzeitigen Preisen:

GrößeEinzelpreisPreis 30 Stück
8GB4,00120,00
16GB5,60168,00
32GB10,00300,00
64GB18,40552,00

Man sieht hier also, dass es sich lohnt, seine Daten im komprimierten Zustand auf 16GB zu halten. Sonst wirds wesentlich teurer. Natürlich sollte man nur Markensticks einsetzen. Die Rechnung hab ich mit USB2 Sticks gemacht, weil die dereitig noch wesentlich billiger zu haben sind. Läuft eine Datensicherung automatisiert im Hintergrund, spielt die Zeit dafür auch keine Rolle. Kann man ja irgendwann in der Nacht durchlaufen lassen.

Vom Datenschutz her sollte sichere Verschlüsselungstechnologie eingesetzt werden, also z.B. verschlüsselte ZIP-Archive oder verschlüsselte Container.

Die Sticks sollten ordentlich beschriftet sein und regelmäßig sollte auch eine Inventur erfolgen, ob alle Sticks noch vorhanden sind. Ausgemusterte Sticks sollten sicher gelöscht werden (Schreddersoftware) oder bei Defekt mechanisch hinreichend zerstört werden.

Sticks außer Haus zu lagern ist eine zusätzliche Absicherung z.B. für den Fall des Brandes oder Diebstahls. Hier muss man eine Abwägung treffen, ob es z.B. ausreicht, die Monats-Sticks außer Haus zu lagern oder ob man die Wochensticks mit einbezieht. In sehr kritischen Umgebungen müssen auch die Tagessticks außer Haus gelagert werden.

Und was mit den voluminösen ausgelagerten Daten, die man nicht regelmäßig sichert? Die könnte man z.B. alle 3-6 Monate auf eine externe Festplatte synchronisieren (z.B. mit FreeFileSync). Am besten auch hier 2-3 Platten rotieren lassen, damit man Redundanz erzeugt. Und Lagerung außer Haus. Jedem Mitarbeiter sollte klar sein, an welchem Speicherort mit welcher Sicherungsstrategie zu rechnen ist.

Ein automatisiertes Backup sollte sich übrigens recht einfach mit einem Synology oder QNAP NAS-Laufwerk umsetzen lassen. Solche Lösungen zur gemeinsamen Datenhaltung sind eh eine gute Idee für kleinere Netzwerke, wo sich ein Server nicht lohnt.

04.07.2015 :: Fileshredder

Eigentlich sollte jedes vernünftige Betriebssystem einen Fileschredder an Board haben. Oder noch besser im Hintergrund gelöschte Dateien regelmäßig schreddern. Leider ist das bis heute nicht der Fall.

Wenn man Dateien nur löscht und nicht schreddert, kann man sie später mit spezialisierten Werkzeugen wieder herstellen. Bei sensiblen Daten kann das sehr kritisch sein. Geht ein Laptop verloren, kann der Finder so viele bereits gelöschte Dateien einsehen. Noch kritischer sind USB-Sticks, weil man sie noch schneller liegenlassen oder verlieren kann. Auch hier gibts oft jede Menge Dateien zu finden, die schon vor Jahren gelöscht wurden. Mit der Zeit sammelt sich so immer mehr sensibler Kram auf solchen Sticks an.

Es gibt 2 Strategien gegen dieses Problem: Entweder man schreddert sofort jede sensible Datei. Oder man löscht regelmäßig den freien Speicherplatz. Damit werden dann alle gelöschten Dateien endgültig zerstört.

Für beides gibt es das Werkzeug Fileshredder, was ich seit ein paar Wochen benutze. Ich hab schon zahlreiche Software aus diesem Bereich getestet, aber irgendwas ging mir immer auf die Nerven oder funktionierte nicht richtig. Fileshredder gefällt mir das sehr gut, bisher läuft alles rund und schnell.

Dateien und Ordner lassen sich mit Rechtsklick > Fileshredder direkt schreddern. Ruft man das Programm hingegen explizit auf, kann man auch den freien Speicherplatz ausgewählter Laufwerke schreddern.

Weil bei großen Festplatten das Löschen des freien Speichers sehr lange dauert, sollte man für sensible Daten eine separate Partition nutzen, die nicht allzu groß ist. So gelingt es viel schneller, regelmäßig den freien Speicherplatz zu schreddern.

Weblinks:

03.06.2015 :: Windows 10 Generve

Neuerdings taucht in der Taskbar eine Werbung für ein Windows 10 Update auf. Und weil Microsoft uns mal wieder bevormunden will, kann man das nicht einfach deaktivieren. Wie man dieses Übel trotzdem los wird, wird hier beschrieben:

http://www.heise.de/newsticker/meldung/Windows-10-Downloader-Tipps-zur-Deinstallation-2596770.html

Soll man sich auf Windows 10 freuen? Diese erste Werbemaßnahme zeigt ja schon, wo die Reise hingeht: Dem Nutzer mit dem Holzhammer einbleuen, was er gut finden soll. Es wird wohl so bleiben, wie bisher: Man ist drauf angewiesen, aber Liebe wird es nie...

01.05.2015 :: Optimierung von Alltagsknipsen

Ich brauchte mal wieder einen neuen kleinen Fotoapparat. Für immer dabei. Die Wahl ist auf eine Canon Ixus 265 HS gefallen, die gerade für 99 Euro bei Saturn im Angebot war.

Eigentlich hätte ich lieber eine Kamera gehabt, wo ich Blende und Belichtungszeit auch manuell einstellen kann. Konnte meine kleine Fuji F60, die ich zuvor immer dabei hatte. Aber irgendwie bekommt man sowas nur noch selten. Die meisten Knipsen sind auf Vollautomatik ausgelegt, weil die breite Masse sowieso keine Ahnung von Fotografie-Details hat und einfach nur draufhalten und draufdrücken möchte. Massenprodukte orientieren sich nunmal an den Bedürfnissen der Masse.

Ehrlich gesagt muss ich aber sagen, dass die Erfahrungen der letzten Jahre zeigen, dass auch ich in vielen Alltagssituationen einfach nur noch draufhalte und den Automatikmodus nutze. Das reicht einfach in den meisten Fällen. Bei mir gehts vor allem um Technik-Dokumentation.

Was mich aber doch etwas wurmt, dass die Automatik sich mitunter so richtig daneben benimmt und alles andere, als otpimal agiert.

Im Grunde gehts ja um die Optimierung von ISO-Empfindlichkeit, Belichtungszeit und Blende. Hohe Empfindlichkeit sorgt für verwaschene, unpräzise und verrauschte Bilder mit wenig Detailtreue, bedeutet aber kurze Belichtungszeit. Und die sorgt wiederum für Schärfe trotz Verwackelung und Bewegung im Motiv. Geschlossene Blende sorgt für hohe Schärfentiefe, aber benötigt dann auch mehr Belichtungszeit oder höhere ISO-Empfindlichkeit.

Was macht eine massentaugliche Automatik? Es wird vor allem oft die Empfindlichkeit sehr hoch gewählt, damit man kurze Belichtungszeiten hat. Und auch die Blende wird in der Regel weit offen gelassen. Nach dem Motto: Es interessiert ja nur, was man fokussiert.

Damit kommen dann skurile Situationen, wo man draußen bei Sonnenschein mit ISO 400 fotografiert, wo ich selber eher ISO 100 gewählt hätte. Gerade bei einer Landschaft, die sich nicht bewegt. Im Resultat hab ich mit ISO 400 ein ziemlich verwaschenes Bild, obwohl die Kamera es sehr viel besser könnte.

Meiner alten Kamera konnte ich im Automatikmodus wenigstens beibringen, z.B. maximal ISO 400 zu wählen. Sie hat dann auch eine ISO-Automatik gemacht, ist aber bis maximal 400 ISO hoch gegangen. Bei dieser Kamera kann man im Automatikmodus gar nichts an den 3 entscheidenen Parametern vorgeben und im Modus P auch nur genaue ISO-Werte, aber keine Maximalbegrenzung. Aber immerhin, kann man so in einer konkreten Situation einen definierten ISO-Wert einstellen.

Bei Innenaufnahmen wird oft ISO 800 gewählt, wenn kein Blitz zum Einsatz kommt. Da sehen die Aufnahmen schon wirklich sehr verrauscht aus. Nötig wäre oft nicht, ISO 400 hätten gereicht, zumal die Kamera ja auch noch einen Verwackelungsschutz hat. Da stehen die Chancen gut, auch noch bei 1/10s Belichtungszeit eine scharfe Aufnahme hinzubekommen. Aber wie gesagt, im Modus P kann man definierte ISO-Werte erzwingen.

Und was ist mit der Blende? Wie ich gelesen habe, existiert da bei vielen Kompaktkameras überhaupt keine. Auch die Ixus hat wohl keine, was sich mit meinen Beobachtungen deckt. Unterschiedliche Blendwerte entstehen rein über den Zoomfaktor, wo sich ja aus optischen Gründen die Blende erhöht, je stärker man zoomt. Trotzdem hatte ich manchmal einen wesentlich größeren Blendenwert, was aber auf den sogenannten ND-Filter (Neutral Density Filter) zurückzuführen ist. Das scheint ganz simpel nichts weiter zu sein, als eine schaltbare "Sonnenbrille" vor dem Sensor, damit bei großer Helligkeit das Licht reduziert wird. Mehr Tiefenschärfe bewirkt das nicht. Die einzige Beeinflussung der Tiefenschärfe ist über den Zoomfaktor zu erreichen. Das konnte meine alte F60 noch viel besser, die hatte eine echte Blende.

Trotz alledem, die meisten mit Vollautomatik geschossenen Bilder sehen noch ganz passabel auf dem Monitor aus. Die Sensoren sind mittlerweile so gut, dass auch ein ISO 800 Wert noch akzeptable Bilder bringt. Für die meisten Alltagsansprüche reicht es. Und für wirklich gute Fotos muss man eben zu schwererem Equipment greifen. Was die technischen Finessen angeht, so scheint bei den Kompakten immer mehr wegrationalisiert zu werden. Aber bei 99 Euro will ich nicht klagen.

28.03.2015 :: Arbeitszeiten festhalten mit toggl

Ich suchte nach einem Werkzeug, mit dem ich meine Arbeitszeiten festhalten kann. Ich mache das schon seit vielen Jahren, weil ich wissen muss, wie viel Zeit ich in welche Projekte gesteckt habe. Auch ist es interessant zu wissen, wie viel produktive Zeit man täglich und wöchtentlich gehabt hat und in welche Projekte die geflossen ist. Neben den Notwendigkeiten für abrechnungstechnische Sachen ist das für mich auch Interesse an solchen Daten.

Nachdem ich über Jahre ein elektronisches Werkzeug dafür hatte, war ich die letzten Jahre doch wieder händisch mit Bleistift unterwegs. Das funktionierte von der Erfassung recht gut, aber für die Auswertung muss man doch wieder alles irgendwie in den Computer eingeben. Und das war doch wieder recht lästig, so dass ich immer Wochen damit hinterherhing. Also kein Zugriff auf aktuelle Daten.

Mittlerweile entwickelt sich ja alles in Richtung Apps und Cloudanwendungen. Und ich merkte, dass gerade die Zeiterfassung ein beliebtes Thema ist, wo zahlreiche Lösungen entstehen. Da spürt man einen neuen Aufbruch hin zu wirklich einfach zu nutzenden Werkzeugen.

Nach etwas Recherche bin ich bei toggl hängengeblieben. Eine gehostete Lösung mit Zugriff über App, nativen Windows-Client und über Webbrowser. Ich nutze derzeit fast ausschließlich das recht komfortable Webinterface.

Toggl gibts kostenlos oder als Bezahlversion. Mit 5 Dollar pro Monat geht es schon eher an meine oberste Schmerzgrenze. Die kostenlose Variante ist aber wirklich gut benutzbar, also keine Sparversion, wo man sich ständig genötigt fühlt, auf die Proversion aufzurüsten. Schön wäre, wenn es mal eine bezahlte Schmalspurversion für vielleicht 2 Euro pro Monat gäbe...

So ein Werkzeug steht und fällt mit der unkomplizierten Bedienung. Und die finde ich bei Toggl recht ausgeklügelt. Man kann sowohl einen Timer starten, der dann die gerade laufende Zeit einem Projekt zuordnet. Oder man kann im Nachhinein beliebige Zeitspannen eingeben. Jeder Zeitabschnitt ist einem Projekt zugeordnet und hat ein kurzes Infofeld. So etwas wie Unterprojekte gibt es nicht, was ich erst etwas schade fand. Man kann sich aber behelfen, in dem man im Infofeld bestimmte Wörter einträgt, nach denen man später auswerten kann. Ebenso könnte man natürlich auch zusätzliche Projekte anlegen, die z.B. "Kunde X Prj Y" heißen. Auch kann man Einträge taggen, um sie später anhand dieses Tags zusammenzufassend auszuwerten.

Interessant ist, dass selbst in der kostenlosen Version mehrere Workspaces aufgemacht werden können. Die funktionieren wie unabhängige Konten, was in der Auswertung auch getrennt werden kann.

Wenn man so sorgsam täglich seine ganzen Zeiten eingegeben hat, kann man ganz schnell Auswertungen machen. Die Möglichkeiten sind zahlreich. Man kann auch detailiert filtern und die Zeitspannen definieren. So kann man z.B. ganz schnell herausfinden, wie viele Stunden man in diesem Jahr schon an einem Projekt gearbeitet hat und dort z.B. im Beschreibungsfeld "Doku" drin stehen hat.

Auswertungen lassen sich als PDF herunterladen. Das war mir wichtig, damit ich meine Daten offline archivieren kann. Selbst wenn es toggl mal nicht mehr geben wird, hab ich meine Daten noch. So lade ich mir dann auch wöchentlich ein PDF mit der Wochenübersicht herunter.

Ich nutze das Teil seit mittlerweile 2 Monaten und bin recht zufrieden damit. Die Funktionalität der kostenlosen Version kann man als sehr freigiebig-wohlwollend bezeichnen. Aber mittlerweile hat man mich sowieso schon soweit, dass mir das Teil so wichtig geworden ist, dass ich auch 5 $ pro Monat für zahlen würde. Und für gute Werkzeuge zahle ich auch gerne.

Eine Kleinigkeit nervte im getesteten Zeitraum: Für 2-3 Tage funktioniert das Eingeloggt-Bleiben nicht. Auf Nachfrage teilte man mir mit, dass man dran arbeitet. Da muss irgendwas mit der Cookie-Behandlung schief gelaufen sein. Ansonsten war der Dienst aber immer erreichbar.

Weblinks:

23.03.2015 :: Hilfe, Updates - nichts geht mehr

Für Notfälle stehen immer noch ein paar alte Computer in der Ecke. Jetzt brauchten wir einen davon. Ein 2,8GHz Rechner mit leider nur 1GB Ram. Ein alter Celeron mit nur einem Prozessorkern, also etwas, womit man eigentlich nicht mehr haben möchte. Der stand jetzt knapp 2 Jahre in der Ecke, war noch fertig mit Windows 7 und unserer Anwendungssoftware eingerichtet.

Ich dachte mir, super, den schließ ich jetzt mal schnell an, mache ein paar Updates und dann kann man damit arbeiten. Ist in einer Stunde alles erledigt. Oh je, was hab ich mir dabei bloß gedacht...

Nach dem Booten war es kaum möglich, mit dem Rechner zu arbeiten. Der Mauszeiger bewegte sich kaum und jeder Klick dauerte Minuten, bis sich irgendwas tat. Nach kurzer Zeit war klar: Ah ja, der macht jetzt stur im Hintergrund seine Windows-Updates. Und so lange geht im Vordergrund so gut wie nichts. Insgesamt waren es 127 Updates! Mist!

Gut, dann lass ich den laufen und kümmere mich um was anderes. Ganze 8 Stunden später schaute ich mal wieder auf den Rechner, da waren immer noch etwa 30 Updates offen. Unglaublich! Eigentlich ist das doch sehr komisch. Was passiert denn bei all den Updates? Da werden selbst bei 127 Updates doch schlussendlich doch nur wenige Gigabyte Daten ausgetauscht. Und das zieht sich nun schon 8 Stunden hin. An solche Szenarien scheint Microsoft nicht gedacht zu haben, von den seltenen Service-Packs als bessere Lösung mal abgesehen. Aber für W7 gibts ja auch nur SP1, das wäre hier keine Möglichkeit gewesen.

Nachdem nun nach etwa 10 Stunden alles fertig war, musste der Rechner neu gebootet werden. Beim Reboot meinte er aber, dass irgendein Fehler aufgetaucht ist. Jetzt dauerte es wieder eine Stunde, dann konnte man sich endlich wieder einloggen. Aber was hatte er getan: Alle Updates wurden wegen irgendeines Fehlers wieder rückgängig gemacht, 10 Stunden umsonst!

Am nächsten Tag nochmal alles angeschmissen. Aber diesmal nach 4 Stunden einfach mal den Rechner runtergefahren, womit er dann erstmal die 40 Updates, die er schon drauf hatte, komplett installierte. Das hätten wir schonmal. Dann wieder laufen lassen. Am Abend des nächsten Tages war dann alles fertig und der Rechner gab endlich mal Ruhe. Kaum noch Prozessorlast.

Am nächsten Tag bootete ich und schon wieder war alles blockiert. Was macht der denn jetzt schon wieder? Nach einer halben Stunde tauchte endlich unter dem Windows-Update mal ein Hinweis auf, dass er schon wieder munter Updates installiert. Warum denn das? Ich dachte, die wären gestern schon alle drauf gewesen. Also nochmal etwa 3 Stunden laufen lassen, dann war auch das geschafft.

Irgendwie war aber auch das noch nicht alles, immer wieder war der mit irgendwas beschäftigt und nichts ging.

Jetzt nach 4 Tagen scheint sich der Rechner so langsam zu beruhigen. Endlich kann man mal damit arbeiten. Ich war schon kurz davor, ihn wütend aus dem Fenster zu werfen...

09.03.2015 :: 95% Software

Ich will mal wieder etwas meine Hassliebe zu Linux ausleben. Warum kann nicht mal einfach etwas funktionieren?

Ok, was passierte: Ich wollte ein Netzwerk mal etwas auf Sicherheit überprüfen. Ehe ich mir nun die wichtigsten Werkzeuge unter Windows installiere, dachte ich: Nimm doch einfach eine passende Linux-Live-CD, wo alles drauf ist. Nach kurzer Recherche fand ich auch was sehr Passendes: Das Network Security Toolkit, kurz NST. Also Image runtergeladen, mit imgburn gebrannt und dann davon gebootet.

Alles funktionierte ausgezeichnet, nach 2-3 Minuten war der Desktop da. Und im Startmenü fand ich jede Menge Programme. Die erste Hürde, die ich nehmen musste, war die Tastatureinstellung. Die stand auf englisch. Weil wohl fast jeder hier eine Umstellung wünscht, wäre es doch nett gewesen, gleich mal auf dem Desktop etwas Klickbares zu haben, wo man die Tastatur hätte einstellen können. So musste ich mich erstmal durch alle möglichen Menüs durchwursten, um die Umstellung zu finden. Weil das System auf Fedora-Linux aufsetzt, kenne ich mich da auch nicht so gut aus.

Aber das ist eigentlich Kleinkram, an sowas kann man sich gewöhnen. Und wenn man es einmal weiß, ist ja auch alles gut.

Das wichtigste Programm, um das es mir ging, war Zenmap. Und jetzt kam das eigentliche Problem. Ich startete es, aber es brach mit irgendeiner Fehlermeldung ab. Es gab einfach keine Möglichkeit, das Teil gestartet zu bekommen. Und sowas ist dann mal wieder total frustrierend. Da schreit eine Stimme in mir: "Kann denn nicht einmal etwas einfach nur funktionieren? Mehr will ich doch gar nicht! Warum immer dieser Bastelkram, der nur funktioniert, nachdem man sich stundenlang durch diverse Foren durchgewühlt hat."

Das ist diese 95% Software - das Meiste ist wirklich gut gelöst und dafür kann ich eigentlich nur sagen: Hoher Respekt für die Menschen, die das geschaffen haben. Da steckt jede Menge Arbeit drin. Aber all das nützt mir schlussendlich nichts, wenn die restlichen fehlenden 5% dafür sorgen, dass ich es nicht nutzen kann. An irgendeinem Punkt ist irgendwas noch nicht zu Ende gedacht, so dass es schlussendlich nicht überall sauber funktioniert.

Also hab ich die Lösung gewählt, die meist gut funktioniert: Für Zenmap das Windows-Paket heruntergeladen und unter Windows installiert. Und ja, es funktionierte auf Anhieb.

So ist leider die Realität, auch wenn ich das als jemand, der seit vielen Jahren Linuxsysteme administriert, wirklich bedauere. So viel Gutes, und dann scheitert es so oft kurz vor der Ziel-Linie. Und weil gerade das Wetter so schön war, wollte ich nicht wieder Stunden im Internet verbringen, sondern hab die Einfachlösung gewählt, war nach 30 Minuten fertig und konnte mich dann in die Sonne legen...

07.03.2015 :: Protokoll einer Fehlersuche: Outlook

Outlook fasse ich nicht ohne Not an. Aber in diesem Fall ging es nicht anders. Ein Bekannter hatte sich seine Maildateien zerschossen.

Outlook benutzt Mailcontainerdateien, also alle Mails eines Kontos liegen in einer Datei mit Endung .pst. Und natürlich ist das Format proprietär. Zerschießt man sich so eine Datei, hat man gleich auf alle Mails keinen Zugriff mehr. Und man kann nicht mal eben mit einem Texteditor reinschauen, was in der Datei durcheinander geraten ist, wie das bei Thunderbird ginge.

Bekloppt ist nun auch, dass sich Outlook gar nicht mehr öffnete. Es kam die Fehlermeldung, dass die Datei nicht gefunden wird, obwohl sie da war. Sie war eben einfach nur korrupt. Damit hatte man nun auch keinen Zugriff mehr auf die anderen Konten. Das ist für mich schlechtes Design, weil der normale Nutzer keine Chance mehr hat, das System zu reparieren.

Zum Glück war eine Datensicherung da, so dass man die defekten Dateien erstmal austauschen konnte, um überhaupt erstmal wieder Outlook zu öffnen.

Dort versuchte ich dann, die defekten Dateien nochmal zu öffnen, was aber nicht funktionierte. Nach etwas Recherche fand ich heraus, dass Microsoft auch ein Werkzeug zur Reparatur mitliefert: scanpst.exe, was man im Office-Installationspfad findet. Die Reparatur dauerte einige Zeit, lief aber zumindest durch. Das Werkzeug berichtete, dass keine schwerwiegenden Probleme gefunden wurden. Soweit schonmal gut.

Leider funktionierte es aber immer noch nicht, auf die Dateien mit Outlook zuzugreifen. Sowohl das Öffnen aus Outlook heraus gelang nicht, wie auch der Austausch vor Start von Outlook. Also doch noch irgendwie kaputt, was das Reparaturwerkzeug aber nicht mitteilte.

Dann kam noch ein zweiter komischer Fehler hinzu: Outlook holte keine Mails mehr ab. Weder beim Start, noch beim Klick auf "Senden&Empfangen". Es passierte einfach nichts. Keine Fehlermeldung, keine Meldungen, keinerlei Reaktion. Solche Systeme gefallen mir ja besonders, die völlig schweigsam etwas einfach nicht tun. Also nochmal gecheckt, ob alles richtig konfiguriert war, war es aber nach erstem Augenschein.

Outlook also nochmal geschlossen und wieder geöffnet. Und auch mal den Offline-Modus aktiviert und wieder deaktiviert. Half alles nichts. Auch mal im Taskmanager geguckt, ob vielleicht bei geschlossenem Outlook noch ein Outlook-Prozess im Speicher ist. War ein Tipp, den ich im Netz fand. War aber nicht der Fall.

Was man in solchen Fällen immer mal tun kann: Neuboot des Rechners. Besondere Hoffnung hatte ich hier nicht, weil es sich für mich nicht wie so ein Problem anfühlte. Nach dem Reboot Outlook geöffnet und was soll ich sagen: Mailempfang funktionierte auf einmal. Verrückte Sache! Und dann versuchten wir auch nochmal, die reparierten pst-Dateien zu öffnen und auch das funktionierte jetzt!

Das zeigt mal wieder: Die Fehlersuche gestaltet sich bei solchen Systemen sehr schwierig, die nicht klare Rückmeldung geben, wo ein Problem vorhanden ist. Und es ist gold wert, wenn man regelmäßig solche Systeme betreut und mit der Zeit genau weiß, welche Fehlermuster es gibt und wie die zu lösen sind. Es ist eine gute Strategie, sich auf wenige Programme zu konzentrieren und diese auch gut zu kennen. Gerade dann, wenn man viele Rechner tagtäglich administrieren muss. Jede neue Software, die man noch nicht kennt, birgt das Potenzial, einen erstmal viele Stunden mit Fehlersuche zu beschäftigen. Und der nächste Fehler kommt bestimmt...

Nachtrag: Outlook ist sehr empfindlich, was das nicht ordnungsgemäße Beenden angeht. Wenn der Empfang nicht funktioniert, muss evtl. auch noch die SRS Datei gelöscht werden. Diese befindet sich unter \Roaming\Microsoft\Outlook. Danach nochmal ein Neustart des Rechners. Allerdings beeinhaltet die SRS-Datei einige Einstellungen des Senden-Empfangen-Dialogs, die dann weg sind. Muss man also nach so einer Aktion nochmal durchgehen und evtl. neu konfigurieren. Alternativ spielt man eine Backkup-Kopie der SRS-Datei ein. Siehe hierzu auch: http://www.outlook-tips.net/beginner-user/srs-file/

07.03.2015 :: Protokoll einer Fehlersuche: Fritzbox

Ui, was ein schöner Fehler mal wieder, der uns eine Stunde aufgehalten hat. Wir wollten mal eben eine Fritzbox 3390 einrichten. Das wäre normalerweise in 20 Minuten erledigt gewesen. Alles funktionierte auch problemlos und wie geplant. Doch irgendwie wollte die nicht ins Internet.

Also ein paar Standard-Checks. Dabei sah alles ganz gut aus. Die Fritzbox war der Meinung, dass die DSL-Verbindung vollkommen in Ordnung ist. Auch der eingebaute Test der Verbindung funktionierte! Auf der Windows-Kommandozeile konnte man zwar die Box anpingen, aber keinen Server im Internet. Wobei das schon bei genauerer Betrachtung schon komisch war: Ein Ping auf google.de ging zwar nicht, aber die Namensauflösung funktionierte! Das bedeutet also, dass der Router schon irgendwie über DSL verbunden ist, weil er ja den Nameserver des Providers Versatel erreicht. Ebenso konnte er sich auch per ntp die Zeit holen.

Was kann das denn jetzt sein? Das war eine Fehlersituation, die mir so neu war. Einerseits steht die DSL-Verbindung und auch der Nameserver ist erreichbar, aber konkrete Server kann man im Internet nicht erreichen, weder über Name, noch über IP. Um Fehler vom Computer auszuschließen, testeten wir mal 2 Sachen. Einerseits stießen wir das Firmware-Update der Box mal an. Nach Theorie müsste das ein Prozess sein, der völlig unabhängig vom angeschlossenen Computer abläuft. Die Box guckt also selbständig im Netz, ob es ein Update gibt. Und das funktionierte nicht. Das legte die Vermutung nahe, dass es keine Problematik clientseitig ist. Wir versuchten umgedreht nochmal mit dem alten Router ins Netz zu kommen und das funktionierte problemlos.

Also doch nochmal alle Einstellungen systematisch checken. Auch Dinge, die eigentlich klar und logisch sind. Ich mache es kurz: Bei den Logindaten hatte sich ein Fehler eingeschlichen. Versatel vergibt für eine Firma einen Loginnamen, z.B. firmaxy-du@versatel. Dieser Loginname gilt normal für alle DSL-Anschlüsse dieser Firma. Aus historischen Gründen war aber der Loginname am alten Standort firmaxy@versatel und am neuen Standort firmaxy-du@versatel. Und das hatten wir versehentlich durcheinandergeworfen.

Interessant-irreführend ist nun, dass bei so einem falschen Login scheinbar alles funktioniert. Die PPP-Aushandlung hatte funktioniert und selbst der Nameserver war vefügbar. Die Fritzbox dachte so auch, alles wäre ok. Nur der konkrete Datenaustausch ins Internet wurde aufgrund des falschen Logins blockiert. Eigentlich sollte das so nicht sein, eigentlich hätte die PPP-Aushandlung schon schief laufen müssen und so hätte auch die Fritzbox gemeldet, dass da was nicht stimmt, vermutlich auch, dass die Anmeldedaten nicht stimmen.

Das ist immer ein großes Problem bei der Fehlersuche. Das System könnte eigentlich von sich aus sehr konkret mitteilen, wo das Problem liegt. Aber dies wird völlig verschleiert und durch das Verhalten vermutet man kein Problem an genau dem Punkt.

07.02.2015 :: Schöne Stirnlampe

Stirnlampen find ich unheimlich praktisch, darauf möchte ich nicht mehr verzichten. Wenn man im EDV-Service unter Tischen herumkriecht, um dort an PCs zu arbeiten, hat man damit optimales Licht und gleichzeitig die Hände frei. Aber auch, wenn mal was am Auto gemacht werden muss, kann man die gut nutzen.

Ich brauchte mal wieder was Neues. Die letzte war eine von LiteXpress, die es aber leider nicht mehr gibt. Es war nicht einfach, was brauchbares Neues zu finden.

Wichtig für mich ist die Batteriebestückung. Viele kleinere Lampen haben 3xAAA Batterien. Das ist eher ungünstig, weil man so mindestens 3 Ersatzbatterien braucht. Es hat aber noch einen weiteren gravierenden Nachteil: Wenn man Akkus einsetzt, dann zerstört man sich die Akkus recht schnell, wenn die unterschiedliche Ladezustände haben. Es zerstört dabei immer den Akku, der schon leer ist, während die anderen noch Energie liefern können. Dann polt sich nämlich die Spannung um und das ist sehr schädlich. Weil Akkus auch unterschiedlich altern, ist recht bald von unterschiedlichen Kapazitäten der Einzelzellen auszugehen.

Insofern sind Lampen optimal, die mit einer einzigen Stabzelle auskommen. Da kann man den Akku bis zum Ende leersaugen, ohne das er Schaden nimmt. Genau sowas wollte ich jetzt wieder haben. Am besten mit einer AA-Zelle, die hält mit mindestens 2000mAh wesentlich länger, als eine 800mA AAA-Zelle.

Fündig wurde ich bei Fenix mit der HL23. Fenix ist mir schon länger bekannt, die bauen qualitativ recht gute Lampen, haben dabei aber noch ein gutes Preis-Leistungsverhältnis. Die HL23 ist recht neu. Kostenpunkt ungefähr 35 Euro. War eigentlich schon über dem Preislimit, was ich geplant hatte. Aber ok, lieber ein paar Euro mehr und dann was wirklich Vernünftiges.

Heute kam das Teil, eine wirklich sehr solide wirkende Lampe. Genau das, was ich gesucht habe. Recht klein und mit 100g inkl. Akku ausreichend leicht.

Von der Lichtstärke hat sich auch wieder einiges getan, die 5 Jahre alte LiteXpress war da noch wesentlich schwächer. Aber eigentlich brauche ich für meine Zwecke gar nicht so viel Licht. Besser ist es, eine längere Akkulaufzeit zu haben. Man kann problemlos auf den zweithellsten Modus zurückschalten. Dann hält der Akku so etwa 4 Stunden. Dann gibts noch einen Extrem-Spar-Modus mit 110 Stunden Laufzeit. Die Helligkeit reicht immerhin, um in dunkler Umgebung sich wunderbar orientieren zu können.

Die Steuerung ist recht simpel: Mit einem etwas längeren Tastendruck schaltet man ein oder aus. Ist die Lampe eingeschaltet, reicht ein kurzer Tastendruck, um in den jeweils nächsten Leuchtmodi zu schalten. Leider hat die Lampe keine Memofunktion. Wenn man sie einschaltet, ist sie immer erstmal im hellsten Modus.

Der größere Bruder wäre die Fenix HL50. Die ist deshalb nochmal interessant, weil man die Lampe auch vom Kopfhalter entnehmen kann. Dann kann man sie wie eine Taschenlampe verwenden, die allerdings seitlich abstrahlt. Mit 50 Euro aber auch deutlich teurer.

Jetzt bin ich mal gespannt, wie sich die Fenix im Alltag so bewährt.

01.02.2015 :: Bezahlbare ISDN-Computer-Fax-Lösung

Der Markt vernünftiger ISDN-Faxlösungen auf dem PC hat sich merkwürdig entwickelt. Vor 10 Jahren gab es noch sehr schicke und ausgefeilte Fax-Lösungen für den PC. Ich meine damit Lösungen für Privat und kleine Unternehmen. Da gab es z.B. Fritzfax oder Winfax. Mithilfe einer ISDN-Karte konnte man damit sehr komfortabel Faxe versenden und empfangen. Man hatte auch ein Logbuch, wo alle versendeten Faxe aufgelistet waren, die man sich später auch nochmal anschauen konnte. Ebenso konnte man empfangene Faxe beliebig lange aufbewahren und ansehen. Und natürlich gabs auch ein Adressbuch, wo man wichtige Faxnummern ablegen konnte.

Heute sieht die Situation sehr viel ungünstiger aus. Es hat sich ausgefritzt. Es gibt so gut wie keine Fritz-ISDN-Produkte mehr. Die Software Fritzfax wurde auch nicht mehr weiter gepflegt, läuft aber zum Glück noch unter Windows 7. Wer einen modernen Rechner hat, hat auch keine PCI-Slot mehr und dann gibts auch keine Möglichkeit mehr, eine Fritzcard zu installieren. Diese Situation hatte ich letztens, als ich ein Altsystem aktualisierte. Jetzt hatten wir das große Problem, keine vernünftige Faxanbindung mehr zu haben.

Ok, dachte ich, ist ja kein Problem. Heute gibts ja diese wunderbaren Multifunktionsgeräte für wenig Geld, die auch faxen können. Doch leider entpuppte sich die Softwarelösung als ziemliche Katastrophe. Gesendete Faxe konnte man nicht mehr ansehen und auch empfangene Faxe wurden nur kurzfristig aufbewahrt. Das war auch alles so murksig gelöst, dass recht bald der Frust bei den Anwendern da war. So funktionierte das nicht und ich wollte auch nicht erst alle Multifunktionsgeräte durchprobieren, um vielleicht doch noch was Brauchbares zu finden.

Dann hab ich mich mal umgeschaut, was es für Faxlösungen für kleines Geld gibt. Nichts weit und breit. Oder wenn, dann machte das keinen seriösen Eindruck. Was es gibt, sind Faxserverlösungen, die aber eher in Preisregionen 500-1500 Euro liegen.

Schlussendlich sind wir auf eine Notlösung umgestiegen, die aber derzeit noch sehr gut funktioniert. Wir besorgten eine AVM Fritz!Card USB V2.1. Das ist ein kleines externes Modem, was man über USB anschließen kann. Leider wird die seit bestimmt 8 Jahren nicht mehr hergestellt. Weil wohl aber andere Leute den derzeitigen Engpass damit überbrücken, sind die Gebrauchtpreise dafür ziemlich hoch. Dafür muss man knapp 100 Euro auf den Tisch legen. Mit dem Risiko, dass die Box vielleicht nicht optimal läuft.

Ok, wir sind das Risiko eingegangen, haben dann Fritzfax installiert und wir hatten Glück, es funktionierte alles problemlos. Mittlerweile seit 6 Monaten.

Heute hab ich mal wieder etwas recherchiert und es scheint eine brauchbare Software zu geben, die Fritzfax ersetzen könnte. Nennt sich FaxTalk und kostet 59 Dollar. Läuft auf Windows 7 und 8. Wird wohl auch aktiv weiter entwickelt.

Solche Faxlösungen greifen auf die Capi-Schnittstelle zurück. Das ist recht universell, irgendeine Hardware wird man immer finden, die ISDN auf Capi umsetzt. Da gäbe es derzeit im professionellen Umfeld z.B. die Lancom-Router, die noch über ISDN-Schnittstellen mit Capi-Anbindung verfügen.

Ganz modern bietet AVM derzeit mit der Fritzbox 7490 und einigen anderen Boxen auch Faxfunktionalität an. Aber auch hier gibt es keine wirklich brauchbare Lösung. Der Faxempfang ist mit Mailweiterleitung noch recht brauchbar. Aber der Faxversand geht nur über Webinterface, es gibt kein Versand über Druckertreiber. Das kann man nur als Notlösung bezeichnen, um irgendwie mal ein Fax zu versenden. Eine brauchbare Faxlösung für den Büroalltag ist das nicht. Darüber war sich wohl auch AVM bewusst und hat eine Notlösung zurechtgestrickt: Das gute alte Fritzfax wurde angepasst, damit es auch mit der Fritzbox 7490 zusammenarbeitet. Allerdings gibts keinerlei Support für diese Lösung und es handelt sich auch um die alte Fritzfaxsoftware, die nicht weiterentwickelt wird. Aber ok, diese Lösung scheint derzeit reibungslos zu funktionieren.

Weblinks:

30.01.2015 :: Mach mal wieder eine Datensicherung

Es bleibt das Top-Thema, was oft sträflich vernachlässigt wird. Die Datensicherung. Und wenn ich darauf anspreche, sind die Reaktionen fast immer gleich. Mit leicht schlechtem Gewissen kommt ein:

"Ja, sollte ich eigentlich... Hab ich mir auch schon oft vorgenommen... Müsste ich mal wieder machen..."

Auf das große Gejammer, wenn wirklich mal was weg ist, will ich jetzt nicht weiter eingehen. Stattdessen mach ich gleich mal einen Vorschlag, wie man die Sache recht einfach und kostengünstig geregelt bekommt.

2 wesentliche Punkte gleich am Anfang:

  1. Datensicherung muss einfach sein.
  2. Datensicherung muss zu einer Angewohnheit werden.

Also einmal ein einfaches Konzept und dann regelmäßig machen. Der Jahresanfang ist ein guter Zeitpunkt, dies mal in den Griff zu bekommen.

Hier mein recht universeller Vorschlag für private Rechner oder für kleine Firmen mit Windows 7/8 Betriebssystem.

3 externe Festplatten (oder USB-Sticks), die man rotierend für die Sicherung verwendet. Wir brauchen eine gewisse Redundanz, falls mal was schief geht. Minimum sind da 3 Platten. Diese Platten verteilen wir am besten auch in 2 unterschiedlichen Gebäuden, um Diebstahl oder Brandgefahr vorzubeugen.

Rotierend heißt, das bei jeder Sicherung die nächste Festplatte verwendet wird. Platte 1 -> Platte 2 -> Platte 3. Dann wieder von vorne. Auf jeder Festplatte liegt eine Vollsicherung aller wichtigen Daten.

Zur Wiederherstellung verwenden wir die letzte Sicherungsplatte. Falls die kaputt ist, die Platte davor.

Für die eigentliche Sicherung verwendet man die freie Software FreeFileSync. Achtung: Bei Installation auf Advanced Installation umschalten und die Adware abwählen. Sonst wird derzeit so ein dämlicher Vosteran Browserkram mitinstalliert.

FreeFileSync synchronisiert Verzeichnisse. Es guckt also ob der Inhalt der externen Festplatte mit der internen Festplatte übereinstimmt. Und wenn Abweichungen existieren, werden nur diese aktualisiert. Dann stimmen wieder beide Speicherorte überein und wir haben einen identische Kopie.

Natürlich synchronisieren wir nicht den kompletten Rechner, sondern nur die Datenverzeichnisse. Hier muss man erstmal sorgsam herausfinden, wo die wichtigen Daten liegen. Diese nimmt man in den Synchronisationsauftrag mit auf. Ein Synchronistationsauftrag kann mehrere Verzeichnisse beinhalten, die synchronisiert werden. Diesen speichert man sich ab und kann den dann mit wenigen Klicks immer wieder benutzen. Als Sicherungsoption wählt man "Spiegeln". Links das Quell-Laufwerk und in der rechten Ansicht das Ziellaufwerk, also die externe Festplatte.

Typisch versuche ich, alle Daten auf eine extra Partition auszulagern, also alles z.B. unterhalb von d:\daten abzulegen. Das ist dann der wichtigste Pfad, den man synchronisiert. Daneben wäre unter Windows 7/8 auch noch c:\Benutzer\<Benutzername>\Desktop wichtig. Dort legen viele auch zahlreiche Dokumente ab, die wir sichern sollten. Theoretisch könnten wir auch komplette c:\Benutzer\<Benutzername> sichern, aber das führt zu zahlreichen Dateien, die wir nicht mal eben sichern können, weil sie geöffnet sind.

Bei jeder Anwendungssoftware, die wir verwenden, müssen wir herausfinden, wo sie ihre Daten ablegt. Fast immer irgendwo unterhalb von c:\Benutzer. Hier sollte man auch die versteckten Ordner mal anzeigen lassen, um z.B. an den wichtigen Pfad c:\Benutzer\<Benutzername>\AppData\Roaming heranzukommen.

Mit der einmaligen Einrichtung müssen wir uns etwas Mühe geben, aber wenn das erstmal steht, reicht ein Klick auf den Sicherungsauftrag. Den legen wir mit "Speichern unter" am besten auf den Desktop.

Bei jeder Sicherung heißt es jetzt: Platte anstöpseln, Backupauftrag starten und auf Snychronisieren klicken. Das erste Synchronisieren (auf jeder Platte) dauert bei großen Datenmengen natürlich erstmal einiges an Zeit. Aber dann werden ja forwährend nur noch die Veränderungen synchronisiert. Das geht wesentlich schneller.

Ganz wichtig: Nach der Synchronisation die Platte ordentlich im Tray unten rechts abmelden. Sonst droht Datenverlust.

In dieser Art ist die regelmäßige Datensicherung eines Rechners wirklich ein Kinderspiel.

Statt externe Festplatten kann man evtl. auch auf USB-Sticks zurückgreifen. Und es kann auch eine gute Idee sein, die Anzahl der externen Speichermedien zu erhöhen, also z.B. 5 Sticks rotieren zu lassen.

Bei sensiblen Daten sollte man zusätzlich noch eine Verschlüsselung der Daten vornehmen. Das verkompliziert das Prinzip allerdings etwas. Ich würde derzeit noch auf truecrypt Version 7.1a setzen. Alternativ die auf truecrypt basierende Weiterentwicklung VeraCrypt.

26.01.2015 :: Wie erwartungskonform ist Technik?

Was ist ein gutes Stück Technik? Es sollte sich so verhalten, wie wir es erwarten. Denn dann ist die Bedienung einfach und stimmig.

Wenn hingegen etwas nicht so funktioniert, wie wir es erwarten, dann werden wir schnell ärgerlich oder sind irritiert. Dann müssen wir erst nervige Handbücher lesen oder Hotlines anrufen.

Wo kommen unsere Erwartungen her? Vieles ist einfach Gewohnheit und wir wissen es von Geräten, die wir schon kennen. Manches ist so selbstverständlich, dass es uns gar nicht mehr auffällt. Das wir auf etwas drücken, was wie eine Taste aussieht, wäre sowas Selbstverständliches. Und dass man in Software auch sowas hat, was sich Button nennt und klickbar ist, wäre eine Übernahme eines Konzeptes aus der realen Welt in die virtuelle Welt.

Für Gerätedesigner ist es also eine Herausforderung, ein Verständnis dafür zu entwickeln, was Menschen erwarten und wie sie typischerweise geprägt sind. Das ist durchaus eine große Herausforderung, weil wir natürlich nicht alle gleich geprägt sind. Man muss vielmehr herausfinden, was eine große Anzahl von Menschen als intuitiv und erwartungsgemäß versteht.

Intuitiv kann durchaus auch etwas sein, was man noch nicht kennt. Man kann es sich logisch aus dem ableiten, was man kennt. Oder ein Konzept ist sehr eingängig, wenn man es einmal gesehen hat. Das Wischen zum weiterblättern von Bildern auf einem Tablet zum Beispiel. Das ist ein gutes intuitives Konzept, weil man es so ähnlich vom Blättern in Büchern kennt. Es ist nicht völlig ungewohnt und es ist leicht zu erlernen.

Viele Geräte sind heute deshalb recht intuitiv geworden, weil sie alle auf ähnliche Konzepte zurückgreifen. Ein solches Konzept wäre eine Menüstruktur, durch die man sich durchhangeln kann, um die Funktionalitäten zu verstehen, die ein Gerät kann. Auch wenn die konkrete Bedienung oft anders ist, das Basiskonzept bleibt.

Bei vielen digitalen Armbanduhren weiß man, dass man die Uhrzeit stellt, in dem man einen Knopf etwas länger gedrückt hält. Es gibt einige weitere Geräte, wo das ähnlich funktioniert. Wenn man das Konzept einmal kennt, kann man es einfach mal ausprobieren und ein neues Gerät erforschen.

Ein Auto ist ein schönes Beispiel mit einer hohen Erwartungskonformität bei allen Herstellern. Egal in welches Auto ich einsteige, die wirklich wichtigen Sachen funktionieren überall ganz ähnlich. Dafür brauche ich keine Schulung.

Wie wäre die Technikwelt, wenn noch viel mehr auf Erwartungskonformität geachtet würde? Man muss sich mal vorstellen, welcher Aufwand produziert wird, wenn etwas nicht erwartungskonform ist. Gerade bei Massenprodukten. Millionen von Menschen werden verwirrt, müssen alle Zeit damit verbringen, eine unkluge Entscheidung zu verstehen und produzieren über die Jahre Millionen Supportanfragen. Und einige Firmen sind so ignorant, dass sie selbst nach Jahren immer noch nicht nachbessern, obwohl sie es ganz einfach könnten. Stattdessen werden lieber neue Supportabteilungen eingerichtet...

18.01.2015 :: Passwörter mit System

Was müssen wir uns heute mit unzähligen Passwörtern rumschlagen! Wer in dem Bereich wirklich alles richtig machen will, hat es schon wirklich schwer.

Der Mensch ist durch und durch ein musterbildendes System. Und so erlebe ich auch bei der Passwortsuche, dass viele Muster oder Systeme nutzen, um ihre Passwörter zu kreieren.

Was viele nicht bedenken oder tief genug durchdringen: Diese Muster machen das Knacken mitunter spielend leicht! Damit haben wir nur noch einen scheinbaren Schutz.

Ein schönes Beispiel. Wir nennen ihn mal Fritz. Er hatte die Idee, 2 Wörter hintereinanderzuhängen, die normal nicht in diesem Zusammenhang verwendet werden. So lautete dann ein Passwort z.B. KoordinatenBesteck.

Wenn wir das System nicht berücksichtigen, haben wir es hier mit einem 18 Zeichen langen Passwort zu tun. Jedes Zeichen kann mit Groß+Kleinbuchstaben 52 Werte annehmen. Damit gäbe es 52^18 = 7,7E30 Buchstabenkombinationen und das ist mit einem reinen Durchprobieren auch mit heutigen Möglichkeiten kaum knackbar. Wenn ein Computer in der Lage wäre, 1 Milliarde Möglichkeiten pro Sekunden auszutesten, wären das immerhin noch Milliarden von Jahren, die man dafür bräuchte.

Diese Betrachtung gilt aber nur, wenn wir wirklich davon ausgehen, dass jemand wirklich eine beliebige Kombination genommen hat. Real ist das aber nicht der Fall. Nehmen wir mal an, wir wissen, dass Fritz grundsätzlich dieses System nutzt und 2 Wörter hintereinander hängt. Denn Fritz findet dieses System so genial, dass er allen Freunden und Kollegen das System nahegelegt hat. Und auch im Weblog hat er letztens öffentlich darüber geschrieben.

Wenn das System oder Muster bekannt ist, verändert sich die Situation drastisch. Nehmen wir einemal an, Fritz verwendet einfache Wörter und alle denkbaren Wörter lassen sich in einem Wörterbuch von 10.000 Wörtern zusammenfassen. In diesem Fall haben wir viel weniger denkbare Kombinationen, genau sind es 10000^2 = 100E6. Das ist für heutige Möglichkeiten ein Witz. Hier würde ein Rechner, der 1 Milliarde Möglichkeiten pro Sekunde testet, in 0,1 Sekunden (!) am Ziel sein.

Ist das nicht irre? Hätten Sie mit so einem frappierenden Unterschied gerechnet? Milliarden von Jahren gegenüber 0,1 Sekunde! Bei gleicher Anzahl von Zeichen.

Fairerweise muss man jetzt natürlich sagen: Das Muster, wie man seine Passwörter kreiiert, ist ja nicht unbedingt bekannt.

Wir können nun sagen, dass viel davon abhängt, dass wir nicht nur das Passwort geheim halten, sondern nun auch noch das Muster, wie wir Passwörter bilden. Davon hängt sehr viel ab. Ist das Muster bekannt, kann jedes unserer Passwörter vielleicht in weniger als einer Sekunde geknackt werden! Der Schutz des Musters wird nun genauso wichtig, wie das Passwort selbst.

Ein Passwort geheim zu halten, ist noch relativ einfach. Aber können wir ein Muster auf Dauer geheim halten? Das Muster durchzieht ja all unsere Passwörter. Wenn auch nur ein Passwort mal bekannt wird, können Muster offensichtlich werden. Und dann haben wir eine ähnliche Situation, als hätten wir überall das selbe Passwort verwendet. Dann kommt man überall schnell dran, weil das Muster alle anderen Passwörter völlig entwertet.

Manche Muster sind zudem sehr verbreitet, so dass man sie in Standard-Tests aufnehmen kann, um Passwörter zu knacken. 2 oder mehr Wörter hintereinander zu hängen, ob mit oder ohne Leerzeichen, wäre so ein Standard-Muster. Wenn wir so ein Muster verwenden würden, bräuchte der Angreifer noch nichtmal irgendeine Zusatzinformation über uns. Wir handeln dann so, wie Millionen anderer Menschen, ohne es zu wissen und tappen in die Falle.

Das Problem ist auch, dass die Musterentwertung von Passwörtern nicht so offensichtlich ist. Viele Programme unterstützen uns z.B. darin, ein sicheres Passwort zu wählen und machen dann z.B. Vorgaben, mindestens 12 Zeichen zu verwenden. Und wenn wir das tun, bekommen wir positives Feedback, wir hätten jetzt ein sehr sicheres Passwort gewählt. Solche Checks können aber nicht die Gefahr von Mustern berücksichtigen. Genauso wenig, wie sie checken können, ob wir woanders das selbe Passwort verwendet haben.

Fazit: Muster bei der Passwortwahl sind gefährlich. Die Gefahr wird oft nicht erkannt. Auch automatische Tests können die Gefahr nicht aufspüren.

Weblinks:

08.01.2015 :: Protokoll einer Fehlersuche

War mal wieder 4 Stunden damit beschäftigt, ein Laptop zu überreden, im WLAN zu arbeiten. Administrator ist manchmal ein wirklich nervenaufreibender Job. Überall werden Fehler gemacht, aber ausbügeln muss sie zum Schluss allein der Admin. Denn vom Admin erwartet man, dass zum Schluss das WLAN läuft und nicht nur "fast laufen könnte".

Was war vorgefallen: Ein frisches Lenovo Edge E531 Laptop wurde mit Windows 7 eingerichtet. Klar, im professionellen Umfeld will keiner dieses Windows 8 Zeugs. Nach der Grundinstallation installiert man einfach den Lenovo Update Manager. Der checkt das System und holt sich automatisch alle fehlenden Treiber aus dem Internet. Zum Schluss hat man ein sauber laufendes System mit allen Treibern.

So lief das auch dieses Mal. Alles Bestens. Als aber 2 Wochen später das WLAN in Betrieb genommen werden sollte, fand Windows keinen Access-Point. Es suchte minutenlang, aber nichts da. Also mal geguckt, ob die Funknetzkommunikation im Laptop überhaupt eingeschaltet ist. Mit F8 öffnet sich ein Dialog und da wird angezeigt: Funknetz läuft. Wunderbar, da scheint ja alles in Ordnung. Aber warum findet das Teil nichts?

Also dann doch mal in den Gerätemanager geguckt und oh Schreck, da steht ein Netzwerkcontroller, der noch keinen Treiber hat. Natürlich ist Windows so blöd, einem nicht zu sagen, was das genau für ein Netzwerkgerät ist. Aber es ist natürlich naheliegend, dass es das WLAN ist.

An diesem Punkt bemerkt man schon diese Blödheit an allen Stellen. Kann mir Windows denn nicht sofort sagen: "Hör mal, ich kann überhaupt kein Netz aufbauen, weil ich überhaupt keine WLAN-Karte finde." Und auch die Laptop-Software zeigt mir an "WLAN-Netzwerk aktiviert" anstatt mir auch hier zu sagen: "Ich kann WLAN überhaupt nicht aktivieren, weil ich gar nicht drauf zugreifen kann!" Wäre doch alles so einfach zu lösen.

Ok, also nochmal Update-Manager angeschmissen, der müsste mir ja sofort sagen, dass da ein Treiber fehlt. Aber von wegen, er meint, es wäre alles korrekt installiert. Was ist das nun wieder für ein Unfug? Der muss doch merken, dass da was fehlt...

Ok, dann eben doch manuell. Die Downloadseite von Lenovo kenne ich mittlerweile schon gut, dort finde ich das Gerät auch und auch den Treiber. Also schnell mal heruntergeladen und gestartet. Der entpackt sich und startet dann auch automatisch die Installation. Es erscheint kurz ein Fenster mit "Installiere xyz Treiber...", der grüne Balken geht auf vielleicht 30% und 2 Sekunden später ist das Fenster weg. Nicht weiter passiert. Ja, was nun? Isser jetzt installiert? Oder nicht? Wäre doch mal einfach gewesen, einem da eine klare Rückmeldung zu geben. Wieder mal programmierter Murks, den man dan angeboten bekommt.

Im Gerätemanager geguckt, immer noch nicht installiert. Vielleicht braucht er ja ein Reboot. Nach Reboot immer noch kein Treiber da. Nochmal probiert, immer noch kein Erfolg. Was nun?

Jetzt kommt etwas Adminglück ins Spiel. Da steht doch noh ein identisches Gerät hier auf dem Tisch. Wäre ja super, wenn man einfach von diesem Gerät den Treiber nehmen könnte. Normal legt Lenovo unter c:\Driver alle Treiberpakete ab. Da gibts aber keine WLAN-Treiber. Der Lenovo Update-Manager scheint das nicht korrekt zu machen. Wäre ja auch schön, wenn man doch einfach Windows sagen könnte: Diesen Netzwerktreiber, den du hier installiert hast, kopiere mir den mal auf Stick, damit ich den auch woanders installieren kann. Geht aber nicht. Man kann nicht einfach Treiber von so einem System herunterholen. Ohne Installationspakete geht nichts.

Ich schaue mir mal hier die WLAN-Karte im Gerätemanager an. Da steht "Intel Centrino Wireless-N2230". Bei Lenovo stand beim Treiber aber was von Broadcom und das ist ein anderer Hersteller. Mir dämmert, dass mir hier wohl auf der Lenovo Homepage der falsche Treiber angeboten wird. Die scheinen unter der gleichen Modellnummer Geräte zu bauen, die Broadcom anstatt Intel nutzen. Wenn das so ist, dann ist das mal ein ziemliches Versagen von Lenovo. Die müssen doch für jedes verkaufte Gerät auch die richtigen Treiber vorrätig halten. Vermutlich hat tatsächlich auch der Update Manager beim ersten Mal versucht, diesen Treiber zu installieren, ist gescheitert und hat mich nicht darüber informiert. Nach dem Motto: "Mist, schief gelaufen, aber das sag ich dir nicht."

Ich suche also mit Google mal nach einem N2230 Treiber für einen Edge E531. Ich finde auch was, wo noch ein paar andere Treiber mit gebundelt sind. Heruntergeladen, aber die Installation bricht recht bald ab wg. Kompatibilitätsproblemen. So gehts also nicht. Suche viel rum, finde aber nichts Passsendes.

Ich kann doch nicht der Erste sein, dem das passiert ist. Also mal in Foren nach solchen Problemen gesucht. Ich finde nach längerer Suche tatsächlich jemanden, der bei einem Edge E520 ein ähnliches Problem hatte. Und da kommt dann der Tipp, mal die Originaltreiber von Intel zu nutzen. Zum Glück gleich mit Download-Link. Denn im Intel Universum mal schnell fündig zu werden, ist auch nicht so einfach. Das merkt man auch schon beim Download Link. Da steht nicht etwa "N2230 Chipset" sondern "Intel PROSet/Wireless Software and Drivers". Als jemand, der sich nicht jeden Tag mit solchen Chipsätzen beschäftigt, weiß ich natürlich nicht, dass beides das Selbe bezeichnet. Nach dem Motto: Wenn du Y findest, musst du wissen, dass das eigentlich X ist. Man hätte ja wenigstens ergänzend schreiben können, dass das der N2230 Chipset ist, so wie ich das auch im Geräte-Manager finde.

Inzwischen musste allerdings die Kollegin dringend mit ihrem Laptop verschwinden. Ich konnte an dem System also nicht mehr weiterarbeiten. Also hab ich mir einfach das funktionierende Laptop inkl. Treiber geschnappt und dort ganz mutig den Treiber deinstalliert. Um zu gucken, ob ich hier da Problem reproduzieren kann, der auch nicht mit dem Broadcom Treiber klar kommt und ob das vielleicht mit diesem Intel-Treiber klappt. Das war insofern mutig, weil das ein Laptop war, mit dem ich am nächsten Tag dringend arbeiten können musste. Aber den Admin interessiert ja vor allem, das Problem zu verstehen.

Also gemacht, Treiber deinstalliert und tatsächlich, der Treiber von der Lenovo Homepage funktioniert auch hier nicht.

Als nächstes hab ich spaßeshalber mal den Lenovo-Support angerufen, es war 17:48 und die waren bis 18 Uhr da. Ich dachte, den Joker nehme ich mal noch mit. Nachdem ich irgendwie quer durch die Welt wohl vom Slang her bei einem chinesischen Supporter angekommen war, hörte der sich erstmal mein Problem an. Als ich nach 2 Minuten fertig war, fragte er: "Was für ein Gerät haben Sie?" Das hatte ich ja eigentlich gerade 5 mal gesagt. Egal. "Ich hab einen Lenovo Edge E531." Danke, welche Seriennummer? "Ähm, kann ich nicht sagen, das Gerät steht nicht mehr auf meinem Tisch. Ist aber Nagelneu, vor 2 Wochen gekauft." "Tut mir leid, ohne Seriennummer kann ich nichts machen." "Ok, ist denn irgendwas bekannt, dass die Treiber nicht stimmen und wo finde ich so einen passenden Treiber für den Centrino N2230 Chipsatz?" "Nein, tut mir leid, ist nichts bekannt. Sollte alles funktionieren." "Ok, danke, dann ruf ich nochmal an, wenn ich die Seriennummer habe."

Ich hatte das Gefühl, dass er mit der deutschen Sprache nicht so vertraut war und nur 20% von dem verstand, was ich sagte. Das brachte mich also nicht weiter, ähnliche Erfahrungen hatte ich da schon einige male gemacht. Allerdings hab ich auch schonmal einen alternativen Download-Link bekommen, wo auch mal ein Treiber fehlte.

Egal, jetzt werde ich es mal mit dem Original-Intel-Treiber versuchen. Ich starte das Teil, auf dem Bildschirm erscheint ein vielleicht 3cm großes animiertes Viereck, wo ein grünes Leuchtband dreht, so als würde irgendwas passieren. Nirgendwo ein Hinweis, was da passiert, überhaupt keine Schrift. Was hat sich der Entwickler denn da wieder gedacht? Kann man nicht mal rudimentär mitteilen, was da eigentlich gerade passiert? Bekloppte Welt, denke ich.

Nach 30 Sekunden verlässt mich das blinkende Viereck wieder. Ohne mir nochmal irgendwas zu sagen. Sowas wie: "Glückwunsch, der Treiber ist jetzt installiert." oder wenigstens ein "Tut mir leid, der Treiber konnte nicht installiert werden." Nein, einfach nichts. Tja, was war das denn jetzt für eine Vorstellung. Wie muss ich das deuten? Und das von einer Firma wie Intel...

Ok, ich wage mal wieder einen Blick in den Geräte-Manager. Und was sehe ich da: Hurra, der Treiber scheint installiert. Also schnell mal WLAN probiert und ja, es geht.

Im Nachhinein wird mir bewusst, wie gut dieser Glücksumstand war, ein zweites funktionierendes Gerät da zu haben. Denn nur so erfuhr ich überhaupt, dass ein Intel-WLAN-Chip eingebaut ist. Und nur so kam ich auf die Lösung, dass der Treiber falsch sein muss. Warum kann nicht jede installierte Komponente sich genau mitteilen? Warum wird man hier so oft im Regen stehen gelassen? Ok, man hätte mal wieder eine Linux-Live-CD starten können, die dann gesprächiger gewesen wäre. Aber auf die Idee wäre ich gar nicht gekommen, weil es nicht sehr naheliegend war, dass mir hier wirklich ein falscher Treiber untergejubelt wurde. Den der falsche Treiber verhielt sich eigentlich genauso während der Installation, wie der korrekt Timer. Beide gaben kein Feedback, was da passiert und ob man nun eine korrekte oder eine fehlerhafte Installation hat.

Nach so einer Tortur wünsche ich mir nur noch: Bitte, liebe Entwickler, mutet uns doch nicht so einen Schrott zu, sondern macht mal ganze Arbeit, denkt Dinge mal zu Ende und fühlt euch mal in die Leute ein, die mit eurer Arbeit klar kommen müssen.

Bedenkt auch, dass 5 Minuten, wo ihr nicht nachdenkt, Millionen Leute über dem ganzen Erdball verteilt darunter leiden und daraus dann Millionen an Stunden werden, die man sinnlos mit Fehlersuche verbringt.

Und warum wird Windows an den wirklich essentiellen Stellen, wo es um die Vereinfachung der Administration geht, nicht besser? Warum muss ich mich seit 20 Jahren mit dem selben Unfung rumquälen? Dabei wäre es doch so einfach, mal an diesen Basics was zu tun. Und auch hier gilt: 1 Stunde an dieser Stelle investiert würde weltweit jährlich Millionen Stunden Adminstration einsparen.

Weblinks:

<< | AkTuellArchiv | Archiv 2014 >>