Aktuelles

23.06.2019 :: Mauspad aus Linoleum

Linoleum ist ein recht ökologisches Material. Als Bodenbelag wird es schon seit Mitte des 19. Jahrhunderts genutzt. Später kamen auch Möbeloberflächen hinzu, die damit belegt wurden, z.B. Schreibtische.

Als sich in den 60er Jahren PVC-Beläge verbreitet haben, führte Linoleum nur noch ein Schattendasein. Heute hingegen ist es wieder sehr gefragt, wenn es um ökologische Bodenbeläge geht.

Der Materialmix besteht aus Leinöl, Naturharzen, Kreide, Kork-, Holzmehl und Farbpigmenten. Als Träger kommt Jutegewebe zum Einsatz. Bei nahezu allen modernen Bodenbelägen wird noch eine Acryl- oder PU-Beschichtung aufgebracht, damit die Oberfläche belastbarer und pflegeleichter wird. Diese dünne Schicht ist in der Regel das Einzige, die nicht natürlichen Ursprungs ist.

Weil Leinöl einen spezifischen Geruch hat, riecht auch Linoleum immer etwas. Das muss man wissen, der Geruch ist natürlichen Ursprungs.

Als ich noch ein paar Reste von Linoleum rumliegen hatte, bastelte ich mir ein Mauspad draus. Das ist jetzt etwa 5 Jahre her und das Pad hat sich bestens bewährt. Mittlerweile gibts einige weitere Arbeitsplätze, die damit ausgestattet sind.

Hat man einen Rest Linoleum, muss dieser noch auf Größe geschnitten werden. Am Besten funktionierte das mit einer Handkreissäge an einer Führungsschiene und einem recht feinen Sägeblatt. Alternativ kann man es auch mit Teppichmesser schneiden, braucht dafür aber recht viel Kraft. Danach schleift man die Ecken rund und bricht die harten Sägekanten mit einem Korn 120 Schleifpapier. Das wars schon.

Man kann es noch etwas weiter treiben. Die Beschichtung auf dem Linoleum ist recht hart, ich finde die Haptik ohne Beschichtung schöner. Also schliff ich die Beschichtung vorsichtig herunter. Man darf nicht zu viel herunterschleifen, weil die farbige Deckschicht sehr dünn ist. Ich glaube, ich hab mit Korn 240 geschliffen. Hat man die Beschichtung komplett heruntergeschliffen, kann man die Oberfläche mit einem Hartöl oder einer Kombination aus Wachs und Öl behandeln (nur trocknende Ölprodukte verwenden, die normal für Holzoberflächen gedacht sind).

Reinigen lässt die Oberfläche sich mit einer milden Seifenlauge.

Linoleum, was etwas verbogen ist, braucht ein paar Tage, bis es sich wieder gerade legt. Keinesfalls darf man es zu stark biegen, denn es bricht schnell.

Falls einem die Jute-Unterseite nicht rutschfest genug ist, kann man sich auch hier noch was einfallen lassen, z.B. einstreichen mit Latexmilch. Ich bin bisher aber auch ohne diese Maßnahme ganz gut zurecht gekommen.

Brauchts heute überhaupt noch Mauspads? Ich glaub, der Einsatz ist stark rückläufig. Als Mäuse noch eine Kugel hatten, brauchte es eine passende Unterlage, damit die gut rollten. Nun sind aber alle Mäuse seit bestimmt 15 Jahren mit rein digitalen Bild-Sensoren ausgestattet, die auf fast jedem Untergrund funktionieren. Sehr glatte und einfarbig glänzende Oberflächen sind allerdings ein Problem, da brauchts in der Regel ein Pad. Ein weiterer Grund ist, dass bei vielen Mausbewegungen irgendwann mal die Tischoberfläche zerkratzt oder sich die Beschichtung durchscheuert. Und dann ist es auch irgendwie Gewohnheit, seit Einführung der Maus kenne ich es nur so.

15.05.2019 :: Digital Detox

Schon vor Jahren habe ich bemerkt, dass ich mich immer mal wieder von allen digitalen Medien zurückziehen sollte. Digitales Fasten hab ich das bisher bezeichnet. Jetzt hörte ich einen neuen Begriff, der wohl seit einiger Zeit die Runde macht "Digital Detox". Gefällt mir.

Der richtige Begriff ist ja bei Google immer der Schlüssel für guten Sucherfolg. Und da ist so eine Wortschöpfung Gold wert. Unter "Digital Detox" gibts derzeit schon 54 Millionen Einträge. Große Tageszeitungen haben den Begriff auch aufgegriffen.

Wer also spürt, dass ihn die verlockende digitale Welt zu sehr vereinnahmt, kann sich da mal auf Suche machen, wie man dem entsagt, was einen auch irgendwie anzieht.

Ein bewusster und selbstreflektierter Umgang mit seinen digitalen Gewohnheiten erscheint mir heute sehr wichtig.

Nachtrag:

26.03.2019 :: Wie viel Kommunikation ist sinnvoll?

Das Thema ist eigentlich schon alt. Wie viel Kommunikation braucht man im Arbeitsumfeld? Früher waren es vor allem die Besprechungen, über deren Sinn und Unsinn man immer wieder nachgedacht hat. Hast du keine Lust auf Arbeit, mach doch mal eine Besprechung... Ich glaube, viele kennen das Phänomen, die Zeit in Besprechungen immer wieder mal als sehr unproduktiv zu erleben. Und doch braucht es ja irgendeine Form von Austausch, um gemeinsam an Arbeitsprozessen zu wirken.

Heute wird viel schriftlich-digital kommuniziert, was Besprechungen ersetzen kann. In Sachen Mail-Kommunikation habe ich schon öfter gelesen, dass es Abteilungen regelrecht zu Tode gelähmt hat. Kommuniziert wurde viel, aber wirklich gearbeitet kaum noch. Manche Firma hat dann ganz radikal ein Mailverbot für interne Sachen auferlegt. Stattdessen sollte nun wieder alles in Meetings besprochen werden. Und diese radikale Methode soll erfolgreich gewesen sein. Aber mal ehrlich, dann sind wir auch schnell wieder bei ineffizienten Besprechungen. Und manche Kleinigkeit ist einfach schneller per Mail geklärt. Ok, persönliches Gespräch direkt oder per Telefon gibts natürlich auch noch.

Andere meinen, die Mail wäre ineffizient und setzen auf neue Werkzeuge wie Slack oder Twist. Auch in Aufgabenplanern wie todoist lässt sich im Team gut aufgabenbasiert kommunizieren. An jeder Aufgabe hängt dann ein Diskussions-Thread.

Auch wir haben im Team den Versuch gemacht, die Kommunikation zu verändern. Als wir mit todoist starteten, entwickelte sich die Kommunikation eher schleichend und nicht forciert von der Mail weg, hin zu todoist. Das lag einfach daran, weil dies viel praktischer war. Der meiste interne Mailaustausch basierte ja auf der Klärung oder dem Voranbringen von Aufgaben. Macht man das in todoist, hat man den kompletten Austausch direkt an der Aufgabe hängen. Das macht Sinn. So kann man sich immer wieder schnell auf Stand bringen, wo man mit einer Aufgabe steht. Mails wieder zusammenzubringen, die zu einer Aufgabe oder einem Projekt ausgetauscht wurden, ist hingegen mühsam. Vor allem, wenn sich nicht jeder an Mailvorgaben hält, z.B. nur ein Thema pro Mail inklusive aussagekräftigen Betreff.

Der Austausch über todoist war also Anfangs besser als Mail und führte tatsächlich zu Effizienz und einer guten Übersicht. Nach 2 Jahren wurde mir aber auch ein Nachteil immer bewusster: Weil es so einfach ist, über eine Aufgabe zu kommunizieren, tut man es auch öfter. Anstatt selber mal 5 Minuten nachzudenken, schickt man eine Anfrage an einen Kollegen. Vielleicht weiß der ja bescheid und kann sofort helfen. Bei dutzenden Aufgaben kommt es dann schnell zu einer problematischen Eigendynamik: Man ist den ganzen Tag damit beschäftigt, immer wieder eintrudelnde Fragen zu Aufgaben zu bearbeiten. Und das kostet viel Zeit.

Es gibt hier wohl auch zahlreiche Untersuchungen, dass Arbeitsunterbrechungen Gift für effizientes Arbeiten sind. Der Mensch ist nicht dafür geschaffen, ständig seine Arbeit zu unterbrechen. Jede Unterbrechung zerstreut den Geist und es braucht Zeit, sich wieder in etwas hineinzudenken.

Das Hineindenken - so meine Erfahrung - ist überhaupt so ein zeitraubendes Ding. Wenn ich eine Nachfrage zu einer Aufgabe bekomme, dann muss ich mich erst wieder einlesen, worum es genau ging, muss noch ein paar andere Informationsquellen bedienen, um mich auf Stand zu bringen, um dann erst antworten zu können. Und schwups, sind wieder mal 15 Minuten weg. Oder ich gebe schnelle, unpräzise Antworten, darunter leidet dann aber die Qualität. Und ganz schnell führt es zu Missverständnissen, woraus falsche Schlüsse gezogen werden, was wiederum zu falschen Lösungen führt. Auch so ist die Effizienz dahin.

Das Gefährlichste, das weiß man schon von der Mail, ist diese "Ich lass mich ständig unmittelbar unterbrechen Falle" Deshalb sagen Zeitsparexperten: Mach dein Mailprogramm zu und beantworte nur 2-3 mal am Tag gesammelt deine Nachrichten. Man muss nicht ständig für jeden sofort verfügbar sein. Das weiß man ja auch von der direkten Kommunikation im Büro: Wer sich ständig unterbrechen lässt, kommt kaum zu was. Ungestörte Zeiten sind ganz wichtig. Und das Sammeln von Nachfragen, um sie in einem Rutsch zu klären, ist besser, als alle 10 Minuten jemanden zu unterbrechen. Mit dem Nachteil, nicht sofort an etwas weiterarbeiten zu können, muss man dann leben. Gesamtheitlich betrachtet ist die Effizienz trotzdem höher.

Bei todoist erscheint es mir genauso sinnvoll, sich nicht ständig unterbrechen zu lassen. Also alle Benachrichtigungen ausschalten und nur zu bestimmten Zeitpunkten dann Nachfragen klären. Man sollte sich möglichst wenig diktieren lassen, wann man seine Arbeit unterbricht. Und kaum jemand hat die Disziplin, sich abzugrenzen, wenn ein Programm erstmal "Pling" gemacht hat. Ich hab mir hier angewöhnt, nur noch morgens und abends einmal durch alle Anfragen zu gehen. Manchmal versagt aber meine Disziplin, dann antworte ich auch dazwischen mal, wenn ich gerade über eine Nachfrage stolpere. Todoist muss ja ständig offen sein, weil er mich permanent in der Arbeit unterstützt.

Mitunter versuche ich aber auch, den todoist nicht mehr für die Tagesplanung zu nutzen. Stattdessen greife ich hier wieder ganz gerne auf Papier und Bleistift zurück. So habe ich die Tagesplanung direkt vor mir auf dem Schreibtisch liegen und bin gar nicht mehr genötigt, in den todoist zu schauen. Es sei denn, ich muss auf Details zurückgreifen, die im todoist stehen. Was ich mir morgens auf einen Zettel schreibe, verinnerliche ich auch gleich. Das hilft mir, die wesentlichen Dinge des Tages im Kopf zu haben.

Zeitraubend sind im todoist auch längere Diskussions-Threads, die an einer Aufgabe hängen. Gerade bei Aufgaben, die sich über Wochen oder Monate hinziehen. Dann wird es schwierig, das Wesentliche vom Unwesentlichen zu trennen. Man diskutiert alles Mögliche, was später keine Relevanz mehr hat. Will man sich aber einen Überblick verschaffen, muss man alles erstmal wieder querlesen. Hier ist es ähnlich wie in einem Forum - 80% des Geschriebenen ist mittlerweile irrelevant oder gar falsch. Es sind entstandene Gedanken, wo jetzt nur noch die Ergebnisse interessieren. Mitunter haben wir uns hier so beholfen, dass wir die Aufgabe archiviert und nochmal neu angelegt haben. Um dann hier nur noch eine kurze Zusammenfassung des Aufgabenstandes zu schreiben.

Mit Messengern auf dem Handy hat man einen weiteren Kanal, der einem die ungeteilte Aufmerksamkeit für eine Aufgabe klaut. Auch hier die Verlockung, sofort nachzuschauen, welche "News" denn wieder eingetrudelt sind. Am Besten schaltet man auch hier ab und vereinbart mit Kollegen, gar nichts Dringendes über solche Kanäle zu schicken.

Die produktivste Zeit ist für mich immer die, wo ich konzentriert und ohne jede Ablenkung an einer Sache arbeiten kann. Auch fühle ich mich viel zufriedener, wenn ich auf diese Weise arbeite.

26.12.2018 :: Batterie Qualitäts-Check AAA

Ich hab mal wieder einen Qualitäts-Vergleichstest gemacht, was AAA-Rundzellen angeht. Aldi Nord hat seit etwa 1 Jahr ein anderes Design bei den Batterien, da wollte ich mal wieder schauen, ob die noch taugen. Und ich kaufte auch eine größere Menge Varta Energy AAA-Zellen ein, die ich auch mal unter die Lupe nehmen wollte. Zudem kaufe ich seit vielen Jahren Duracell Industrial, auch die wollte ich mal wieder im Vergleich testen.

Was bei raus kam, in Kürze: Alle 3 Zellen sind gut und unterscheiden sich kaum. Das bestätigt auch meine früheren Tests. Die gemessenen Unterschiede ordne ich eher Messungenauigkeiten und Serienstreuung zu. Auch die Lagerverluste spielen eine Rolle, da war Aldi im Vorteil. Auch wenn alle Batterien frisch gekauft waren, so lagerten die vermutlich schon 2-3 Jahre beim Händler, was man am Haltbarkeitsdatum ableiten kann.

Testbedingungen:

  • zuerst Entladen mit 200mA bis 0,9V
  • dann Entladen mit 100mA bis 0,9V
  • dann Entladen mit 50mA bis 0,9V
  • am Ende alle Einzelkapzitäten addieren
  • Testgerät: Akkumaster C3

Wenn die Batterie also bei 200mA mit 0,9V als leer gilt, kann man bei 100mA nochmal 200-300mAh rausholen, bis sie wieder auf 0,9V ist. Und bei 50mA bekommt man nochmal 300-350mAh raus. Alles deshalb, weil der Innenwiderstand der Batterie mit zunehmender Entladung immer größer wird. Insofern taugen AAA-Batterien für höhere Ströme nur bedingt, es bleibt viel nicht nutzbare Restladung. Akkus sind da deutlich besser, sie behalten einen recht niedrigen Innenwiderstand bis fast zum Entladeende.

Ergebnisse:

Typhaltbar bisKapazität
Varta Energy 24er Pack12/20231281mAh
Duracell Industrial04/20241187mAh
Aldi Nord frisch gekauft01/20261279mAh

Aldi bleibt der Preis-Sieger mit etwa 20 Cent pro Zelle. Lidl liegt genauso günstig, hatte ich früher auch mal positiv getestet. Varta und Duracell liegen im günstigen Internethandel bei 25-30 Cent. Im Fachhandel kann man auch gerne mal 1-2 Euro pro Zelle bezahlen.

Fordert man den Zellen 200mA ab, sind die nach etwa 700-800mA bei 0,9V angekommen. Das ist ein typischer Strom, wie er z.B. bei kleinen Taschenlampen benötigt wird. Akkus liegen bei 800-1000mAh, die bei 200mA auch genutzt werden können.

Weil heute viele Akkus auch lange lagerbar sind ohne sich merklich zu entladen, spricht eigentlich vieles für Akkus. Qualitativ unschlagbar ist hier immer noch Eneloop, ein Geheimtipp sind die Akkuzellen von Ikea, die ähnlich gut sein sollen. Aber aufpassen, AA und AAA gibts dort in 2 Kapazitätsstufen. Hohe Kapazität sollte man für Geräte verwenden, die höhere Ströme ziehen und wo man die Kapzität einfach braucht. Die Zellen mit geringerer Kapazität lassen sich wesentlich öfter laden, sind also z.B. in Schnurlostelefonen und Geräten mit geringem Stromverbrauch günstig.

Hüten sollte man sich übrigens vor den alten Zink-Kohle-Batterien. Es sollte deutlich Alkaline auf den Batterien stehen bzw. LR03 anstatt nur R03. Zink-Kohle Batterien bringen es nur auf ca. 300mAh, also etwa 1/4 der gespeicherten Energiemenge von Alkaline. Man findet sie oft in 1 Euro- und Ramschläden.

Weblinks:

22.12.2018 :: Firefox zwingt Rechner in die Knie

Firefox ist seit vielen Jahren mein Standard-Browser. In den letzten Monaten bemerkte ich immer wieder, dass mein Rechner quälend langsam wurde. Ok, der Rechner ist nicht mehr der Schnellste, weil schon 8 Jahre alt und nur mit 4GB RAM ausgerüstet. Es gab aber auch keinen Grund für eine bessere Hardware, alles funktionierte hinreichend schnell für den Alltags-Bürokram. Nur in letzter Zeit war es echt nervig.

Nach etwas Fehleranalyse mit dem Windows7 Ressourcenmonitor kam ich dem Übeltäter auf die Spur. Firefox frisst unglaublich Speicher, teilweise 2-3 GB von meinen 4GB Gesamtspeicher. Und dann fängt der Rechner irgendwann mit dem Swapen auf Festplatte an und dann steht das gesamte System.

Was mir auch aufgefallen ist: Firefox macht immer mal wieder Denkpausen, wo gar nichts mehr geht. Versucht man trotzdem, Eingaben zu machen, erscheint recht schnell "Keine Rückmeldung" in der Fenster-Titelzeile, die über Windows 7 gesteuert wird. Da ackert im Firefox irgendwas im Hintergrund, was die ganze Rechenleistung braucht, wie eine regelmäßige Garbage-Collection (Speicheraufräumaktionen). Auch der Start von Firefox hat eine deutliche Pause, wenn das Fenster zwar schon da ist, aber die Standard-Seite noch 5-10 Sekunden braucht, bis sie angezeigt wird. Alles Auffälligkeiten, die vor vielleicht 12 Monaten so noch nicht da waren.

Eine Ursache für massiven Speicherverbrauch sind viele offene Tabs. Das ist sehr schade, weil ich mich total daran gewöhnt habe, viele Tabs zu öffnen. Oft sind bei mir 20-40 Tabs offen, gerade dann, wenn ich viel im Internet recherchiere. Dann öffne ich Suchergebnisse erstmal im Hintergrund und schaue sie mir erst später an. Doch das scheint jetzt schnell zu Problemen zu führen.

Dieses Problem hat übrigens nicht nur etwas mit Firefox zu tun. Websites werden von Jahr zu Jahr komplexer und damit speicherhungriger. Will Firefox die alle geladen halten, brauchts entsprechend viel Speicher. Und lädt sie Firefox erst in dem Moment, wo man den Tab in den Vordergrund holt, würde es wieder dauern. Das will man ja gerade vermeiden, in dem man Tabs schon mal im Hintergrund vorlädt.

Jetzt gibts ein paar Lösungen, die ich mir noch überlegen muss. Ich könnte dem Rechner mal 8-16GB Speicher spendieren. Und dann liegt da noch eine SSD, die ich schon lange mal einbauen wollte. Und eigentlich steht da auch noch ein neuerer Windows 10 Rechner rum, auf den ich umsteigen könnte. Wenn da nicht der große Aufwand des Umzuges wäre inkl. diverser Zusatzhardware, die vermutlich unter W10 nicht mehr laufen wird. Auch diverse Software ist bedroht, die ich noch nutze. Eigentlich wünsche ich mir doch nur, dass alles so läuft, wie vor einem Jahr. Mehr brauche ich gar nicht.

Je älter ich werde, um so weniger reizt mich neue Hard- und Software, die nur jede Menge unnütze Zeit verschlingt, bis sie eigentlich auch nur das kann, was die alte Lösung konnte. Man destabilisiert damit mal wieder die ganze Situation und braucht Wochen/Monate, bis sich alles wieder so eingespielt hat, dass man reibungslos mit arbeiten kann. Never touch a running system...

01.12.2018 :: Apps rauben einem den Nerv

Schöne neue Welt mit Smartphone und App. Was heute so alles möglich ist, ist schon beeindruckend. Und doch bemerke ich bei mir, dass mein Interesse an Apps doch sehr zurückgegangen ist. Woran liegts?

Hauptproblem ist der Frustfaktor und die Zeit, die man nun in seinem Leben mit Schwierigkeiten kämpft, die man zuvor nicht hatte. Es geht vor allem um Langzeit-Stabilität. Das also eine technische Lösung, an die man sich gewöhnt hat, möglichst dauerhaft auch funktioniert.

Mein Locher auf dem Schreibtisch ist eine technische Lösung, die ich mag. Stammt noch aus der mechanisch-analogen Zeit. Den hab ich seit 25 Jahren, der brauchte bisher kein Update und funktioniert wie am ersten Tag. Er funktioniert auch auf genau die selbe Weise, ich musste mich nie umgewöhnen. Er hat noch nie versagt. Die besten Werkzeuge sind doch die, die fast gar nicht auffallen, weil sie einfach funktionieren. Sehr schön an dem Locher ist auch, dass er mich noch nie mit Werbung genervt hat.

Bei den Apps ist das alles anders. Vor 2 Jahren wurde ich von meiner Bank gezwungen, eine Banking-App zu installieren, damit ich meine Kreditkarte überhaupt noch benutzen kann. Die Installation und Freischaltung war fürchterlich kompliziert und dauerte mehrere Tage. Kurze Zeit später hab ich mein Handy gewechselt und nun sollte ich diesen Prozess noch einmal durchlaufen. Das fiel mir aber erst auf, als ich dringend im Internet eine Bezahlung per Kreditkarte machen wollte. Die App war auch so schlecht und instabil, dass ich schon dabei war, die Kreditkarte zu kündigen. Viele andere Nutzer haben den selben Ärger, wie man im Playstore in den Rezensionen lesen kann. Bis heute hat die Bank das nicht vernünftig hinbekommen. Als ich kündigen wollte, offenbarte mir die Bank, dass es einen einfacheren Weg gibt, der über SMS läuft. Hurra, nichts installieren und auch beim Handy-Wechsel keine Probleme. Auch sonst keinerlei Nachteile, über dieses Verfahren zu gehen, außer ein paar Cent für die SMS.

Wenn ich überlege, wie viel Zeit ich schon mit halbgaren Apps verbracht habe, will ich das alles nicht mehr in meinem Leben haben. Das Leben ist zu kostbar, um sich mit so einem Mist rumzuärgern. Gerade auch dann, wenn Apps tief in das Leben eingreifen, man also zwingend darauf angewiesen ist, wirds nervig und die Bewältigung von alltäglichen Aufgaben zu einem großen Problem. Hier bin ich sehr vorsichtig geworden.

Mittlerweile gibts auch viele technische Lösungen, die nur in Kombination mit App benutzbar sind. Eine Überwachungskamera zum Beispiel. Die Kamera selbst kann sehr gut sein, nützt einem aber nichts, wenn man nur per App darauf zugreifen kann und diese App alle paar Wochen mit dem nächsten Update nicht mehr richtig funktioniert. Auch der ganze Bereich Smarthome ist hier anfällig, weil fast alles über (schlecht funktionierende) Apps funktioniert.

Für mich hat das Thema noch eine besondere Bedeutung: Ich muss mich beruflich täglich damit auseinandersetzen, nicht funktionierende Technik wieder in Gang zu setzen. Bin also in dieser Hinsicht schon stark belastet. Da hab ich in meiner Freizeit nur noch wenig Ambitionen, mich auch hier noch mit viel Technik-Versagen herumzuärgern.

Wenn man sich mal die Flut an Apps anschaut, welche davon langfristig stabil funktioniert, dann kann man vermutlich 90% davon in die Tonne haun. Es gibt nur ganz wenige Perlen, auf die man sich verlassen kann und die es wohl auch noch in 10 Jahren geben wird.

Ist Besserung in Sicht? Qualität und langfristige Stabilität in diesen Bereich hinein zu bekommen, erscheint mir sehr schwierig. Android hat hier noch viel größere Probleme, als Apple, weil die Hardware-Vielfalt extrem groß ist. Viele Fehler, die bei Android Apps auftauchen, haben etwas mit hardware-spezifischen Problemen zu tun. Dann läuft die App auf Gerät X, aber nicht auf Gerät Y. Und die Entwickler können nicht alle Geräte durchtesten und Tests kosten auch viel Geld. Google könnte einiges dafür tun, dass hardwareabhängige Unterschiede minimiert werden. Die Hersteller der Handys ebenso, in dem sie sich an Standards halten und aufhören, irgendwelchen eigenen Sonderkrams zu entwickeln. Aber genau das tun sie, um irgendwelche Alleinstellungsmerkmale zu generieren, was den Verkauf begünstigt.

Hauptproblem ist auch die ganze Dynamik im Bereich Smartphones: Da gibts jedes Jahr viele Neuerungen, alles entwickelt sich in einem großen Tempo. Da ist keine Zeit, mal etwas zu Ende zu entwickeln, stattdessen basteln Entwickler ständig an neuen Features, die oft keiner braucht. Stabilität als Wert zu erkennen, wäre wichtiger.

Ich vermute, dass sich in den nächsten Jahren ein wenig verbessern wird. Wir haben das auch bei Windows erleben dürfen. Windows 3.1 war noch eine instabile Katastrophe, Windows 95/98 wurde schon besser und mit Windows 2000 bzw. XP hatte man endlich ein halbwegs stabiles System. Später wurde es mit Windows 7 und 10 auch wieder fortgesetzt. Die Instabilität von Windows 8 hatte einen Grund: Hier musste wieder ganz neue Technologie integriert werden, man musste den Spagat schaffen, mit dem gleichen Betriebssystem sowohl herkömmliche PCs, wie auch Tablets und andere touchbasierte Systeme auszustatten. Android stabilisiert sich nach meinem Eindruck jetzt auch von Version zu Version, neue tiefgreifende Technologien sehe ich derzeit nicht.

App-Entwicklung war für viele Firmen auch Neuland und App-Entwickler sind oft schlecht ausgebildet. Zudem wird der Bereich App-Entwicklung nicht selten halbherzig angegangen. Dann lässt man extern etwas entwickeln und meint, dann erstmal ein paar Jahre nicht mehr in App-Entwicklung investieren zu müssen. So funktioniert das in diesem Bereich aber nicht, man muss permanent am Ball bleiben und die entsprechenden Ressourcen dafür einplanen. Wenn man das nicht kann, sollte man es besser gleich bleiben lassen. Ich denke, hier werden sich in den nächsten Jahren auch entsprechende Einsichten entwickeln, so dass auch hier von einer Verbesserung auszugehen ist. Firmen werden verstehen, was es braucht, um gute Apps zu entwickeln und wie man dauerhaft am Markt bestehen kann.

Ich denke aber, das werden langsame Prozesse sein. Die nächsten 5-10 Jahre werden wir noch mit zahlreichen halbgaren Apps beglückt, die uns viel Lebenszeit rauben. Es sei denn, man hat Spaß an dieser Art technischer Herausforderung, dann kann es auch zu einem beglückenden Hobby werden.

11.11.2018 :: Akkusauger Hype

Im Moment werden die Akkusauger gehypt, die einen echten Staubsauger ersetzen können (sollen). Also die Geräte mit langer Saugstange, wo man im Stehen den Boden saugen kann. Dyson hat viel Werbung für solche Geräte betrieben und die Erwartungshaltung erzeugt, man könne damit wie mit einem normalen Sauger arbeiten, nur eben kabellos. Wenn das ginge, wäre es wirklich ein echter Vorteil. Doch kann das gelingen?

Einerseits boomen Akkugeräte in den letzten Jahren, weil die LiIo-Akkus immer günstiger werden. Dabei wagt man sich jetzt auch in Bereiche vor, wo hohe Leistung benötigt wird: Heckenscheren, Schlagbohrmaschinen, Rasenmäher, Winkelschleifer, Kreissägen und eben auch Staubsauger. Die große Verbreitung von Akkugeräten sorgt wiederum dafür, dass die Technologie sich schnell weiter entwickelt und die Preise für Akkus sinken.

Andererseits braucht man bei Staubsaugern eine Leistung, die man mit heutigen Akku-Technologien nicht erreichen kann. Normale netzbetriebene Sauger wurden die letzten Jahre leistungsmäßig - aufgrund von EU-Richtlinien - stark reduziert und nehmen derzeit so um die 600 Watt auf. Hierbei spürt man aber schon deutliche Saugverluste gegenüber den früher üblichen 1200-2000 Watt. Der Kompromiss funktioniert auf harten Böden durchaus gut. Auf Teppichböden hat man damit aber oft schon unbefriedigende Ergebnisse. Auch wenn man das Auto aussaugt, spürt man deutlich, dass ältere Sauger da wesentlich besser abschneiden.

Akkusauger kommen bei weitem nicht an die 600 Watt ran. Hier hat man typisch nur 100-200 Watt. Akkus liegen typisch bei 20-26V und 2Ah, man hat also eine gespeicherte Energie von etwa 50Wh, was dann 15-30 Minuten Betriebsdauer macht. Der Grund für die geringe Leistung ist technologisch zu sehen: Wollte man mehr, würden Akkus zu schwer und zu teuer.

Man kann sicherlich einiges optimieren, also vor allem Verluste reduzieren, um mit geringer Leistung gute Saugleistung zu erreichen. Aber das reicht bei weitem nicht aus, um wirklich gute Saugleistungen bzw. einen ordentlichen Volumenstrom hinzubekommen.

So gehen Erwartungen und Realität oft weit auseinander, viele Käufer sind enttäuscht.

Ich selbst hab einen etwa 6 Jahre alten Dyson, der damals aber schon recht gut durchoptimiert war und damit vergleichbar, mit aktuellen Geräten. Ich teste neue Geräte auch immer mal wieder in Geschäften, weil ich neugierig bin, ob sich was tut. Solche Tests waren aber immer enttäuschend, da hat sich nicht wirklich was getan.

Was man erwarten kann: Staubflusen auf Hartböden werden problemlos weggezogen. Ebenso Staub auf Regalen und Schränken. Bei Krümeln, z.B. verstreutes Müsli, fängt es schon an, schwierig zu werden. Bei kleinen Steinchen, wie man sie im Winter durch Streugut schnell reinschleppt, versagt das Gerät auch oft. Und auf Teppichboden ist die Saugleistung auch sehr ernüchternd.

Die geringe Saugleistung wird gerne mit aktiven Saugdüsen kompensiert. Dort läuft dann eine sich drehende Bürste mit, die Schmutz und Haare erfasst und saugmäßig günstig hoch holt. Dann reicht der geringere Luftstrom, um den Schmutz wegzusaugen. Das kann in der Tat helfen, in bestimmten Situationen bessere Saugergebnisse zu haben. Gerade bei Haaren ist man hier aber auch schnell an der Grenze, zumal sich diese dann gerne in der Bürste verfangen und man diese regelmäßig aufwändig von Hand reinigen muss.

Positiv ist aber, dass sich technologisch bei Akkusaugern was tut. Bisherige Akkusauger der letzten 30 Jahre waren fast durchweg schlecht und für vieles unbrauchbar. Durch die neue Entwicklung entstehen jetzt Sauger, die in gewissen Situationen schon durchaus nutzbar sind. Viele Hersteller springen jetzt auf diesen Hype auf, was die Geräte billiger macht. Gleichzeitig scheinen Kunden ein höheres Preisniveau zu akzeptieren, wodurch Hersteller leistungfähige Akkus und Motoren verbauen können. Dyson hat mit Preisen um 400 Euro sicher dazu beigetragen, dass ein höheres Preisniveau für Qualität akzeptiert wird. Mittlerweile bekommt man von vielen anderen Herstellern ganz ähnliche Geräte zwischen 80-250 Euro.

Discounter bieten mittlerweile auch solche Geräte an, so gab es bei Aldi z.B. auch schon diesen Severin Sauger.

Fazit: Wer mit den Erwartungen herangeht, einen vollwertigen Sauger zu bekommen, wird enttäuscht sein. Diese Sauger sind noch echte Kompromiss-Lösungen, die nur einen Teil von dem erfüllen können, was ein normaler Netzsauger kann. Wer ihn aber für bestimmte Situationen nutzen will, z.B. schnell mal echten Staub auf harten Untergründen wegsaugen, hat damit eine praktische und brauchbare Alternative zu einem Netzsauger.

Auffällig sind bei vielen Saugern die sehr polarisierenden Amazon-Bewertungen. Ich glaube, das liegt genau an diesen überzogenen Erwartungshaltungen, die die Industrie geschürt hat.

Vom Geräte-Design haben sich viele Hersteller am Dyson orientiert. Dyson hat da sozusagen einen neuen Geräte-Typ etabliert, der an einem bestimmten Design erkannt wird. Es steht für "Akkusauger der neuen Generation", die viele Menschen neugierig macht, es mal wieder zu probieren mit einem Akkusauger.

Was die Akkutechnologie angeht, wäre eine Entwicklung sehr interessant: Universelle Akkupacks, die man für unterschiedliche Geräte von unterschiedlichen Herstellern nutzen könnte. Dann könnte man den Akkupack eines Saugers genauso für die Heckenschere nutzen. Leider scheint derzeit kein Staubsauger-Hersteller daran interessiert zu sein. Lediglich typische Werkzeughersteller, die auch Akkuschrauber und ähnliches anbieten, haben in der Regel ein Akkusystem für viele Geräte aus ihrem Sortiment. Diese sind aber im Staubsaugerbereich nicht sonderlich gut aufgestellt.

Der Akku ist somit auch der limitierende Faktor, was Akkusauger recht schnell zu Elektroschrott werden lässt. Für meinen 6 Jahre alten Dyson gibts vom Hersteller z.B. keine Akkus mehr. Wir mussten nach 4 Jahren schon das erste Mal den Akku wechseln, zum Glück gibts bei Dyson noch Dritthersteller, die Akkus liefern können. Eine Lebensdauer von 3-6 Jahren ist für solche Akkus typisch.

04.10.2018 :: Akkugeräte - Auf das richtige System kommts an

Akkugeräte im Haushalt und Garten sind immer mehr im Kommen, ob Akkuschrauber, Akkusäge, Heckenschere, Rasenmäher oder Staubsauger. Das große Problem: Akkugeräte sind oft schnelle Geldvernichter und belasten auch die Umwelt. Bei Billiggeräten kann nach 3-4 Jahren schon der Akku defekt sein, Ersatz gibts dann oft nicht oder Akkus sind fest verbaut. Also wirft man alles weg und kauft neu.

Wer hier geschickt vorgehen will, achtet vor allem auf ein universelles und langlebiges Akkusystem, was für viele Maschinen passt. Damit kann man schon bei der Anschaffung richtig Geld sparen, weil man viele Geräte günstig ohne Akku kaufen kann. Es reicht dann, wenn man im Haushalt z.B. 4 Akkus hat und die lassen sich für alle Geräte nutzen. Wenn der Hersteller dann sein Akkusystem auch langfristig weiter anbietet, hat man recht geringe Folgekosten. Ab und zu kauft man mal einen Akku nach und die eigentlichen Geräte sind in der Regel langlebig.

Worauf man sich auch festlegen muss, ist das Spannungssystem. Durchgesetzt haben sich als universelle Systeme 18V und 10,8V (wird auch manchmal mit 12V bezeichnet). Will man stärkere Verbraucher mit Strom versorgen, kommt eigentlich nur das 18V-System in Frage. Einziger Nachteil: Diese Akkus sind schwerer, bei einem Akkuschrauber kommt man oft mit 10,8V aus und da zählt mitunter jedes Gramm, wenn man z.B. über Kopf arbeiten muss. Dann muss man evtl. zweigleisig fahren. Gartengeräte nutzen oft 18V, ebenso Staubsauger, Kreissägen, oder Rasenmäher.

Welche Hersteller bieten das größte Spektrum an Geräten? Derzeit erscheint mir da Makita ganz vorne zu sein. Gerade dann, wenn man den Gartenbereich mit abdecken will. Metabo und Bosch wären die anderen beiden, die am deutschen Markt gut verfügbar sind. Hier muss man schauen, welche Bereiche man abdecken will und hier muss man auch langfristig denken. Möglichst nur ein Akkusystem, vereinfacht das Leben.

Es ist stark davon auszugehen, dass diese 3 großen Hersteller ihr Sortiment an Akkugeräten in den nächsten Jahren weiter stark ausbauen werden. Bei Metabo muss man schauen, wo die Reise hingeht, die wurden ja erst kürzlich von Hitachi übernommen. Hitachi hat eigene Akkugeräte, die nicht kompatibel mit Metabo sind. Im Moment läuft bei Metabo eine Einigung mit einigen Herstellern: Metabo, Rothenberger, Mafell, Eisenblätter, Collomix, Haaga, Starmix, Eibenstock und Steinel wollen künftig ein einheitliches System verwenden (Cordless Alliance System (CAS)). Dabei handelt es sich um das Metabo-Akkusystem, worauf sich diese Hersteller geeinigt haben. Es ist also davon auszugehen, dass das jetzige Metabo-System längere Zeit Bestand haben wird.

26.09.2018 :: Der private Firefox-Modus

Im 3-Balken-Menü in Firefox kann man unter "Neues privates Fenster" ein Fenster ohne Cookiespeicherung öffnen. Das hat sich in zahlreichen Anwendungsfällen als sehr praktisch erwiesen:

  • Man kann sich so z.B. gleichzeitig in 2 verschiedene Ebay-Konten einloggen. Bei zahlreichen anderen Online-Diensten, wo man 2 Accounts hat, funktioniert es ebenso. Leider ist nicht jedes private Fenster eigenständig, so dass man es nicht auf 3 Accounts ausdehnen kann. Trotzdem erspart sich so schon viele lästige Login-Logout-Vorgänge. Vor allem dann, wenn man in bestimmten Konten dauerhaft eingeloggt bleiben will. Die lässt man dann im normalen Fenster weiter offen und öffnet temporär einen zweiten Account im privaten Fenster.
  • Wenn man an einem fremden Rechner sitzt, kann es schnell passieren, dass man vergisst, sich von einem Dienst auszuloggen (ebay, amazon, todoist, google). Bei vielen Diensten bleibt man ja eingeloggt, auch wenn man das Browserfenster schließt. In einem privaten Fenster ist man definitiv raus, sobald man das Fenster schließt.
  • Bei vielen Recherchen kann es sinnvoll sein, dies im privaten Fenster zu tun. So fängt man sich erst gar keine tausende Cookies in seinem normalen Browserbereich ein, wo man dann wieder für alle möglichen Sachen Werbung untergejubelt bekommt, wonach man mal recherchiert hat. Auch hilft es, neutralere Suchergebnisse zu bekommen, weil einen Google&Co im privaten Fenster noch nicht kennt. So schützt man sich auch etwas vor Filterblasen, wo einem nur noch das angezeigt wird, wofür man schonmal Interesse bekundet hat.
  • Zum Ausprobieren, ob Links, die man jemanden schickt, auch wirklich funktionieren. Oft kommt es vor, dass Links nur deshalb funktionieren, weil man selber gerade irgendwo eingeloggt ist. Man kann auch ruhig eingeloggt bleiben, öffnet dann aber ein privates Fenster und testet dort den Link.

15.09.2018 :: Fahrrad-Rückspiegel

Ich hab lange nach einer guten Lösung gesucht, beim Fahrradfahren auch nach hinten schauen zu können. Hauptsächlich dafür, das gemeinsame Tempo anzupassen wenn man zu zweit fährt. Rückspiegel am Fahrrad gingen schnell kaputt und waren lästig.

Seit 2 Jahren nutze ich einen anklemmbaren Spiegel für die Brille. Eine Büroklemme, wie man sie in jedem Büroladen bekommt, klemmte schonmal gut am Brillenbügel. Auf einer Seite hab ich den Klemmgriff rausgenommen und in das Loch einen 1,5mm Kupferdraht eingeklebt (Epoxy). Auf diese Seite noch ein Stück Platinenmaterial, damit ich die Klemme ersetze. Das Ende des Kupferdrahtes gebogen und daran einen kleinen Spiegel mit 20mm Durchmesser geklebt. Hatte ich aus dem Bastelladen, man kann aber auch einen kleinen Zahnarztspiegel nehmen (Größe 3=20mm). Den Spiegel hab ich auch mit Epoxy angeklebt (JB-Weld). Rausstehende Länge des Drahtes etwa 35mm. Man braucht etwas Abstand, damit man den Spiegel später gut im Blick hat.

Dann muss alles recht gut justiert werden. Man muss relativ weit nach rechts schauen, aber daran gewöhnt man sich relativ schnell.

Der Spiegel stört recht wenig und kann auch schnell von der Brille abgenommen werden. Für mich passt die Lösung recht gut.

15.09.2018 :: Günstige Lupenbrille

Für feine Arbeiten brauche ich öfters mal eine Lupenbrille. Zumal meine Augen mit meiner normalen Brille schon einen Abstand von 47cm brauchen, um noch scharf stellen zu können.

Vor Jahren testete ich schonmal alle möglichen Lupenbrillen oder andere Lupenlösungen aus. Schlussendlich war das alles irgendwie nicht so praktisch oder funktionierte schlecht.

Mit einer ganz einfachen Lösung komme ich seit 3 Jahren wunderbar klar: Ich kaufe mir eine ganz einfache Lesebrille mit 2-3 Dioptrien. Und die setze ich zusätzlich zu meiner normalen Brille auf. Die sitzt also vor der normalen Brille.

Das Prinzip ist simpel: Die normale Brille korrigiert meine Augen individuell und die Lesebrille vergrößert dann alles nochmal, wie eine Lupe.

Ich nutze eine Lesebrille mit etwas kleineren Gläsern, womit ich dann auch gut drüberwegschauen kann. So kann ich in der Nähe und in der Ferne noch scharf sehen. Ähnlich wie bei einer Zweistärkenbrille (Bifokalglas). Bei den Lesebrillen tun es die einfachen vom Discounter für 2-5 Euro wunderbar. Derzeit arbeite ich am Liebsten mit 2 Dioptrien. Interessant ist dabei aber auch die Flexibilität: Brauche ich noch mehr Vergrößerung, um z.B. einen Splitter aus dem Finger zu bekommen, nehme ich eine Brille mit 3 oder 3,5 Dioptrien. Ich glaub, bei den billigen Lesebrillen ist 3,5 Dioptrien dann auch das Ende der Fahnenstange.

Die Vergrößerung berechnet sich übrigens so:

  • Vergrößerung = Dioptrien / 4 + 1

2 Dioptrien entspricht dann 1,5 fache Vergrößerung. 3,5 Dioptrien wären 1,9 fache Vergrößerung.

Nachtrag: Robin schrieb mir, dass man hier... auch Lesebrillen bis 6 Dioptrien bekommt.

11.08.2018 :: Brille rutscht?

Bei diesem heißen Wetter die letzten Tage war ich genervt von meiner Brille. Durch die feuchte Haut rutschte mir die ständig von der Nase. Was tun?

Eine ganz simple Sache schaffte super Abhilfe: Erstmal ordentlich die Bügel gereinigt. Und dann am letzten Ende einmal mit medizinischem Tape oder Heftpflaster umwickelt. Die rauhe Oberfläche des Baumwolltapes verhindert optimal das Rutschen. Gleichzeitig sind diese Tapes auch hautfreundlich.

11.02.2018 :: Windows 7 nicht mehr auf neuen Prozessoren

Jetzt bin ich in eine blöde Falle reingestolpert. Auf einem neuen Lenovo-Laptop wollte ich Windows 7 installieren, weil das bei uns noch bis 2020 die favorisierte Plattform bleiben soll. Der neue Lenovo V510-15IKB hat einen i5 Intel Prozessor der 7. Generation mit Kaby-Lake Kern. Die Installation von Windows 7 gestaltete sich zuerst noch ganz einfach. Lenovo bietet auch vollständigen Treiber-Support. Was aber nicht klappte, war die Installation des Intel-Grafikkartentreibers. Unstimmigkeiten bei Treibern, die Lenovo zur Verfügung stellt, hatte ich öfters mal, so recherchierte ich erstmal, ob nicht irgendwo andere Treiber verfügbar sind, auch direkt bei Intel.

Irgendwann wurde klar: Intel stellt definitiv nur noch bis zur 6. Generation Treiber für Windows 7 zur Verfügung. Für die 7. Generation gibt es keine offiziellen Grafikkartentreiber mehr. Die Treiber bei Lenovo sind also unsinnig und falsch. Im Internet findet man zwar noch ein paar Infos, dass es irgendwelche Betatreiber gibt, aber die funktionieren wohl, wenn überhaupt, nur mit starken Einschränkungen. Ob das überhaupt auf Lenovo laufen wird, ist auch fraglich.

Es kommt noch was weiteres hinzu: Auch Microsoft stellt für neuere Prozessor-Generationen ab der 7. Generation nicht mehr alle Updates zur Verfügung.

Will man also noch weiter mit W7 arbeiten, wird man mit aktueller Hardware so langsam keine Möglichkeiten mehr haben. Da bleibt nur noch, auf gebrauchte Hardware zu setzen.

Wie es bei AMD-Prozessoren aussieht, hab ich noch nicht geprüft.

Diese Problematik gibt W7 nochmal einen gewaltigen Todesstoß. So müssen jetzt auch viele Firmen auf W10 aktualisieren, obwohl hier gerne noch auf W7 gesetzt wird.

Weblinks:

10.02.2018 :: Netgear besser nicht

Das ist schon eine gruselige Nachricht: Bei zahlreichen Netgear-Routern braucht man gar kein Passwort, um sich einzuloggen, es reicht ein "&genie=1" mit in die URL-Zeile zu packen und man hat Zugriff. Und wenn das Webfrontend übers Internet freigegeben ist, kann so jeder Zugriff auf solche Router nehmen.

https://www.heise.de/security/meldung/Einige-Netgear-Router-lassen-sich-mit-simplem-URL-Trick-uebernehmen-3964050.html

Da wäre die Frage, wie so eine extreme Sicherheitslücke entstehen kann, mit der man jegliche Sicherheit aushebelt. Viele Szenarien sind möglich. Es könnte ein frustrierter Entwickler kurz vor seiner Kündigung gewesen sein. Es könnte auch zu Testzwecken mal implementiert worden sein. Ein bewusstes Backdoor ist kaum vorstellbar, weil viel zu simpel gestrickt.

Wie auch immer, das erschüttert für mich jegliches Vertrauen in so einen Hersteller. Denn hier muss ein Versagen auf vielen Ebenen stattgefunden haben. Es hätten Strukturen da sein müssen, die solche Fehler erkennen, bevor eine Firmware-Freigabe erfolgt.

Es zeigt aber auch, wie das mit der Sicherheit ist: Das schwächste Glied definiert die Gesamtsicherheit. Da können Entwickler noch so ausgefuchste Sicherheitsmechanismen entwickeln, wenn auch nur ein Programmierer so einen Irrsinn tut und so eine Backdoor programmiert, ist alles andere Sicherheitsbemühen zerstört. Gerade deshalb braucht es Kontroll-Strukturen, die solche Fehler oder mutwilligen Aktionen auffangen.

Es zeigt aber auch die Schwierigkeit, Sicherheit herzustellen, auf die man sich wirklich verlassen kann. Wie will man sicherstellen, dass keiner der Programmierer irgendeinen Unsinn treibt? Man kann nicht alle kontrollieren. Und je komplexer Software wird, um so schwieriger wird es, Code in jedem Detail zu überprüfen. In welchem Maße kann man Fehltritte von Entwicklern wirklich kontrollieren und abfangen?

Es ist auch nicht mehr nur der Programmierer, von dem es abhängt, es sind auch grundlegende Unternehmensstrukturen, die Einfluss haben, wie sicher das Produkt wird. Natürlich auch die Unternehmenskultur, wie sich Menschen miteinander verbunden fühlen und ob man sich gegenseitig vertrauen kann.

Opensource hätte hier auch wieder Vorteile. Je mehr Augen Code kontrollieren, um so besser. Wobei es natürlich auch eine Illusion ist, dass Code sicher wird, nur weil er offen ist. Es gibt gewiss tonnenweise Opensource-Codezeilen, auf die noch keiner draufgeschaut hat.

Bleibt zu hoffen, dass der Bugfix nicht so gelöst wurde, dass nun "&genie=2" gilt. ;-)

28.01.2018 :: USB-Stick Ausfälle

Ich hatte die letzten Monate mal wieder mehrfach Ausfälle von USB-Sticks. Diesmal waren Intenso und Toshiba von betroffen. Ich bekomme das recht schnell mit, weil auf die Sticks größere Dateien mit Checksummen geschrieben werden. Stimmt die Checksumme nicht, bekomme ich eine Fehlermeldung. Mit einem Compare sieht man dann die typischen Bitausfälle, wo also bei einzelnen Bytes ein paar Bits anders stehen. Auch mehrere Schreibversuche auf so einem Medium hinterlassen dann immer wieder fehlerhafte Bytes. Es sind also dauerhaft geschädigte Speicherzellen.

Interessant ist auch, dass 2 Toshiba Sticks unterschiedlich ausfielen: Der eine war direkt nach Kauf einmal beschreibar, beim zweiten Mal tauchten bereits die Fehler auf. Der andere Stick lief über 1 Jahr hinweg bei wöchentlicher Beschreibung unauffällig und fiel erst dann aus. Der Intenso Stick fiel auch erst nach 1-2 Jahren regelmäßiger Nutzung (kleine 10-20 Dateien Office täglich schreibend) aus.

Problematisch ist, dass einem Ausfälle oft erstmal nicht auffallen. Denn gerade Office-Dateien werden auch oft noch fehlerhaft geöffnet, ohne das MS-Office etwas rückmelden würde. So setzt sich der Fehler schleichend fort und es kommt zu immer mehr Datenzerstörung. Schleichender Datenverlust ist kritisch, weil hier auch einfache Backupstrategien unterlaufen werden: Bis einem auffällt, dass etwas schief läuft, sind auch die Backups schon mit fehlerhaften Dateien überschrieben.

Wo es geht, sollte man USB-Sticks nur für lesenden Zugriff von draufkopierten Dateien verwenden. Für schreibende Zugriffe auf Originaldateien erscheinen sie mir zu kritisch. Zumindest haben da Festplatten und SSDs einen wesentlich höheren Standard, was die Absicherung korrekter Daten angeht.

Etwas Abhilfe können Werkzeuge schaffen, die korrupte Daten sofort aufdecken. Bei ZIP-Archiven zum Beispiel wird eine Checksumme mitgeführt. Kippt auch nur ein Bit, sollte das rückgemeldet werden. ZIP-Archive lassen sich auch auf Fehler prüfen, z.B. mit der verbreiteten Software 7zip.

Im Grunde hat hier die Industrie auch geschlampt. Es wäre technisch überhaupt kein Problem gewesen, sofort Alarm zu schlagen, wenn Dateien auf Sticks Fehler aufweisen bzw. wenn Schreibfehler auftauchen.

22.01.2018 :: EDV-Lösungen mit kurzem Verfallsdatum

Langlebige EDV-Lösungen sind besonders dort nötig, wo sich grundlegende Arbeitsabläufe damit gut eingespielt haben. Software ist hier ein Werkzeug, mit dem ich meine Aufgaben erledigen kann. Doch wie verlässlich sind diese Werkzeuge?

Ich habe gerade eine ziemlich unangenehme Situation beobachtet, die mich zum Glück nur am Rande betrifft. Mittlerweile nutzen viele cloudbasierte Lösungen für die Projektzeiterfassung. Eines der besten Lösungen war bisher http://www.toggl.com. Hierfür gibts ein webbasiertes Interface, aber auch eine App für Android und iOS.

In den letzten Monaten scheint die Firma massive Probleme zu haben, ihre Android-Lösung zu pflegen. Die Gründe dafür können vielfältig sein, z.B. können App-Entwickler wg. Krankheit ausfallen oder eine ganze Entwicklungsabteilung wird von der Konkurrenz abgeworben.

Nun könnte man sagen: Egal, die App gibts ja und sie läuft stabil. Da ist es egal, wenn die mal 1 Jahr nicht weiterentwickelt wird. Leider funktioniert diese Technologie nicht so, dass sie Stillstand akzeptiert. Das Android-Betriebssystem ist im ständigen Wandel und neue Smartphones kommen ständig auf den Markt. Und da läuft auf einmal eine App nicht mehr, die auf bisherigen Geräten noch lief. Weil wieder irgendeine Merkwürdigkeit in diesem Gerät ist, die zuvor nicht da war. Oder die neue Android-Version hat auch etwas Gravierendes verändert. Muss aber unbedingt eingespielt werden, weil sonst Sicherheitslöcher drohen. Das Resultat ist, dass viele diese App nicht mehr sinnvoll nutzen können. Das zeigen derzeit die Rezensionen im Google Play-Store. Die Unbenutzbarkeit der App nimmt stark zu.

Gerade bei so einem Programm ist das dann ein Desaster. Es greift nämlich tief in den Arbeitsalltag ein, weil es ein ganz rudimentäres Werkzeug für die Arbeitsdokumentation ist. Hier kann man auch nur schwer mal eben auf ein anderes Werkzeug umsteigen. Was bleibt, ist jede Menge Frust und Mehrarbeit, um diesen Ausfall aufzufangen.

Es gibt andere cloudbasierte Software, da ist ein Ausfall noch wesentlich bedrohlicher. Da kann ein Ausfall bedeuten, dass wesentliche Geschäftsprozesse gar nicht mehr durchführbar sind.

Oft ist es so, dass diese Abhängigkeit schleichend entsteht und gleichzeitig nur wenig Bewusstsein darüber wächst. So lange alles funktioniert, macht sich kaum jemand Gedanken. Man wächst dann immer mehr in die Abhängigkeit hinein, die man dann bitter zu spüren bekommt, wenn an einem schönen Tage alles zusammenbricht.

Ich erlebe da die letzten Jahre einen Trend in die Richtung, dass die Langzeitverlässlichkeit von EDV-Systemen stark abnimmt. Und diese Entwicklung entstand vor allem durch die Smartphones und die cloudbasierten Lösungen. Es gibt heute z.B. schon zahlreiche Hardware, die funktioniert nur, wenn man auch eine funktionierende App hat. Doch die Entwicklung wird auf einmal eingestellt. Damit wird auch die Hardware wertlos. Ein Beispiel sind Alarmanlagen oder Überwachungskameras, die ohne passende App wertlos werden.

Selbst meine Kreditkarte konnte ich letztens im Internet nicht mehr benutzen, weil eine Zahlung nur funktionierte, wenn eine App auf dem Telefon eingerichtet war. Ich hatte diese zwar vor einem Jahr eingerichtet, hatte aber inzwischen schon wieder notgedrungen ein neues Telefon. Und darauf wollte die nicht laufen. Mich nervte es hier wieder ziemlich, dass ich von so kurzlebiger Software abhängig bin.

Diese Kurzlebigkeit frisst auch jede Menge Ressourcen. Vor allem zeitliche Ressourcen, weil man ständig damit beschäftigt ist, das wieder in Ordnung zu bringen, was schonmal sehr gut lief und sich wunderbar eingespielt hatte. Wenn sich dann ein ganzes Team an eine neue Software gewöhnen muss, multipliziert sich der Aufwand.

Dieser Umstand hat mich auch schon an den Punkt gebracht, dass ich mittlerweile auf viele Apps auf dem Smartphone verzichte. Ich konzentriere mich nur noch auf ganz wenige, die ich intensiv nutze. Warum? Weil ich sonst jede Menge Zeit damit vertrödele, Lösungen am Laufen zu halten. Oder weil es sehr ärgerlich ist zu erleben, dass man immer wieder unzuverlässige Werkzeuge hat.

Früher waren meine EDV-technischen Werkzeuge wesentlich stabiler. Ich kaufte mir ein Buchhaltungsprogramm und konnte es 5-10 Jahre nutzen. Ähnlich war es bei meinem Aufgabenmanager oder bei einem Bildbearbeitungsprogramm. Wenn man unbedingt wollte, konnte man sogar deutlich über 10 Jahre ein Werkzeug nutzen. Es gibt heute noch Leute, die arbeiten mit alter Software aus MS-DOS Zeiten. Und das deshalb, weil für eine bestimmte Aufgabe auch schon vor 20 Jahren Lösungen erschaffen wurden, die relativ gut durchoptimiert waren und wo neue Lösungen kaum Vorteile bieten.

Ich denke, diese Entwicklung wird dazu führen, dass wir uns wieder bewusster darüber werden, welch einen Wert stabile und langlebige EDV-Werkzeuge haben. Und wie angenehm es auch ist, mit Systemen arbeiten zu können, die einfach stabil laufen. Nicht nur Monate, sondern Jahre oder gar Jahrzehnte. Wie ein Linux-Server, den ich betreue und der inzwischen schon 12 Jahre Tag für Tag störungsfrei durchläuft.

Dann werden auch hoffentlich Geräte wie mein Smartphone keine Chance mehr am Markt haben, wo bereits nach einem Jahr schon keine Updates mehr vom Hersteller zu bekommen sind.

Entscheider für Software-Werkzeuge sollten sich dieser Abhängigkeit sehr bewusst sein. Ausfall-Szenarien und deren Auswirkungen sollte man bewusst einmal durchgespielt haben. Auch sollte man nicht zulassen, dass Software Technologie auf Schleichwegen ins Unternehmen findet. Jedes neue Werkzeug sollte explizit geprüft und freigegeben werden. Das gilt zumindest bei allen Lösungen, die in relevante Geschäftsprozesse eingreifen. Und auch für Lösungen, wo wichtige Unternehmensdaten außerhalb des Unternehmens gespeichert werden, auf die man im Problemfall keinerlei Zugriff mehr hat.

<< | AkTuellArchiv | Archiv 2017 >>