Veröffentlicht am

Bildung statt Industrie 4.0

Bildung statt Iindurstrie 4.0Wie soll Industrie 4.0 funktionieren, wenn das Bildungssystem gerade erst ins Web 2.0 aufbricht?

Wie war das mit dieser „Medienkompetenz“? Brauchen wir dringend?

Nö. Brauchen wir nicht. Das kommt viel zu früh für so manchen Verantwortlichen im Bildungssystem.

Warum ich so polemisiere?

Ganz einfach. Ich habe gestern von der Schule meiner Tochter einen Link zu einer Software der Bezirksregierung für die Kursbelegung bis zum Abitur bekommen. Diese Software soll es Schülern und Schülerinnen im „Computerraum“ ermöglichen, die Fachbelegung interaktiv vorzunehmen.

Erster Eindruck: Nicht mal Java oder Browser basiert? Nur ein Windows-Installer? Toll. Und wie immer der lapidare Hinweis, dass Nutzer anderer Systeme ja einen „Emulator“ nutzen könnten, damit das läuft.

Sowas finde ich richtig neben der Spur.

Bloß weil die Schulverwaltung mangels Überblick nicht in der Lage ist, sich vom Microsoft-Diktat frei zu machen, soll ich mir also für €79,- einen Emulator kaufen und dazu noch für ca. €120,- ein Windows-Betriebssystem? Seit über einer Dekade hat es immer noch keiner geschafft, über den Tellerrand zu gucken?

Ich lasse als Entschuldigungsversuch gelten, dass die Software eigentlich nicht für ein fachlich versiertes Zielpublikum, sondern eigentlich nur für den Gebrauch in der Schule gedacht war. (Was es beim zweiten Lesen aber eigentlich noch schlimmer macht, denn es lässt erahnen, in welchem Jammertal sich die IT und das Publikum in der Schule befindet.)

Das Programm selbst ist derart schlicht, das hätte eine einigermaßen auf dem aktuellen Stand befindliche Informatik-AG mit Excel in 4 Wochen „programmiert“. Von einer Java-Umsetzung will ich mal nicht reden. Aber auch das hätte vermutlich in einem Schuljahr funktioniert.

Mein Fazit: Vergesst Industrie 4.0, die Schulverwaltung bricht erst ins Web 2.0 auf.

Aber das ist noch nicht das Ende der Geschichte.

Sehr speziell war das Statement der Bezirksregierung.

Ich habe dort nämlich per Mail nachgefragt, warum die Software wieder einmal nur für Windows ist. Das sie offenbar für Win95-98 konzipiert wurde, konnte man einem ReadMe entnehmen, wonach eine bestimmte Datei ab Windows nicht mehr installiert werden muss. Was lag also näher als zu fragen, warum das nicht auch anders und aktueller geht.

Die Antwort: Das Programm wurde vor 13 Jahren erstmalig in Auftrag gegeben. Eine mögliche Neu- oder Weiterentwicklung wird nur im Konjunktiv erwähnt.
Das ist ein Statement. Allerdings eins, das mich mit den Augen rollen lässt.

Die aktuelle Version trägt die Versionsnummer 2 und stammt aus dem Jahr 2014. 12 Jahre für ein Versionsupdate? Woanders macht man solche Sprünge in maximal 3 Jahren, damit die Software überhaupt noch auf aktuellen Systemen läuft. Wer einen solchen Sprung nach 12 Jahren macht, muss das vermutlich gezwungenermaßen, damit das Ding überhaupt noch startet.

Fazit 2: Man kann gar nicht so schnell gucken, wie der Zug voller Ideen und Visionen an unserem Bildungssystem vorbei rast.

Das kommt mir vor wie bei Radargeräten. Man muss nur schnell genug sein, dann kriegen die auch nichts mehr mit. Was jetzt aber nur bedingt ein Grund zum Feiern ist. (In beiden Fällen!)

Da bleibt mir der Bezirksregierung nur Eines zu wünschen übrig: Viel Spaß wenn ihr daran geht das Web 2.0 zu entdecken.

Aber mal ehrlich: Könnt ihr so Spielchen nicht bei euch im Amt machen? Mit eurem Tempo verbaut ihr den Kids da draußen jede Zukunftschance.

Veröffentlicht am

Ein Ruhri in Köln

Ein Ausflug nach KölnIch mache dann mal einen Ausflug…
Gaaaanz weit weg.
Nach Köln.

Nein. Nicht um den Dom zu fotografieren, auch wenn das eine gute Idee wäre.
Die Stadt Köln ist sehr umtriebig wenn es um das Thema Internet geht. Da ist auf der einen Seite das „LernLab -Lernen und Lehren„, bei dem es um den Einsatz von neuen Medien in der Schule geht.

Diese Veranstaltung ist insbesondere deswegen interessant, weil ich meine Antennen einmal auf die Ansätze von LehrerInnen ausrichten möchte, um zu verstehen, wo es drückt. Meine Wahrnehmung von Internet und Schule ist momentan leider sehr von Restriktionen und Sanktionen geprägt. Dabei wäre es doch viel pfiffiger einmal die Innovation in den Vordergrund zu spielen und zu begeistern. Aber das ist nur die eine Veranstaltung.

Dann ist da noch etwas zum Thema „Freie Bildungmaterialien“.

Die Stadt Köln setzt beim „OER Köln-Camp“ am Joseph-DuMont-Berufskolleg den Fokus auf Lizenzrecht und den Qualitätsanspruch an selbst erstellte oder öffentlich verfügbare Bildungsmaterialien.

Es wird aus meiner Sicht auch dringend Zeit, dem Dilemma von Copyrights im Bildungswesen, zu entgehen. Es kann nicht angehen, dass für Schulen nur Verlagsangebote existent zu sein scheinen. Es gibt so viel spannendes Material, dass man zu aktuellen Themen einsetzen kann und damit so nebenbei auch die Medienkompetenz bei Kindern und Lehrern schult.

Was mich dabei insbesondere interessiert: Wie die Stadt Köln als Bildungsträger mit den Themen umgeht. Hier im Revier erlebt man leider viel zu oft, dass Bildung aus Sicht der Kommunen immer mehr zu einer lästigen Pflichtaufgabe wird. Ich bin gespannt und freue mich auf neue Impulse.

Vielen Dank an dieser Stelle an Stephan Kramer vom Amt für Informationsverarbeitung der Stadt Köln, der mich zu dieser Veranstaltung eingeladen hat!

Veröffentlicht am

Hinter dem Horizont geht’s weiter

Horizont und KommunikationEine alte Weisheit sagt, dass der Blick über den eigenen Tellerrand manchmal hilfreich ist.

Soll sagen: Man muss technische Dinge immer hinterfragen und die Tragweite des eigenen Handelns abschätzen.

Machen wir uns an einem fast fiktiven Beispiel klar, warum das wichtig ist.

Das Beispiel ist ein aktueller Vorgang rund um den DynDNS (Dynamic Domain Name Service) des Anbieters „NoIP“.

DynDNS ist eine Möglichkeit, um von unterwegs auf den heimischen Datenbestand zuzugreifen. Oft haben kleiner Unternehmen und Privatanwender keine feste IP-Adresse auf die sie zugreifen, sondern bekommen vom Provider nur eine dynamische IP zugeteilt.

Welche IP-Adresse das dann genau im Moment ist, bekommt man aber nur heraus, wenn man im eigenen Netz ist. Der VPN-Client auf dem Smartphone oder das Musikprogramm, das die eigenen Lieder unterwegs abrufen soll, wissen das von aussen nicht.

Hier hilft es, einen festen Namen wie „homeserver.no-ip.org“ einzustellen und der DynsDNS-Server der Zone „no-ip.org“ kümmert sich darum, welche IP das dann im Moment ist.

Was ist denn in unserem Beispiel eigentlich passiert?

Da scheiden sich noch die Geister, der eigentlich Sachverhalt WARUM ein großer Software-Anbieter aus den USA den Dienst übernommen hat, spielt aber für meine Betrachtung keine Rolle.

Mir geht es um das WIE.

Offenbar hat der Software-Hersteller bei Gericht beantragt, die Domains von „NoIP“ im DNS übernehmen zu dürfen, um so eine größere Anzahl von Servern mit Schadsoftware unschädlich zu machen. Also ist die Rechtsabteilung mit einer eigentlich sinnvollen Idee los marschiert und hat Recht bekommen.

(Die Frage, warum sich ein privatwirtschaftliches Unternehmen dazu berufen fühlt, einen solchen im Grunde bei der Exekutive angesiedelte Aufgabe zu übernehmen, lasse ich erst einmal offen im Raum stehen. Was aber nicht heißt, dass dieser Aspekt so ganz unbemerkt bleiben sollte!)

Jetzt kommt das Problem.

Offenbar hat man im Vorfeld nicht genau genug bei der Technik nachgefragt wie man so eine Übernahme denn realisieren könnte. Die Technik hat vermutlich geantwortet „Kein Problem, wir machen das als Proxy DNS, holen uns die Originaldaten von den Servern bei NoIP und filtern die bösen Hostnamen einfach heraus“.

Der Weg ist technisch prinzipiell durchaus gangbar. Nur leider hat die Rechtsabteilung entweder bei der Frage vergessen die Anzahl der aktiven Kunden zu nennen, oder hat bei der Antwort aus der Technikabteilung ein einschränkendes „Wir setzen das auf einer VM auf, damit können wir etwa x Requests pro Sekunde abwickeln“ einfach überhört.

Das passiert ganz oft in der Kommunikation zwischen Technikern und Nicht-Technikern. Die einen reden ihre eigene Sprache (siehe oben) und bei den anderen kommt ein Teil der Kommunikation nur als nutzloses Rauschen an. Denn eins ist klar: Was man nicht auf Anhieb versteht, das übersieht man.

Das Resultat?

Nun, momentan sind wohl die DNS-Proxies gnadenlos überlastet oder das Filtern der Domains per Script ist doch langsamer als gedacht. Fakt ist jedenfalls, dass eine riesige Anzahl an DNS Abfragen leer laufen. Natürlich mit dem Resultat, dass die dahinter liegenden Rechner im heimischen Netz nicht mehr erreichbar sind.

Im Ergebnis hat man also jetzt um ein Dutzend Server mit Schadsoftware zu blockieren, Tausende von anderen Servern einfach lahmgelegt. Man nennt so etwas wohl Kollateralschaden. Das Wissen wie man das nennt, hilft den Betroffenen nur leider nicht.

Was hilft?

Nachdenken und Kommunikation, die den anderen erreicht.

Ist es denn so schwer, den Juristen zu entgegenen: „Das ganze können wir unter Beachtung der aktiven Benutzer des Dienstes machen. Von wie vielen Anwendern reden wir? Wie viele Kunden hat der Dienst? Wie viele Servernamen sind zu erwarten?“

So eine Rückfrage entschleunigt den Prozess, das ist sicher. Aber ist das denn schädlich? Bei so einer Rückfrage hätten die Juristen nämlich durchaus auf die Idee kommen können, diese Zahlen zu hinterfragen. Da wäre dann vermutlich schnell heraus gekommen, das man ein Dutzend Schadsoftware-Schleudern blocken will und dafür aber Abertausende von anderen DNS-Abfragen bearbeiten muss. Dann wäre die nächste Frage an die Technik vermutlich gewesen: „Können wir das stemmen, was kostet der Betrieb intern und funktioniert das ohne, dass uns fälschlich Betroffene mit Regress kommen?“.

„Ihr macht das jetzt einfach mal und dann sehen wir schon…“ ist einfach der falsche Ansatz, wenn es um IT geht. Man sollte sich nicht zu schade sein zuzugeben, dass die eigenen Kenntnisse von anderen Bereichen (insbesondere technischen Bereichen!) unzureichend sind und man sich auf den Sachverstand der anderen verlassen und mit den Experten aus der Technik kommunizieren muss.

Solange Unternehmensprozesse aber immer weiter und weiter aufgespalten werden, damit jeder Anlernling sie mit Hilfe eines einzelnen A4-Zettels ohne Nachfrage ausführen kann, sind solche Sachen einfach vorprogrammiert.

Hier sollten Entscheider in Unternehmen ganz schnell gegensteuern und dafür sorgen, dass Menschen im Unternehmen verbleiben, die den Überblick haben.

Denn sonst passiert einem Unternehmen das, wovor die Wikinger am meisten Angst hatten: Das die Erde eine Scheibe ist und man am Ende des Horizonts einfach herunter fällt.
Veröffentlicht am

Die BWL wird zum Risiko

Ein Artikel wie dieser gibt schon schwer zu denken.

Dort wird beschrieben, dass ein Hersteller von Netzwerkkomponenten offenbar versehentlich virenversuchte Speicherkarten in seinen Netzwerk-Switches eingesetzt hat.

Das komplette  Security-Bulletin des Herstellers findet sich hier.


Nicht an den Kopf fassen, sondern für Themen sensibiliserenDer Sachverhalt mag hier für genau einen Hersteller gelten. So ganz einmalig wird der Vorgang aber nicht sein. Die meisten Hersteller setzen in der Produktion auch IT-Systeme ein, die mit gewissen Risiken behaftet sind. Insofern halte ich den Vorgang an sich für nicht so kritisch, sondern eher für symptomatisch für die ganze IT-Branche.

Es stimmt mich aber nachdenklich, dass offenbar zentrale Netzwerkkomponenten ungeprüft verpackt und ausgeliefert werden. Dieser Fakt ist vermutlich dem herrschenden Preiskrieg und der spitzen Feder der meist rein BWL-lastigen Controller in Unternehmen zu verdanken. Es wird einfach gespart, weil der Kunde es ja „günstig“ haben will.

Auf den Kern reduziert, ist also eigentlich nicht der Hersteller der Hauptverantwortliche. Sondern der Kunde, er will die Ware ja „günstig“? Im Grunde kriegt der Kunde ja immer vorher vom Hersteller das auslösende Signal: Wir haben tolle neue Hardware! Und das zu einem ganz tollen, kleinen Preis.

Muss das so sein? Offenbar ja, denn der Hersteller muss seinen Aktionären Wachstum generieren.

Also wird auf die Rendite geschielt und verkauft, was eben geht. Und da der Vertrieb ja möglichst schnell die neuen Geräte verkaufen will, wird also nur das Gröbste geprüft.

Der Vertrieb will nicht warten, bis für die neuen Geräte alle internen Prozesse angepasst sind und die Firmware mehrfach in realen Szenarios geprüft ist. Oder man verlässt sich blind darauf, dass die internen Qualitätsmaßnahmen schon passen. Tun sie ja in 99% aller Fälle ja auch. Nur eben nicht immer.

Insgesamt gesehen ist der oben aufgeführte Einzelvorgang also nicht weiter erwähnenswert. Es ist schlichtweg ein Nebenschauplatz in der aktuellen IT-Welt.

Nähern wir uns doch mal sachlich. Da ist ein Virus ausgeliefert worden, der auf dem befallenen System nichts bewirkt.

Er verbreitet sich nur, wenn dieser die Flash-Card mit dem Systems des Netzwerkswitches für ein Update in den Rechner schiebt. Eigentlich auch ein minimales Risiko, da diese Update meist über TFTP oder Webbasierte Oberflächen passieren. Die Flash-Card wird also in 99,9% aller Fälle niemals den Netzwerkswitch verlassen.

Was mich deutlich aufhorchen lässt, ist die Tatsache, dass der Sachverhalt einem Jahr auffällt und dann aktiv kommuniziert wird. Das finde ich vom zeitlichen Ablauf eher negativ erwähnenswert, was mir aber positiv auffällt ist die Tatsache, des der Hersteller sich überhaupt äußert.

An dieser Stelle muss man nämlich vor dem Hersteller HP absolut den Hut ziehen. Er wagt es, den Sachverhalt offen zuzugeben und zu kommunizieren. Ein echtes Risiko in einer vom Share Holder-Value getriebenen Welt. Aber es zeugt von Verantwortung und Standing!

Also mehr Mut, mit solchen Pannen umzugehen und sie schnell und aktiv zu bearbeiten!

Es stellt sich nämlich wirklich die Frage, wie viele Netzwerkkomponenten noch in kritischen Infrastrukturen installiert sind und möglicherweise ebenfalls eine solch unerwünschte Fracht an Bord haben. Und zwar nicht nur bei HP. Andere Hersteller haben genau die gleichen Marktzwänge zu erdulden.

Überall wird von Qualitätsmanagement geredet, aber in der Endkontrolle der Fertigung scheint das noch nicht angekommen zu sein. Muss also jetzt der Kunde Neugeräte von Inbetriebnahme komplett zerlegen, um die Komponenten auf Herz- und Nieren zu prüfen?

Hier ist mehr Standing der Hersteller gefordert, die dem Kunden wieder klarmachen, dass vernünftige Endkontrolle Geld kostet, aber absolut sinnvoll ist. Und der Kunde muss das endlich wieder einsehen.

 

Gehen wir doch mal den jetzt eingeschlagen Argumentationspfad weiter.

Konkret nachgedacht, ist also nicht die Schadsoftware das Kernproblem in Unternehmen mit hoher IT-Durchsetzung. Das Kernproblem ist der IT-Einkäufer und die vorgesetzte Controlling-Abteilung. Beide achten fast immer nur auf den Anschaffungspreis, handeln aber oft gegen den (aus technischer Sicht sinnvollen) Wunsch ganzer IT-Abteilungen. So werden oft Update-Abonnements oder Hardware-Ersatz schlichtweg aus Kostengründen für unnötig erklärt.

Also ist der ganze Vorgang kein Problem der IT. sondern hat eher kaufmännische Ursachen.

 

Es bleibt nur ein Fazit: Die IT immer nur als Kostenstelle zu sehen und nicht als etwas, das dem ganzen Unternehmen dient, führt ins Abseits! Der Einkauf ist auch kein Kostenträger im klassischen Sinn. Er verringert möglicherweise die Kosten für den Materialeinsatz, aber das auch nur wenn man nicht die Mehrkosten bei Personal oder „After Sales Support“ mit einrechnet. Früher gab es zu Recht den Satz: Wer billig kauft, zahlt doppelt.

Das stimmt noch heute, fällt aber in einer gut angelegten Bilanz nicht mehr so auf.

Und es sei noch einmal gesagt: Kaufleute, hört auf die Techniker. Die wissen durchaus, wovon sie reden und warum sie bestimmte Dinge haben wollen. Rechnet bei „Total Cost of Ownership“ nicht nur Bankzinsen und Ersatzteile ein, sondern endlich auch einmal wieviel unnötigen Personalaufwand die Entscheidung über den Kaufpreis auslöst.

Wenn das Netzwerk das nächste Mal wieder nicht funktioniert, weil der Billig-Switch nur noch piept, ist genug Zeit dafür. Wie, das geht nicht? Ach so. Stimmt. Ohne den kaputten Switch kommt ihr nicht an Zahlen…