Veröffentlicht am

Hut ab…

Instagram umgeschaltetHeute muss ich doch einmal kurz den Hut ziehen.

Anlass ist dieser Artikel bei Wired.com. Er beschreibt, was da in den letzten Wochen so leise im Hintergrund bei Instagram passiert ist.

Der Instagram Gründer Mike Krieger hat es sehr schön bildhaft umschrieben:
‘The users are still in the same car they were in at the beginning of the journey, but we’ve swapped out every single part without them noticing.’

Und da kann ich als Techniker wirklich nur den Hut ziehen. Nach meiner Wahrnehmung gab es nämlich in der Übergangsphase kaum merkliche Unterbrechungen im Service.

Das ist schon eine wirklich gewaltige Leistung der Facebook- und Instagram-Techniker im Hintergrund.

Was ist passiert? Ganz einfach. Man hat die Daten von Instagram vom bisherigen Ablageort in der Amazon-Cloud in Facebook-eigene Rechenzentren umgezogen.

Das klingt erst einmal nicht spektakulär, aber machen wir uns einmal klar, was da an Daten umgelagert werden musste: Wir reden über rund 20 Milliarden Fotos. Das ist eine unglaubliche Menge an Daten, die es zu migrieren galt.

Der Haken dabei: Am Dienst nehmen ca. 200 Millionen Apps auf Smartphones verteilt über alle Zeitzonen teil. Die sollen von der Migration natürlich nichts merken.

Hand auf’s Herz: Mittelständische Firmen haben oftmals mit dem Umzug der eigenen Daten schon Probleme wenn man den zweistelligen Terabyte-Bereich verlässt. In diesem Fall reden wir von einem zweistelligen Petaybyte Bereich!
Dazu noch die ganzen Datenbanken und Datensicherungen. Etwas mehr zu den technischen Hintergründen gibt es im Entwickler-Blog bei Instagram

Das ist schon ein gewaltiges Projekt, bei dem auch noch im Produktivbetrieb umgelagert werden musste.

Deswegen: Statt kritischer Worte mal ein ehrliches „Hut ab…!“ an die Techniker dahinter.

Veröffentlicht am

TrueCrypt am Ende?

TrueCryptDie Entwickler der Software TrueCrypt warnen vor ihrem eigenen Produkt.

Himmelfahrt 2014 gibt es bei Twitter viel Seltsames zum Thema „TrueCrypt“ zu beobachten. Unter dem Hashtag #truecrypt tauchen Meldungen auf, wonach die Entwickler der Verschlüsselungssoftware TrueCrypt das eigene Produkt als unsicher erachten:

“WARNING: Using TrueCrypt is not secure as it may contain unfixed security issues”

Das Ganze wirkt im ersten Moment wie ein schlechter Scherz. Die frei verfügbare Software TrueCrypt wird von vielen Sicherheitsexperten eigentlich noch immer empfohlen, da sie für alle gängigen Betriebssysteme zur Verfügung steht. Sie ist sogar in der Lage komplette Festplattenpartitionen zu verschlüsseln.

Wenn man dann den Vorgang genauer betrachtet, erscheint er noch seltsamer.

Für einen bloßen Scherz oder ein Webseiten-Defacement (Also das Entstellen einer Website durch Hacker), sind einige Fakten viel zu strukturiert. So leitet die originale Website unter truecrypt.org mit Hilfe einer Webserver-Direktive auf die Entwicklerplattform Sourceforge um. Hierzu benötigt man entweder Zugriff auf die Konfiguration der eigentlichen Server-Software oder muss zumindest das Recht haben per .htaccess-Datei bestimmte Funktionen des Servers zu steuern.

Zeitgleich wurde auch eine neue Version 7.2 der Software bei Sourceforge veröffentlicht. Diese ist neu kompiliert und es wurde die Funktionen zur Verschlüsselung entfernt. Dafür aufgenommen wurden offenbar Warnhinweise, dass man auf andere Produkte ausweichen möge.

Es wurden auch alle vorherigen Versionen bei Sourceforge entfernt.

Allein das würde bedeuten, dass ein Hacker nicht nur Zugriff auf den Webserver von truecrypt.org erlangt haben müsste, sondern auch auch sehr weitreichende Rechte auf das Entwicklerportal hatte.

Die neue Version wurde auch mit einem private Key der Entwickler signiert, was bedeuten würde, dass auch dieser in fremde Hände gefallen sein müsste.

Ebenfalls spannend: Scheinbar sind auch alte Versionen der Website von TrueCrypt aus Web-Archiven wie der WayBack-Machine entfernt worden.

Das ist alles schon sehr merkwürdig und ist bestimmt kein Unfall.

Noch seltsamer wird der Vorgang nämlich wenn man weiß, dass vor einiger Zeit eine externe Sicherheitsfirma begonnen hat, den Code von TrueCrypt zu auditieren. Hierbei kam in der ersten Auditierungsstufe heraus, dass es keine eklatanten Sicherheitslücken gibt. Das steht in krassem Widerspruch zur jetzt vorgenommenen Selbsteinschätzung der Entwickler.

An diesem Punkt sprießen die Verschwörungstheorien.

TrueCrypt gehörte genau wie der E-Mail Anbieter Lavabit zu den bevorzugten Werkzeugen von Edward Snowden. Lavabit erhielt vor einiger Zeit von US-amerikanischen Behörden eine Aufforderung, sämtliche Verschlüsselungs-Keys herauszugeben, damit die verschlüsselten Inhalte entschlüsselt werden können. Lavabit hat daraufhin von einem Tag auf den anderen den Dienst eingestellt und sämtliche Daten gelöscht.

Aufforderungen dieser Art beinhalten in den USA stets auch die Aufforderung nicht über den Vorgang zu sprechen oder sich zu äußern.

Ist so etwas jetzt auch bei TrueCrypt passiert? Natürlich kommen sofort Gerüchte dieser Art auf. Es besteht aber erst einmal kein Grund zu einer Panikreaktion.

Gehen wir einmal besonnen mit der Situation um:

TrueCrypt sagt, die Software ist nicht mehr sicher.

Gut, das ist nicht schön, aber kein Grund zur Panik. Die letzte Version 7.1a ist jetzt seit fast zwei Jahren unverändert. Es gibt also keinen Grund sie nicht zumindest noch für die Umspeicherung der eigenen Daten zu benutzen.

Auch der angegebene auslaufende XP-Support ist kein ausreichender Grund von jetzt auf gleich an der Sicherheit der Software zu zweifeln. Die Entwickler benutzen zwar einen uralten Compiler unter Windows XP um die Software zu übersetzen, aber das war in den vergangenen Jahren aber auch kein Problem.

TrueCrypt empfiehlt, Tools nutzen die die Betriebssysteme mitbringen.

Das ist nicht wirklich zielführend. TrueCrypt hatte eben den charmanten Vorteil, dass verschlüsselte in der Cloud abgelegte Daten unabhängig vom Betriebssystem genutzt werden konnten. Das geht mit diesem Ansatz nicht.

Sinnvoll erscheint mir momentan, das eigene Sicherheitskonzept zu hinterfragen.

Wer seine Daten in einem TrueCrypt-Container in Dropbox oder sonst einem Cloudspeicher aufbewahrt, tut gut daran, das zu ändern. Was vor einiger Zeit noch als gangbarer Weg galt, um das Sicherheitsrisiko von Daten in der Cloud zu minimieren, muss mit diesem Tag als überholt betrachtet werden.

Sensible Daten raus aus der Public Cloud muss die aktuelle Devise sein.

Also Daten zurückholen in eine sichere Umgebung, entschlüsseln und nur das auf einem Stick mitnehmen was man unterwegs braucht. Diese Entscheidung ist ja jederzeit reversibel, wenn sich der aktuelle Wirbel um TrueCrypt legt und die Situation sich nachhaltig klärt.

Meine Empfehlung zum Thema Nachhaltigkeit: Zurück zu einem Konzept mit eigenen Servern und VPNs um an die Daten zu gelangen.

Durch den Aufbau einer sicheren „Privaten Cloud“ lässt sich durchaus der gleiche Nutzen erreichen ohne das Risiko offener Daten bei einem fremden Diensteanbieter einzugehen.

Veröffentlicht am

SocialMedia wirkt

Marketing mit SocialMedia bringt nichts…

SocialMediaDas sagen manche. Andere sagen, es funktioniert.

Als Beispiel bei dem es funktioniert, möchte ich eine Veranstaltung aus dem eigenen Wirkungsbereich anführen: Das große Dressur- und Springturnier 2014 beim RuF Hexbachtal/Reitstall Lugge.


Zur Historie und Vorplanung

Anfang des Jahres 2014 kam die Idee auf, ein im Mai stattfindendes Reitturnier auf der neu überarbeiteten Website des Reitstalls prominent in den Vordergrund zu bringen. Obwohl die Website als Content Management System (CMS) relativ zeitnah mit Inhalten zu versorgen ist, kam trotzdem der Gedanke auf, die anstehende Veranstaltung mit Hilfe sozialer Netzwerke zu begleiten.

Es wurden daher im Februar Accounts bei Twitter, Facebook, Instagram und anderen Netzwerken angelegt und testweise mit ersten Inhalten bestückt. Allerdings eher sporadisch um zu entscheiden, welches Medium sich am besten eignet. Zu diesem Zeitpunkt war absolut nicht klar, welche Netzwerke als aktive Kanäle von der Zielgruppe Reiter genutzt werden.

Die Umsetzung

Als zentrales Informationsmedium und Ankerpunkt wurde die eigene Website ausgewählt. Klare Vorgabe: Nach den positiven Rückmeldungen nach der Überarbeitung Mitte 2013 wäre es fatal die Aufmerksamkeit von der Website auf andere Kanäle zu ziehen.

Auf der Website entstand daher eine eigene Rubrik zum Turnier, es wurde mit einem Fotorückblick und der Turnierausschreibung begonnen. Ebenso wurden Sponsorenwerbung und Termine aufgenommen.

Reichweitengewinn

Es wurde ab Februar 2014 begonnen, Inhalte auf der bei Facebook eingerichteten Fanpage zu publizieren, um damit Aufmerksamkeit zu erreichen und mehr Menschen auf die Website zu ziehen. Gleichzeitig wurde eine Facebook-Veranstaltung angelegt um die geplante Zielgruppe direkt ansprechen zu können. Die Mitglieder des Vereins wurden gebeten, sich bei der Veranstaltung anzumelden und andere Reiter einzuladen.

Der Plan war, weitere Fans nicht über aufdringliche Werbung zu erreichen, sondern auf organisches Wachstum zu setzen.

Ein paar Zahlen

Der Start der Fanpage bei Facebook war sehr spannend. Nach einem Tag hatte die Seite 111 Fans und wuchs in den nächsten fünf Tagen auf 275 Fans.

Vor dem Start der Facebook-Fanpage war ein langsam steigendes Interesse an der Website zu sehen. Seit dem Neustart im Oktober stieg hier die Besucherzahl langsam auf 800 Seitenabrufe im Monat an.

Mit dem Start der Facebook-Fanpage im Februar fing ein exponentielles Wachstum der Website-Besuche an. Der Februar zeigte bereits knapp 1200 Webseitenabrufe pro Monat. Eine ziemlich große Menge an Besuchern für die Image-Website eines Reitstalls!

Und dann kam das Turnier

Im Verlauf des März und April wurden einige Hinweise auf Termine und Meldungsmöglichkeiten bei Facebook veröffentlicht, die alle auf die Website führten. Das alles schien nicht sehr spannend zu sein, die Zugriffszahlen sackten etwas ab.
(Anmerkung: Hier sind die Statistiken auch nicht ganz sauber, da Mitte April ein OLG-Urteil zur Webseitenanalyse gefällt wurde, was ein vorübergehendes Abschalten der Statistiken nach sich zog! Nach Stellungnahme des ULD Schleswig-Holstein und Überprüfung der demnach schon einwandfrei erhobenen Statistikdaten wurde die Auswertung erst am 25.4.2014 wieder aktiviert.)

Facebook

Ende April wurde dann die Anzahl der Posts bei Facebook ein wenig erhöht. Statt einer Reichweite von rund 350 Personen waren es über 700 Personen je Post zum Turnierstart.
Während des Turniers lagen die Reichweiten der Posts bei Facebook zwischen 1.000 und 1.500 Personen.

Website

Auch auf der Website war dieser Trend klar abzulesen. Bereits am Abend des ersten Turniertages lag die Zahl der Seitenabrufe der Website bei 3.100. Also nach einem Tag schon ein Mehrfaches des gesamten Vormonats.

Am Abend des vierten und letzten Turniertages lag die Zahl der Seitenabrufe auf der Website bei 11.700. Das bedeutet eine Verzehnfachung des Websitetraffics! Da ein Seitenabruf nicht unbedingt aussagekräftig ist, noch eine andere Zahl: Es waren 2.500 Besucher, die diese Webseiten abgerufen haben.

Bildschirmfoto 2014-05-10 um 16.14.11

Stand heute, 10.5.2014: 18.500 Seitenabrufe bei 3.600 Besuchen, hiervon 2.600 eindeutige Besucher, bzw. Endgeräte. Wenn man hierbei noch ein Drittel durch doppelte Geräte abzieht, verbleiben mehr als 1.700 eindeutige Besucher auf der Website.

Ebenfalls bemerkenswert: Die mittlere Verweildauer auf der Website liegt bei rund 4 Minuten pro Besuch. Das ist ein durchaus respektabler Zeitraum, der darauf hindeutet, das die Besucher sich mit den Inhalten beschäftigen.

Fazit

Wie man dem Titelbild deutlich entnehmen kann, sind die hier präsentierten Zahlen und deren Interpretation keine virtuelle Scheinwelt.

Die Abrufe der Website korrespondieren eindeutig mit der Besucherzahl vor Ort: Am Nachmittag des ersten Turniertages waren z.B. die reichlich vorhandenen Vorräte des Kuchenstandes komplett leer. Auch die Kilozahlen bei Fleisch und Pommes Frites sind für einen kleinen Reitverein durchaus beachtlich.

Ob das nun nur an der SocialMedia Begleitung gelegen hat, traue ich mich nicht zu bewerten. Das gute Wetter, gut vernetzte Gemeinden in der Umgebung und ein attraktives Veranstaltungsangebot haben sicher auch zum Gelingen beigetragen.

Die Rückmeldungen von Teilnehmern und Besuchern bei Facebook zeigen aber ganz klar, das die SocialMedia Begleitung deutlich wahrgenommen wurde und sehr positiv bewertet wurde.

Insofern: SocialMedia lohnt sich!

Veröffentlicht am

Die Cloud – Von bunt bis grau.

Cloud Services - DenkanstößeEs gibt nicht einfach „DIE CLOUD“.

Man begegnet der Cloud in den verschiedensten Formen. Genau wie im richtigen Leben. Es gibt kleine und feine Schleierwolken, schöne Schäfchenwolken und natürlich auch bis an die Oberkante aufgeladene Gewitterwolken.

Überall liest man Schlagworte wie toll Cloud-Lösungen doch sind und welche Kosten man damit sparen kann. Leider ist das gesamte Thema sehr extrem besetzt. Auf der einen Seite die Befürworter (in der Regel die Verkäufer)  und auf der anderen Seite Menschen, die das alles rundweg ablehnen. Wer hat nun recht?

Steigen wir doch einmal ins Thema ein. Denn ohne Basiswissen macht die Diskussion um Vor- und Nachteile keinen Sinn.


Was steckt nun eigentlich hinter dem Begriff Cloud?

Direkt zu Anfang: DIE Cloud gibt es nicht. Eigentlich war der Begriff Cloud unter Netzwerktechnikern schon in den 90er Jahren des vorigen Jahrhunderts ein Sinnbild von allen Dingen und Diensten, die man nicht lokal verfügbar hatte. Die Cloud stand eigentlich immer bei Netzwerkskizzen in der Mitte und war ein Symbol für das Internet und die darin verfügbaren Verbindungen und Daten.

Dieses Bild der Cloud wurde dann von Marketingstrategen entdeckt und als Schlagwort nach vorne getrieben.

Der Begriff Cloud ist wie auch das Symbol damals nur eine grobe Skizze dessen, was sich dahinter verbirgt.

Am verbreitetesten als Erklärung ist in den Köpfen der meisten Anwender eigentlich nur irgendwo verfügbarer Speicherplatz. Das ist auch gar nicht so falsch. Die Cloud war anfangs wirklich nur ein vom lokalen Netz unabhängiger Speicherort. Im Grunde so etwas wie ein großer Datenspeicher irgendwo in einem Rechenzentrum.

Mit dem Aufkommen von Virtualisierungslösungen begann eine gravierende Änderung. Die Frage war: Warum denn nur den Speicherplatz da draußen nutzen?

Könnte man als Firma nicht ganze Serverfarmen in einem externen Rechenzentrum aufbauen, auf die dann mehrere Filialen zugreifen können? Hauptgrund war sehr oft die Entlastung des  Internetzugangs in der Zentrale und die bessere Verfügbarkeit der Dienste.

Ein weiterer Nebenaspekt: aufgrund der Entwicklung bei den Energiekosten sahen viele Unternehmen hier Einsparpotential, da weniger Strombedarf für neue Server und deren Kühlung zu erwarten stand.

Der nächste Schritt war dann auch logisch. Warum nicht auch ganze Anwendungen nach draußen verlagern?

Die Kernfrage dabei: Muss man selbst alle Anwendungsprogramme auf lokalen Rechnern halten? Kann man die Anwendungen nicht einfach in Java schreiben und dann im Browser oder einen eigenen Laufzeitumgebung starten? Das spart doch auch am Arbeitsplatz. Und auch der Server muss nicht bei wachsender Benutzerzahl aufgerüstet zu werden. Die Cloud setzt ja auf virtuellen Maschinen auf. Ob diese dann aus lediglich vier Prozessoren oder auf einem Dutzend bestehen, wird völlig unerheblich.

Applikationen werden seitdem es Mehrkernprozessoren gibt immer flexibler was den Ressourcenverbrauch angeht. Programme arbeiten nicht mehr wie zu Anbeginn der IT linear. Mittlerweile werden Anwendungen objektorientiert und multithreadingfähig aufgebaut, was es ermöglicht, Prozesse parallel abzuarbeiten. Bei komplexen Berechnungen kann so die Rechengeschwindigkeit deutlich erhöht werden.

Genau hier liegt der große Vorteil von Cloud-Lösungen. Sie machen Rechenleistung skalierbar.

Man kauft immer die Rechenleistung ein, die man braucht. Also in außergewöhnlichen Zeiten in denen man mehr Personal beschäftigt, wird einfach mehr Kapazität zugekauft. In ruhigen Zeiten kann man die Services einfach wieder herunterfahren. Ideal bei saisonal bedingten Unterschieden.

Und der Aspekt Ausfallsicherheit?

Das Thema greife ich im nächsten Beitrag auf. Denn hier gibt es einige Dinge zu beachten.

 

Also: Stay Tuned!

Veröffentlicht am

Big Data – Think Big But Start Small

Can you see the light?Macht es klassisch. Fangt klein an.

Alles redet über Big Data. Aber was ist das eigentlich?

Überall geistert dieses Gespenst herum. Big Data und was man alles damit machen kann. Aber muss man wirklich alles damit machen? Ist nicht auch hier der Ansatz besser, dass man besser etwas zum eigenen Unternehmen passendes sucht?


Seit einiger Zeit werdem immer wieder neugierige Fragen zum Thema Big Data gestellt.

Bislang stellte sich im Vorgespräch immer heraus, dass der Kunde eigentlich gar nicht in der Lage ist, Fragen zu formulieren, die Big Data beantworten kann.

Und das ist ein Problem, wenn wir über Big Data reden. Ohne den Kontext der Frage und den Blickwinkel des Fragestellers kann die Antwort einer solchen Datenanalyse niemals hinreichend sicher sein.

Natürlich sind sind bei den Fragen immer ein paar tiefer gehende Zusammenhänge bei, aber in den meisten Fällen geht es dann doch um eher klassische Dinge. Das Marketing weiß oft gar nicht, wie „Das Netz“ funktioniert und sieht die Zusammenhänge verschiedener Daten nicht. Manche wissen nicht einmal, welche sozialen Netzwerke mit anderen in einem Konzern stecken und wie sich deren Daten aggregieren.

Im Kern kristallisiert sich bei unseren Kunden in der Größenordnung von 1-150 Arbeitsplätzen eigentlich immer heraus, dass man Antworten auf eher alltägliche Fragen sucht:

  • Wer sieht sich meine Webseiten an?
  • Wie bekomme ich mit, ob meine Webseiten für die Nutzer gut anzuzeigen sind?
  • Wie erreiche im Internet mehr Aufmerksamkeit?
  • Brauche ich Accounts in verschiedenen Sozialen Netzen?
  • Wie werte ich aus, was in diesen Netzen passiert?
    • Werden meine Mitteilungen gelesen?
    • Wird darauf reagiert?
    • Wie wird reagiert?
  • Wie kann ich möglichst automatisch Aufmerksamkeit steigern im Netz?

Das alles ist kein Ansatz für Big Data Analysen. Das bewegt sich im Bereich „Small Data“.

„Small Data“ fasst es als Begriff eigentlich ganz gut zusammen. Die meisten unserer Kunden brauchen keine allwissende Müllhalde, der man undifferenzierte Fragen stellt und sich dann über die Antwort wundert. Sie suchen Antworten auf genau diese kleinen Fragen.

Eigentlich reden wir gar nicht über echte Datenanalysen. Die meisten unserer Kunden haben auch keine verlässliche Datenbasis, die zu einer Analyse herangezogen werden kann. Oft ist es schon ein Problem, aus einer vorhandenen Warenwirtschaft die Daten so zu extrahieren, dass sich aus einer Preisveränderung zu einem bestimmten Zeitpunkt eine nachlaufende Veränderung der Abverkaufszahlen ablesen lässt. Und so etwas wäre die Basis einer Analyse, wenn dann noch die zum Zeitpunkt X bekannten Kennzahlen aus sozialen Netzwerken bekannt wären. Nur mit einem solchen Zusammenhang lassen sich aus der Verbreitung einer Information in sozialen Netzwerken und dem Abverkauf dann auch Zahlen generieren, die den Erfolg der Aktion messbar machen.

Wir reden noch lange über klassisches Monitoring.

Für die meisten Fragesteller geht es um klassisches Website- und Social Media Monitoring. Klick-Konversionen, Affiliate-Werbung AdWords, Absprungraten oder Reichweitengewinne durch Kampagnen gehen für die Unternehmen in unserem Kundensegment am Ziel vorbei. Die meisten sind noch lange nicht so weit.

Das ist natürlich keine allgemein gültige Einschätzung. Es gibt Firmen, die genau das schon machen. Aber es sind noch lange nicht so viele, das Big Data zum Renner wird.

Deutschland ist zu klein für Big Data

Neulich habe ich so eine Zahl aufgeschnappt, die ich bislang leider nicht verifizieren konnte. Irgendwo wurde behauptet, dass rund 93% aller Unternehmen in Deutschland unter 12 Mitarbeitern haben. Wenn diese Zahl wirklich stimmt, kann man davon ausgehen, dass Big Data nur für eine ganz geringe Zahl von Unternehmen Sinn macht.

Denn wer von den 12 Mitarbeitern soll sich denn die Fragen ausdenken, die beantwortet werden sollen? Wer davon soll all die Datenpools ausfindig machen und sie so zusammenstellen, dass Daten daraus abgeleitet werden können?

Selbst das interne Controlling arbeitet in solchen Größenordnungen ja eher noch Excel-basiert. Kaum jemand leistet sich eine Datenbank basierte Auswertung, die auf Knopfdruck alle Unternehmenskennziffern ausspuckt.

Und ein solches System soll nun in die Cloud wandern und Big Data auswerten?

Also bleiben wir doch erst einmal am Boden und nutzen „Small Data“ bevor wir mit Big Data loslegen.

 

Veröffentlicht am

Big Data ist DataMining 2.0

Big DataBig Data scheint das Schlagwort des Jahres 2013 zu werden.

Alles redet über den Begriff, aber so ganz klar ist die Definition noch gar nicht. Was steckt hinter dem Begriff, wohin wird es gehen?

Viele Fragen stehen im Raum, die meisten Antworten wird die Zeit bringen.


Nähern wir uns dem Thema Big Data doch ein wenig an.

Big Data ist eigentlich die konsequente Fortführung EDV-gestützter Auswertungen für betriebswirtschaftliche Zwecke. Der Begriff „Business Intelligence“ ist der klassische Begriff, wenn es um diese Auswertungen im direkten innerbetrieblichen Umfeld geht. Hier wird schon seit langem das verfügbare Zahlenmaterial umgegraben und visualisiert, um unternehmerische Entscheidungen zu treffen.

Immer komplexere Simulationen durch eigens erstellte Datenbanksysteme ermöglichen es über „Was-wäre-wenn“-Spiele zu brauchbaren Vorhersagen zu kommen. Hierzu werden die Rohdaten des Betriebs über Schnittstellen so umgeformt, dass sie ein „Data Warehouse“ bilden. In diesem „Datenkaufhaus“ kann man dann in Ruhe herumstöbern.

Big Data geht noch einen Schritt weiter.

Im klassischen „Data Warehouse“ weiß man, was für Basiszahlen zur Verfügung stehen. Stückzahlen, Produktnummern, Vertriebsgebiete. Alles ist im Grunde vordefiniert und muss nur angepasst und in der richtigen Art und Weise abgefragt werden.

Bei „Big Data“ gibt es da mehrere Probleme. Einerseits handelt es sich um riesige Datenmengen, die gespeichert und verwaltet werden wollen.
Andererseits sind die Daten aber völlig unstrukturiert. Das ist nämlich der Trick dabei. Im Grunde werden nämlich sämtliche anfallende Rohdaten gesammelt und erst im Bedarfsfall aufbereitet.

Vorteil dabei: Man hat immer das Rohmaterial zur Verfügung, wenn sich Methoden ändern. Dieser Vorteil ist nicht zu unterschätzen. Denn je nach Aufgabenstellung muss man verschieden an die Daten herangehen. Und die Herangehensweisen können sich im Laufe der Zeit verändern. Und da wäre es doch schade, das Rohmaterial nicht mehr zu haben.

Wie sehen diese Daten eigentlich aus?

Das ist genau die Krux. Keiner weiß das genau. Oder doch. Wir wissen das alle. Es sind all die kleinen Einzeldaten, die wie im Wasserkreislauf vom Tropfen auf der Wiese, über Bäche und Flüsse zum Ozean werden. Es sind die kleinen Standort- oder Verbindungsdaten des Handy. Oder die Trackingdaten unseres Flottenmanagement im Fahrzeug. Undere Einkäufe. Unsere Suchabfragen bei Suchmaschinen. Alles fließt in den Pool. Sogar Sätze, die wir in sozialen Netzwerken schreiben. Auch diese Texte werden semantisch analysiert und bewertet.

Big Data ist faszinierend und universell.

„Big Data“ macht Angst. Denn wir werden ausgewertet. Aber werden wir das nicht schon jetzt? All diese Daten sind doch heute schon da und werden genutzt. Haben Sie sich noch nie gefragt, warum Ihnen nach einer thematischen Recherche per Google auf einmal über Amazon passende Buchtitel vorgeschlagen wurden?

Oder warum sich die Vorschlagslisten beim Buchkauf immer so seltsam ändern und offenbar genau zu ihren aktuellen Vorlieben passen? Hier passiert schon lange, was bald im großen Stil auf uns zukommt.

Das ist Big Data.

Veröffentlicht am

Bring Your Own Device

byod - bring your own deviceNutzerverhalten ändert sich. Das ist normal wenn sich Möglichkeiten ändern. Das ist allerdings auch ein Risiko wenn Unternehmen sich darauf nicht vorbereiten.

Bring your Device (BYOD) wird heiß diskutiert und oft eher nur als Risiko gesehen. Es bringt aber auch klare Vorteile.

 

Warum also eigentlich nicht?

 

Immer mehr Nutzer haben Smartphones oder private Laptops, die momentan als Risiko für Unternehmensnetzwerke gesehen werden.

Natürlich geht von diesen Geräten ein bestimmtes Risiko aus. Aber sie bringen ganz sicher auch einen Nutzen. Der Versuch einer sachlichen Näherung.

Menschen sind vernetzt. Mit Menschen aus dem beruflichen Umfeld. Oder mit Menschen, die gemeinsame Interessen haben. Wie viele Maschinenbauer sind z.B. begeisterte Schrauber oder RC-Modellbauer und sind gewohnt in dem Bereich zu improvisieren und nach Lösungen zu suchen? Wie viele Elektrotechniker basteln privat an Mikrocontrollersteuerungen für die Hausautomation?

Warum nicht auch als Unternehmen von dieser Tatsache profitieren? Das ist doch auch gar nicht so ungewöhnlich in der analogen Welt. Man hört von Freunden und Bekannten von Seminaren oder Fortbildungen, erhält interessante Denkanstöße. Alles Gelernte wird auch im Beruf indirekt genutzt.

Und heute passiert diese Vernetzung eben über Smartphones, Tablets und soziale Medien.

Die Vernetzung ist schneller, breiter und oft auch inhaltlich tiefer als früher. Wir leben in einer Informationsgesellschaft.

Und Informationen laufen ganz oft auf diesen privaten Geräten zusammen. In einer der persönlichen Arbeitsweise des Mitarbeiters entsprechenden Form. Auf einem Betriebssystem, das der Anwender mag. Mit dem er sich auskennt und souverän umgeht.

Warum muss ein Mitarbeiter im Betrieb auf seine aus dem privaten Umfeld gewohnten Arbeitsumgebung verzichten? Nur weil es die interne Unternehmensrichtlinie vorsieht?

Nehmen wir den Arbeitsplatzrechner doch einmal unter dem Gesichtspunkt Mitarbeitermotivation unter die Lupe. Mit dem „Nebenaspekt“ Sicherheit.

Von IT-Verantwortliche hört man oft das Killerargument: „Das können wir nicht unterstützen.

Mag sein. Aber muss man das? Kann der User das oft nicht sogar besser selbst? Warum nicht ein wenig mehr dem Anwender vertrauen und Verantwortung an den User weitergeben? Man erhält im Gegenzug einen dem Equipment positiv gegenüberstehenden Mitarbeiter. Der sich mit Sicherheit um „sein Eigentum“ besser kümmert als wenn er das Gerät einfach in der IT pflegen lassen muss.

Auch das ist ein Argument: Der Mitarbeiter sorgt mit Sicherheit für besseren Datenschutz, wenn auch die eigenen Daten betroffen sind, wenn ein Virus zuschlägt.

Oder ein anderer Ansatz: Alarmketten in der IT. Welcher IT-Mitarbeiter kriegt wirklich immer alle aktuellen Sicherheitswarnungen mit? Hand auf’s Herz…. Mir geht durchaus auch mal was durch. Und dann bin ich dankbar für Informationen über Facebook, Twitter oder RSS-Streams.

Warum also nicht über den Twitter-Account eines Mitarbeiters von aktuell genutzten Sicherheitslücken erfahren? Ich fand sowohl die Warnung über offene WLAN-Router der Telekom, als auch die Warnung vor einer als Telekom-Rechnung getarnten PDF-Datei absolut hilfreich und wusste ganz sicher sehr früh davon. Und konnte das weitergeben.

Man kann als IT-Verantwortlich also durchaus auch von dieser Vernetzung profitieren!

Lieber vor einer pdf-Datei mit Schadcode warnen, als hinterher im ganzen Unternehmen einen Virenscan mit Beseitigung fahren zu müssen. Also kann man „Bring your own device“ auch für proaktives Handeln nutzen.

Was her muss, sind Regeln und Richtlinien, wie mit den Devices umzugehen ist.

Das fängt im Bereich Infrastruktur damit an, dass Port-Security als Thema aktiv angegangen wird. Jeder Mitarbeiter darf nur wirklich sein freigegebenes Gerät ins Netzwerk einbringen. Clientzertifikate, 802.1x als Thema. Aufklären, warum das so sein muss.

Oder für mobile Devices wie Smartphones einen eigenen WLAN-Bereich aufziehen? Der Mitarbeiter ist froh, wenn seine Datentarife nicht über die Drosselungsgrenze gehen.

Solange die Arbeit nicht darunter leidet, ist eigentlich kein Argument zu sehen was dagegen spricht. Im Gegenteil. Im Alltag gibt es immer wieder Lücken, wo einfach nichts zu tun ist. Warum also nicht dem Mitarbeiter zugestehen, dass er stattdessen seinen Twitter-Stream liest? In Zeiten wo viel Arbeit anfällt, hat man als Unternehmer dafür einen hoch motivierten, sich im Unternehmen wohlfühlenden Mitarbeiter.

Das nutzt der Unternehmenskultur ganz sicher.

Nachdenken lohnt sich also.

Veröffentlicht am

Ein Handy auf Reisen

Die Vorratsdatenspeicherung und was allein mit den beim Handynetzbetreiber gespeicherten Daten möglich ist:

http://www.zeit.de/datenschutz/malte-spitz-vorratsdaten

Das muss man eigentlich nicht weiter kommentieren. Was man daraus so alles in Kombination mit Daten aus sozialen Netzwerken machen kann mag jeder einmal selber überlegen.

Und das die Daten ohne Rechtsgrundlage genutzt werden hat Dresden klar bewiesen. Ein Beitrag des Magazins Fakt:

http://www.youtube.com/watch?v=DXIBOjMg6l0

Im Grunde kann aus diesem Beispiel nur eines ableiten: Öfter mal das Handy ausmachen. Oder in Keksdosen legen wie in so manchem Unternehmen, Evonik wird schon wissen warum man das macht. Quelle: Spiegel Online

 

Veröffentlicht am

Google überarbeitet Suche

Google SucheOffenbar richtet Google seine Suchmaschine wieder ein wenig anders aus.

Laut Wall Street Journal beabsichtigt Google nicht mehr nur Suchergebnisse zu präsentieren, sondern direkt aus den vorhandenen Suchergebnissen konkrete Inhalte zu generieren.

Google wird versuchen, durch semantische Analysen von gefundenen Webseiten, Antworten zu liefern. Antreibende Kraft ist offenbar das Problem hinter „we cross our fingers and hope there’s a Web page out there with the answer“.

Man will dem Suchenden also diese Unsicherheit abnehmen und Ergebnisse liefern. Eigentlich ein Schritt in Richtung einer dynamischen Enzyklopädie.

Ich finde das Vorhaben zweischneidig. Auf der einen Seite bringt es schneller Zugang zur gesuchen Information, das macht es in vielen Fällen schneller und bequemer. Die Nutzer werden vermutlich diese schnelle Aufbereitung mögen.

Als größten Nachteil sehe ich, dass es zu einer „virtuellen Wahrheit“ führt. Quellenrecherche wird noch weniger in der breiten Masse. Man wird sich auf die von Google semantisch ermittelte Wahrheit verlassen und diese als gegeben hinnehmen. Möglicherweise wird es so dazu kommen, dass Behauptungen als Fakten wahrgenommen werden. Und was passiert bei Antworten aus anderen Sprachen? Wird dann automatisch Googles Übersetzer einspringen?
Bei Wikipedia wird das durch reale Gehirne überprüft und kenntlich gemacht. Wie wird das bei Google sein?

Nebenbei wird es für die Betreiber von Websites sehr nachteilig sein. Die eigene Website wird nur noch als Ausriss vom Zielpublikum wahrgenommen. Es bedeutet weniger Traffic auf der Seite und damit auch weniger Wahrnehmung für den Anbieter insgesamt.

Veröffentlicht am

Schon wieder Gewitter in der Cloud

CloudUnd wieder hat es Probleme bei einem großen Cloud-Anbieter gegeben: In einem Rechenzentrum in Irland ist es nach Angaben der Betreiber durch einen Blitzeinschlag zu einem größeren Stromausfall gekommen. (Quelle: heise Online)

Dies ist der zweite massive Ausfall eines solchen Cloud-Rechenzentrums. Und auch diesmal dauert es bis zur Wiederinbetriebnahme der Dienste mehr als einen Tag. Ein Tag, in dem die dort gelagerten Daten nicht abrufbar waren. Die darauf aufsetzenden Shops waren nicht verfügbar.

Jetzt beginnt für alle Kunden, die auf diese Dienste aufsetzen auch noch die große Kontrolle. Sind die Daten noch konsistent? Muss ein Backup eingespielt werden? Welchen Stand haben vorhandene Daten? Welche Aufträge sind schon erfasst oder abgewickelt?

Die Inbetriebnahme nach dem Notfall wird länger dauern als der Ausfall selbst. Denn rund 36 Stunden nach dem Ausfall scheint nocht nicht klar zu sein, welche Volumes möglicherweise inkonsistent sind.

Geworben wird übrigens mit einer Verfügbarkeitsquote von 99,95%, Zum Vergleich: Nach dem BSI ist eine Installation „höchstverfügbar“ bei 99,999%, das enspricht einer Ausfallzeit von rund 6 Minuten pro Jahr. Ab neun Stunden Ausfall (99,0%) sind wir bereits in der Klassifizierung „Normal verfügbar“.

Und das bezieht sich nur auf die Zeit bis Hard- und Software im Prinzip wieder laufen. Es gibt aber eben noch den Nebenschauplatz Datenkontrolle. Der Betreiber des Rechenzentrums stellt nämlich den Kunden offenbar nur Recovery-Images der Volumes zur Verfügung. Die Prüfung und Kontrolle der Daten obliegt dem Kunden selbst. Kann der Kunde das überhaupt? Oder sind die personellen und strukturellen Resourcen nicht gerade erst heruntergefahren worden, da ja jetzt alles in der Cloud liegt?

Man darf also durchaus skeptisch sein, wenn man Cloud-Dienste nutzt. Gerade im Bereich Mittelstand, wo gerade massiv für Cloud-Dienste geworben wird, sollte man sich klar einige Fragen zum Risiko/Nutzen-Verhältnis stellen. Denn wenn die großen Kunden in den Rechenzentren schon derartige Probleme haben, wie wird es dann dem kleinen Mittelstandskunden ergehen? Eine Woche kein Datenzugriff, weil erst einmal die großen wieder produktiv gehen müssen? Zwei bis drei Wochen um Daten und Aufträge zu prüfen, um Doubletten zu vermeiden? Das kann für einen kleineren Betrieb ein existentielles Risiko darstellen.

Das Fazit kann aus unserer Sicht nur lauten: Cloud? Ja gerne. Aber bitte eine eigene, private Cloud. Mit einem hinterfragbaren Konzept, aufgesetzt mit standardisierter Hard- und Software. Und mit einem externen Berater, der dem Kunden mit Rat und Tat zur Seite steht.

Sprechen Sie uns an, wir entwickeln Ihr Konzept.