Veröffentlicht am

Bildung statt Industrie 4.0

Bildung statt Iindurstrie 4.0Wie soll Industrie 4.0 funktionieren, wenn das Bildungssystem gerade erst ins Web 2.0 aufbricht?

Wie war das mit dieser „Medienkompetenz“? Brauchen wir dringend?

Nö. Brauchen wir nicht. Das kommt viel zu früh für so manchen Verantwortlichen im Bildungssystem.

Warum ich so polemisiere?

Ganz einfach. Ich habe gestern von der Schule meiner Tochter einen Link zu einer Software der Bezirksregierung für die Kursbelegung bis zum Abitur bekommen. Diese Software soll es Schülern und Schülerinnen im „Computerraum“ ermöglichen, die Fachbelegung interaktiv vorzunehmen.

Erster Eindruck: Nicht mal Java oder Browser basiert? Nur ein Windows-Installer? Toll. Und wie immer der lapidare Hinweis, dass Nutzer anderer Systeme ja einen „Emulator“ nutzen könnten, damit das läuft.

Sowas finde ich richtig neben der Spur.

Bloß weil die Schulverwaltung mangels Überblick nicht in der Lage ist, sich vom Microsoft-Diktat frei zu machen, soll ich mir also für €79,- einen Emulator kaufen und dazu noch für ca. €120,- ein Windows-Betriebssystem? Seit über einer Dekade hat es immer noch keiner geschafft, über den Tellerrand zu gucken?

Ich lasse als Entschuldigungsversuch gelten, dass die Software eigentlich nicht für ein fachlich versiertes Zielpublikum, sondern eigentlich nur für den Gebrauch in der Schule gedacht war. (Was es beim zweiten Lesen aber eigentlich noch schlimmer macht, denn es lässt erahnen, in welchem Jammertal sich die IT und das Publikum in der Schule befindet.)

Das Programm selbst ist derart schlicht, das hätte eine einigermaßen auf dem aktuellen Stand befindliche Informatik-AG mit Excel in 4 Wochen „programmiert“. Von einer Java-Umsetzung will ich mal nicht reden. Aber auch das hätte vermutlich in einem Schuljahr funktioniert.

Mein Fazit: Vergesst Industrie 4.0, die Schulverwaltung bricht erst ins Web 2.0 auf.

Aber das ist noch nicht das Ende der Geschichte.

Sehr speziell war das Statement der Bezirksregierung.

Ich habe dort nämlich per Mail nachgefragt, warum die Software wieder einmal nur für Windows ist. Das sie offenbar für Win95-98 konzipiert wurde, konnte man einem ReadMe entnehmen, wonach eine bestimmte Datei ab Windows nicht mehr installiert werden muss. Was lag also näher als zu fragen, warum das nicht auch anders und aktueller geht.

Die Antwort: Das Programm wurde vor 13 Jahren erstmalig in Auftrag gegeben. Eine mögliche Neu- oder Weiterentwicklung wird nur im Konjunktiv erwähnt.
Das ist ein Statement. Allerdings eins, das mich mit den Augen rollen lässt.

Die aktuelle Version trägt die Versionsnummer 2 und stammt aus dem Jahr 2014. 12 Jahre für ein Versionsupdate? Woanders macht man solche Sprünge in maximal 3 Jahren, damit die Software überhaupt noch auf aktuellen Systemen läuft. Wer einen solchen Sprung nach 12 Jahren macht, muss das vermutlich gezwungenermaßen, damit das Ding überhaupt noch startet.

Fazit 2: Man kann gar nicht so schnell gucken, wie der Zug voller Ideen und Visionen an unserem Bildungssystem vorbei rast.

Das kommt mir vor wie bei Radargeräten. Man muss nur schnell genug sein, dann kriegen die auch nichts mehr mit. Was jetzt aber nur bedingt ein Grund zum Feiern ist. (In beiden Fällen!)

Da bleibt mir der Bezirksregierung nur Eines zu wünschen übrig: Viel Spaß wenn ihr daran geht das Web 2.0 zu entdecken.

Aber mal ehrlich: Könnt ihr so Spielchen nicht bei euch im Amt machen? Mit eurem Tempo verbaut ihr den Kids da draußen jede Zukunftschance.

Veröffentlicht am

Das Ende naht

Social Media am FrühstückstischUnd zwar das Ende von Facebook

Eine gewagte These, dessen bin ich mir bewusst. Und ich gebe es zu. Es ist nur ein Trick, um auf diesen Beitrag aufmerksam zu machen. Eigentlich geht es nicht um das nahende Ende von Facebook, sondern um sich abzeichnende Strömungen in Social Media im allgemeinen.

Mir ist ein interessanter und völlig subjektiver Artikel aufgefallen in dem ein US-Jugendlicher seine persönliche Social Media Nutzung bewertet.

Es geht dort nicht wirklich nur um Facebook, sondern eher um die Darlegung seiner persönlichen Sicht auf verschiedene Social Media Kanäle.

Diese Sicht finde ich ganz interessant, da sie Erklärungsansätze liefern könnte, warum bestimmte Social Media Kanäle nach dem Hype der vergangenen 4 Jahre irgendwie ins Stocken geraten könnten.

Ich habe einfach mal meine Gedanken zu dem aufgeschrieben, was ich dort in  und vor allem zwischen den Zeilen lese.

Bevor ich zu konkreten Dingen komme, für mich der eigentliche Kern des Artikels: Bei jeglicher Nutzung eines sozialen Netzwerks scheint für den Autor der von der Plattform ausgehende soziale Druck ein entscheidendes Kriterium zu sein. Offenbar ist das aus seiner subjektiven Wahrnehmung auch nicht nur bei ihm so, sondern bei vielen anderen Personen seines Umfelds.

Wenn sich das in breiten Masse manifestiert, könnte es Facebook und auch einigen anderen Plattformen ein lawinenartiges Ende bereiten. Eine erste Folge könnte auch jetzt schon sein, dass die auf vielen Netzwerken eine gewisse Ermüdung bei der aktiven Nutzung zu sehen ist. Zwar gehen die Anmeldezahlen nicht zurück, aber das könnte wirklich daran liegen, dass einzelne Netzwerke mit Teilfunktionen noch interessant sind.

Im Artikel werden zum Beispiel die einfache Nutzbarkeit von Gruppen und das Chats von Facebook angeführt. Hier könnte Google+ also durchaus mit seinen „Google for Education“ durchaus den richtigen Riecher beweisen.

Die Einschätzung anderer Social Media Netzwerke lassen interessante Interpretationen zu.

Der Absatz zu Instagram zum Beispiel zeigt für mich schön, wie wenig reflektiert man (oder besser der Autor des Artikels) die Medien nutzt:

„Everything about the application makes it less commercialized and more focused on the content…“

Das zeigt mir, dass der Megadeal „Facebook kauft Instagram für eine Milliarde“ für diese Generation irgendwie im Nachrichtenrauschen untergegangen zu sein scheint. Natürlich lassen sich die wunderbar mit Tags versehenen Bilder von Instagram nutzen um Werbung anzupassen.
Es muss ja lediglich im Hintergrund eine Verbindung der beiden Accounts passieren. Ob man dazu die jetzt aktuell aufgetauchten Supercookies von Verizon und Turn nutzen könnte?

Auch der Ansatz Twitter als Nachrichtenkanal zu verstehen, scheint völlig am Autor vorbei zu gehen. Welche Quellen nutzen die Kids? Für den Mainstream aufbereitete TV-News? Oder sind Nachrichten wirklich nur noch eine Show?

Das zeigt sich im zweiten Teil des Artikels. Youtube scheint der Kanal der Wahl zu werden. Also „Don’t read it, watch it…“ als Ansatz? Gerade nachdem bei Youtube klar wurde wie die Marketingwelt hinter der Youtuber-Szene so arbeitet, halte ich das unter medienkritischen Aspekten für ein sehr gewagtes Unterfangen.

Auf jeden Fall wird die Chance ein solches Medium als direkte und unverfälschte Nachrichtenquelle zu nutzen, völlig ignoriert. Damit dürfte auch klar sein, wie die vor einiger Zeit aufgekommene Diskussion um einen „Algorithmus“ im Twitterstream ausgehen dürfte.

Der Absatz zu Snapchat ist für mich ein sehr spannender. Offenbar wird ein latent vorhandenes Misstrauen bei der Sicherheit der Daten von einem nicht vorhandenen sozialen Druck absolut überspielt.

Datensicherheit ist egal wenn der soziale Druck nicht da ist.

Ein für mich völlig neuer Ansatz. Diese beiden Parameter hätte ich nie in eine Relation gesetzt.

Und noch spannender: Tumblr, Yik Yak (das ich noch gar nicht wahrgenommen habe) und Medium scheinen die aussichtsreichsten Kandidaten für fortbestehende Social Media Plattformen zu sein.

Der Grund wird klar benannt: Die Suche nach Privatsphäre. Hier kann ich mich ausdrücken und Freunden mitteilen was ich denke und fühle, ohne dass gleich die halbe Welt mitlesen kann, weil die Verbindung zu mir als Person nicht zwingend da ist.

Sozialer Druck und Freiräume als Bestandskriterium?

Für mich klingt das nachvollziehbar, denn es sind Gründe, die einfach in der Natur des Menschen begründet sind.

Aber gehen wir zum Schluss weg von Social Media Kanälen und folgen dem Artikel, der auch von den Social Networks weg schwenkt und sich einem ganz anderen Kanal widmet: Den Apps und deren Nutzen aus subjektiver Sicht. Damit sind wir auch direkt bei einem ganz anderen, in Marketingkreisen stark diskutierten Bereich.

Social Media und Marketing vs. Wir bauen uns eine App und verkaufen gleich viel mehr.

Auch hierzu finden sich für einige Aussagen. Marketing in Plattformen wie Facebook scheint sinnlos zu werden, da die Rezipienten einen wirksamen Wahrnehmungsfilter entwickelt haben.

„It is very easy to just see the new information posted on the group without having to sift through tons of posts and advertising you don’t really care about.“

Wenn sich diese Erkenntnis bei Werbetreibenden verbreitet, fehlt den Netzwerken ganz schnell die Einnahmequelle. Dann werden die Gelder für „Sponsored Posts“ ganz schnell woanders investiert. Zum Beispiel in eigene Apps. Ist das der neue Trend?

Marketing über Apps funktioniert nur wenn sie dem User einen sofort wahrnehmbaren Nutzen bringen.

Der Ansatz „Wir machen mal eine App, die laden die Leute sich runter und dann schicken wir den Produktnews“ ist definitiv so effektiv wie „Wir machen was mit Fähnchen“.

Eine App landet heute nur noch auf dem Smartphone wenn sie direkt einen Vorteil bringt. Also einen Kaffee, einen Song oder einen Burger.

Damit wird auch schnell klar für wen sich so etwas lohnt: Für grosse Ketten und Marken. Im Mittelstand ist aber spätestens Schluss. Denn dort wird sich eine App-Entwicklung kaum lohnen, wenn der Verbreitung immer aktiv über Belohnungen passieren muss. Außerdem muss ein eingespieltes Social Media Team her, die über die App auch News und Interaktion bringt. Da ist für kleine Unternehmen schnell die Leistbarkeitsgrenze erreicht.

Was ist das Fazit?

Ein klares Fazit zu ziehen ist kaum möglich, da es sich lediglich um eine subjektive Einzelsicht handelt. Es werden sich also abgestufte Varianten und auch völlig andere Erlebenswelten finden lassen. Der Artikel liefert aus meiner Sicht durchaus Hinweise und Erklärungsansätze, die man in ganz persönliche Marketing und Social Media Aktivitäten einbeziehen sollte.

 

 

Veröffentlicht am

Ein Ruhri in Köln

Ein Ausflug nach KölnIch mache dann mal einen Ausflug…
Gaaaanz weit weg.
Nach Köln.

Nein. Nicht um den Dom zu fotografieren, auch wenn das eine gute Idee wäre.
Die Stadt Köln ist sehr umtriebig wenn es um das Thema Internet geht. Da ist auf der einen Seite das „LernLab -Lernen und Lehren„, bei dem es um den Einsatz von neuen Medien in der Schule geht.

Diese Veranstaltung ist insbesondere deswegen interessant, weil ich meine Antennen einmal auf die Ansätze von LehrerInnen ausrichten möchte, um zu verstehen, wo es drückt. Meine Wahrnehmung von Internet und Schule ist momentan leider sehr von Restriktionen und Sanktionen geprägt. Dabei wäre es doch viel pfiffiger einmal die Innovation in den Vordergrund zu spielen und zu begeistern. Aber das ist nur die eine Veranstaltung.

Dann ist da noch etwas zum Thema „Freie Bildungmaterialien“.

Die Stadt Köln setzt beim „OER Köln-Camp“ am Joseph-DuMont-Berufskolleg den Fokus auf Lizenzrecht und den Qualitätsanspruch an selbst erstellte oder öffentlich verfügbare Bildungsmaterialien.

Es wird aus meiner Sicht auch dringend Zeit, dem Dilemma von Copyrights im Bildungswesen, zu entgehen. Es kann nicht angehen, dass für Schulen nur Verlagsangebote existent zu sein scheinen. Es gibt so viel spannendes Material, dass man zu aktuellen Themen einsetzen kann und damit so nebenbei auch die Medienkompetenz bei Kindern und Lehrern schult.

Was mich dabei insbesondere interessiert: Wie die Stadt Köln als Bildungsträger mit den Themen umgeht. Hier im Revier erlebt man leider viel zu oft, dass Bildung aus Sicht der Kommunen immer mehr zu einer lästigen Pflichtaufgabe wird. Ich bin gespannt und freue mich auf neue Impulse.

Vielen Dank an dieser Stelle an Stephan Kramer vom Amt für Informationsverarbeitung der Stadt Köln, der mich zu dieser Veranstaltung eingeladen hat!

Veröffentlicht am

2014 – Zeit für Veränderung

ÜberwachungSeit Mitte 2013 dürfte allen klar geworden sein, wie wenig vertraulich Kommunikation heute noch ist.

Noch immer gibt es jede Woche neue Nachrichten welche Daten und Dienste von den Geheimdiensten abgefangen und ausgewertet werden.

Langsam entwickelt sich auch eine breitere Diskussion rund um die Thematik. Offenbar ist die Phase überwunden, wo das Kaninchen in Schreckstarre vor der Schlange verharrt.

Private Nutzer reagieren eher mit anwachsender Skepsis auf diese Nachrichten. Viele „Soziale Netzwerke“ verzeichnen eine gewisse Müdigkeit bei den Nutzern. Ob sich diese Müdigkeit je wieder legen wird ist fraglich. Nicht ohne Grund kämpfen die großen der Branche in den USA um mehr Rechte Transparenz zu schaffen. Wenn die früher freiwillig in die Auslage springende „Ware“ nicht mehr am Netzwerk teilnimmt, bricht das Geschäftsmodell weg.

Professionelle Nutzer reagieren anders. Sie nutzen die Dienste resigniert weiter. Denn es gibt ja scheinbar keine Alternative zu den lieb gewonnen Tools Marketing und dezentrale Organisation. Es wurde ja gerade erst mit viel Geld und Aufwand dafür gesorgt, dass bislang interne Prozesse und Strukturen als Cloud-Service abgebildet wurden. Da kann man doch nicht einfach zurück.

Das Risiko einfach auszublenden ist eine Möglichkeit damit umzugehen. Aus Sicht des IT-Experten aber die Falsche. Die bessere Möglichkeit ist nachzufragen, ob es wirklich keine Alternativen gibt.


Wir als IT-Berater müssen uns der Diskussion stellen und Alternativen aufzeigen, die für mehr Vertraulichkeit in der Kommunikation in Unternehmen sorgen können.

Es muss in dieser Zeit klar darum gehen, Daten als ein wertvolles Gut zu betrachten mit dem man sorgfältig umgeht.

Aus aktueller Sicht rund um das Thema Überwachung gibt es kaum noch Argumente, die klar für Dienste in der Cloud sprechen. Mittlerweile scheint sich sogar zu bewahrheiten, dass ausgespähte Daten aus Cloud-Rechenzentren auch für einen wirtschaftlichen Zweck ausgewertet werden.

Was wirklich schade ist, denn einige Ansätze rund um die Cloud sind wirklich sinnvoll und gut.

Vielleicht ist es aber auch möglich, an bestimmten Punkten nicht auf die überall beworbenen Dienste von US-amerikanischen IT Multis zuzugreifen, sondern die Idee im kleinen für den eigenen Betrieb umzusetzen.

Konkrete Ansätze, die umgesetzt werden können:

  • Aufbau einer firmeneigenen Crypto-Key Infrastruktur
  • Absicherung von E-Mail durch komplett verschlüsselte Abwicklung
  • Kommunikation per VPN für Laptop und Smartphone
  • Zentraler Webproxy im Unternehmen
  • Firmeninternes Cloud-System zum Abgleich von Terminen, Kontakten und Dokumenten

In Zukunft finden Sie hier auf der Website in loser Folge neben der Reihe zum Aufbau einer eigenen Cloud auch Artikel, die sich mit Ideen und Lösungen beschäftigen, die weg von Mainstream gehen.

Es wird Zeit gegen den Strom zu schwimmen. Denn nur tote Fische schwimmen mit dem Strom.

Veröffentlicht am

Die BWL wird zum Risiko

Ein Artikel wie dieser gibt schon schwer zu denken.

Dort wird beschrieben, dass ein Hersteller von Netzwerkkomponenten offenbar versehentlich virenversuchte Speicherkarten in seinen Netzwerk-Switches eingesetzt hat.

Das komplette  Security-Bulletin des Herstellers findet sich hier.


Nicht an den Kopf fassen, sondern für Themen sensibiliserenDer Sachverhalt mag hier für genau einen Hersteller gelten. So ganz einmalig wird der Vorgang aber nicht sein. Die meisten Hersteller setzen in der Produktion auch IT-Systeme ein, die mit gewissen Risiken behaftet sind. Insofern halte ich den Vorgang an sich für nicht so kritisch, sondern eher für symptomatisch für die ganze IT-Branche.

Es stimmt mich aber nachdenklich, dass offenbar zentrale Netzwerkkomponenten ungeprüft verpackt und ausgeliefert werden. Dieser Fakt ist vermutlich dem herrschenden Preiskrieg und der spitzen Feder der meist rein BWL-lastigen Controller in Unternehmen zu verdanken. Es wird einfach gespart, weil der Kunde es ja „günstig“ haben will.

Auf den Kern reduziert, ist also eigentlich nicht der Hersteller der Hauptverantwortliche. Sondern der Kunde, er will die Ware ja „günstig“? Im Grunde kriegt der Kunde ja immer vorher vom Hersteller das auslösende Signal: Wir haben tolle neue Hardware! Und das zu einem ganz tollen, kleinen Preis.

Muss das so sein? Offenbar ja, denn der Hersteller muss seinen Aktionären Wachstum generieren.

Also wird auf die Rendite geschielt und verkauft, was eben geht. Und da der Vertrieb ja möglichst schnell die neuen Geräte verkaufen will, wird also nur das Gröbste geprüft.

Der Vertrieb will nicht warten, bis für die neuen Geräte alle internen Prozesse angepasst sind und die Firmware mehrfach in realen Szenarios geprüft ist. Oder man verlässt sich blind darauf, dass die internen Qualitätsmaßnahmen schon passen. Tun sie ja in 99% aller Fälle ja auch. Nur eben nicht immer.

Insgesamt gesehen ist der oben aufgeführte Einzelvorgang also nicht weiter erwähnenswert. Es ist schlichtweg ein Nebenschauplatz in der aktuellen IT-Welt.

Nähern wir uns doch mal sachlich. Da ist ein Virus ausgeliefert worden, der auf dem befallenen System nichts bewirkt.

Er verbreitet sich nur, wenn dieser die Flash-Card mit dem Systems des Netzwerkswitches für ein Update in den Rechner schiebt. Eigentlich auch ein minimales Risiko, da diese Update meist über TFTP oder Webbasierte Oberflächen passieren. Die Flash-Card wird also in 99,9% aller Fälle niemals den Netzwerkswitch verlassen.

Was mich deutlich aufhorchen lässt, ist die Tatsache, dass der Sachverhalt einem Jahr auffällt und dann aktiv kommuniziert wird. Das finde ich vom zeitlichen Ablauf eher negativ erwähnenswert, was mir aber positiv auffällt ist die Tatsache, des der Hersteller sich überhaupt äußert.

An dieser Stelle muss man nämlich vor dem Hersteller HP absolut den Hut ziehen. Er wagt es, den Sachverhalt offen zuzugeben und zu kommunizieren. Ein echtes Risiko in einer vom Share Holder-Value getriebenen Welt. Aber es zeugt von Verantwortung und Standing!

Also mehr Mut, mit solchen Pannen umzugehen und sie schnell und aktiv zu bearbeiten!

Es stellt sich nämlich wirklich die Frage, wie viele Netzwerkkomponenten noch in kritischen Infrastrukturen installiert sind und möglicherweise ebenfalls eine solch unerwünschte Fracht an Bord haben. Und zwar nicht nur bei HP. Andere Hersteller haben genau die gleichen Marktzwänge zu erdulden.

Überall wird von Qualitätsmanagement geredet, aber in der Endkontrolle der Fertigung scheint das noch nicht angekommen zu sein. Muss also jetzt der Kunde Neugeräte von Inbetriebnahme komplett zerlegen, um die Komponenten auf Herz- und Nieren zu prüfen?

Hier ist mehr Standing der Hersteller gefordert, die dem Kunden wieder klarmachen, dass vernünftige Endkontrolle Geld kostet, aber absolut sinnvoll ist. Und der Kunde muss das endlich wieder einsehen.

 

Gehen wir doch mal den jetzt eingeschlagen Argumentationspfad weiter.

Konkret nachgedacht, ist also nicht die Schadsoftware das Kernproblem in Unternehmen mit hoher IT-Durchsetzung. Das Kernproblem ist der IT-Einkäufer und die vorgesetzte Controlling-Abteilung. Beide achten fast immer nur auf den Anschaffungspreis, handeln aber oft gegen den (aus technischer Sicht sinnvollen) Wunsch ganzer IT-Abteilungen. So werden oft Update-Abonnements oder Hardware-Ersatz schlichtweg aus Kostengründen für unnötig erklärt.

Also ist der ganze Vorgang kein Problem der IT. sondern hat eher kaufmännische Ursachen.

 

Es bleibt nur ein Fazit: Die IT immer nur als Kostenstelle zu sehen und nicht als etwas, das dem ganzen Unternehmen dient, führt ins Abseits! Der Einkauf ist auch kein Kostenträger im klassischen Sinn. Er verringert möglicherweise die Kosten für den Materialeinsatz, aber das auch nur wenn man nicht die Mehrkosten bei Personal oder „After Sales Support“ mit einrechnet. Früher gab es zu Recht den Satz: Wer billig kauft, zahlt doppelt.

Das stimmt noch heute, fällt aber in einer gut angelegten Bilanz nicht mehr so auf.

Und es sei noch einmal gesagt: Kaufleute, hört auf die Techniker. Die wissen durchaus, wovon sie reden und warum sie bestimmte Dinge haben wollen. Rechnet bei „Total Cost of Ownership“ nicht nur Bankzinsen und Ersatzteile ein, sondern endlich auch einmal wieviel unnötigen Personalaufwand die Entscheidung über den Kaufpreis auslöst.

Wenn das Netzwerk das nächste Mal wieder nicht funktioniert, weil der Billig-Switch nur noch piept, ist genug Zeit dafür. Wie, das geht nicht? Ach so. Stimmt. Ohne den kaputten Switch kommt ihr nicht an Zahlen…

Veröffentlicht am

Impressumspflicht bestätigt

Das Landgericht Landshut hat ein Urteil gefällt, das weit reichende Konsequenzen für Social Media Nutzung in Unternehmen haben dürfte.

Hier das Urteil

Im Grunde weitet das Urteil die Impressumspflicht auch auf nicht klar gewerblich betriebene Präsenzen aus. Das ist nicht einmal so neu. Im Zweifel hat jeder, der seine Website über Werbebanner gegenfinanziert, das für sich schon so eingerichtet.

Eine neue Qualität kommt aber im Bereich der neuen Medien wie Facebook und Twitter hinein. Auch hier wird ganz klar ein sofort erreichbares Impressum gefordert. Es wird sogar verneint, dass der Klick auf den Bereich Info mit einem dann aufgeführten Impressumslink ausreicht.

Es bleibt bei Facebook also nur, das eigentlich für Slogans genutzte Infofeld mit einem direkten Link zu versehen. Dieses Textfeld ist in jedem Bereich und immer sofort sichtbar und anklickbar.

Ebenso bei Twitter: Hier muss in den beschreibenden Text des Profils der Link auf Impressum hinein.

Glücklicherweise sind beide so verfügbar gemachten Links dann auch klickbar! Es ist aber empfehlenswert, dass regelmäßig zu prüfen und den ganzen Auftritt von einem geeigneten Anwalt auf Rechtssicherheit prüfen zu lassen.