Qualität eines gegeben Passworts prüfen

Als Entwickler steht man in der Pflicht die Logins von Benutzer der Software abzusichern. Ein wesentlicher Baustein ist das Forcieren einer Kennwortrichtlinie, um die Qualität eines Passworts sicherzustellen.
Das folgende C#-Snippet bietet eine rudimentäre, für die meisten Anwendungen ausreichende Bewertung des Kennworts. Im Snippet verwende ich ein enum, um einen Passwort Score zu repräsentieren:

  • Blank – 0 Punkte
  • VeryWeak – 1 Punkt
  • Weak – 2 Punkte
  • Medium – 3 Punkte
  • Strong – 4 Punkte
  • VeryStrong – 5 Punkte

Bei der Prüfung des Passworts verwende ich folgendes Regelwerk:

Das Passwort ist eine Zeichenkette mit 0 Zeichen
Es wird der enum-Wert von Blank, also 0 Punkte zurückgegeben.
Das Passwort umfasst weniger als 4 Zeichen
Das Passwort ist als sehr schwach einzustufen, demnach wird der enum-Wert VeryWeak zurückgegeben. Selbst wenn das Passwort die nachfolgenden Kriterien hinsichtlich Sonderzeichen, Zahlen oder gemischter Groß- und Kleinschreibung erfüllen würde, wäre es aufgrund seiner Länge als unsicher einzustufen.
Das Passwort umfasst mindestens 8 Zeichen
Das Scoring wird um einen Punkt erhöht und die Prüfung fortgesetzt.
Das Passwort umfasst mindestens 12 Zeichen
Das Scoring wird um einen Punkt erhöht und die Prüfung fortgesetzt. Da hier bereits die Bediendung „mindestens 8 Zeichen“ erfüllt ist, beträgt das Scoring2 und das Passwort wäre als schwach einzustufen.
Das Passwort enthält mindestens eine Ziffer
Ein weiterer Punkt wird hinzuaddiert und die Prüfung fortgesetzt.
Das Passwort enthält sowohl Klein, als auch Großbuchstaben
Das Scoring wird um einen Punkt erhöht und die Prüfung fortgesetzt.
Das Passwort enthält mindestens 1 Sonderzeichen
Das Scoring wird in dieser letzten Prüfung um eins erhöht. Das Scoring kann nun maximal 5 Punkte betragen. Das Passwort stufe ich somit als sehr stark ein.

Ich möchte betonen, dass die Bewertung nur als grobe Richtlinie betrachtet werden kann. Das Passwort „rush2112“ wird von meinem Bewertungsschema als „medium“ eingestuft, ist jedoch in der von Symantec veröffentlichten Liste der 500 schlechtesten Passwörter enthalten und somit hochgradig unsicher.
Mögliche Ausbaustufen der Richtlinie bestünden darin solche Listen sowie generell Wörterbücher zu berücksichtigen.

Microsoft SQL-Server Verbindungsserver einrichten

In Unternehmen sind häufig Insellösungen anzutreffen, deren Datenhaltung auf verschiedenen Microsoft SQL-Servern erfolgt. Ein häufiges Beispiel hier ist ein Warenwirtschaftssystem und ein Webshop, die sich weder eine gemeinsame Datenbank noch einen gemeinsamen SQL-Server teilen.
Neben der Synchronisation der Daten ist vor allem die zusammenhänge Auswertung der Datenquellen im Controlling eine häufige Anforderung. Um Daten aus Datenbanken von verschiedenen Microsoft SQL-Servern zusammenhängend darzustellen und diese als Datenquelle zum Beispiel in Excel verwenden zu können, wäre die Implementierung eines Data-Warehouse zwar formell der richtige Ansatz, jedoch scheidet dieser in Hinblick auf die damit verbunden Kosten vor allem für kleinere Mittelständler oftmals aus. Ebenso wenn ad hoc Auswertungen gefragt
Also probate Lösung, um die Anforderung der gemeinsamen Auswertbarkeit zu erfüllen, kann ein Microsoft SQL-Verbindungsserver eingerichtet werden. Gehen Sie dazu wie folgt vor:

Expandieren Sie im SQL Server Management Studio im Objektexplorer den Knoten Serverobjekte. Rufen Sie am Unterknoten das Kontextmenü auf und klicken auf „Neuer Verbindungsserver…“.

Neuen Verbindungsserver anlegen
Neuen Verbindungsserver anlegen

Im nun folgenden Dialog geben Sie den Namen des Verbindungsservers ein, unter dem dieser im Netzwerk zu erreichen ist. Wählen Sie als Servertyp „SQL Server“ aus.

Auswahl des Verbindungsservers
Verbindungsserver auswählen

Wählen Sie nun rechts die Seite „Sicherheit“ aus. Hier können Sie entweder lokalen Anmeldungen Anmeldungen auf dem Verbindungsserver zu ordnen. Oder einen für alle Anmeldungen gültigen Sicherheitskontext angeben. Wie im nachfolgendem Screenshot zu erkennen, habe ich keine dedizierte Anmeldungszuordnung vorgenommen, sondern jede Anmeldung am lokalen Server mit dem sa-Sicherheitskontext verknüpft. In der Praxis sind hier selbstverständlich das vorliegende Berechtigungsmodell zu beachten, da sonst mit jedem Login ein uneingeschränkter Zugriff auf den Verbindungsserver möglich wäre.

Konfigurieren Sie die Berechtigungen, mit denen einzelne oder alle Anmeldungen auf den Verbindungsserver zugreifen
Konfigurieren Sie die Berechtigungen, mit denen einzelne oder alle Anmeldungen auf den Verbindungsserver zugreifen

iCloud Fotos: Sync extrem langsam

Die iCloud von Apple scheint meines Erachtens ein gutes Angebot zu sein, wenn man seine Fotos auf diversen mobilen Geräten wie iPad oder iPhone und seinem Mac synchron halten möchte. Es macht schon Spaß eine Fotosammlung jenseits der 200GB immer dabei zu haben, ohne diese große Datenmenge tatsächlich auf den Gerät vorrätig halten zu müssen. Über die Preise der iCloud lässt sich gewiss streiten, ich persönlich empfinde das Staffelmodell jedoch als fair. Die Preise für Dropbox sind vergleichbar, doch insbesondere die Integration von Fotos ist beim Apple-Pendant zur Dropbox meines Erachtens deutlich schlechter gelungen.

Meine seit den frühen 2000er-Jahren aufgebaute digitale Fotosammlung umfasst mittlerweile rund 220GB und der Upload erfolgt über kriechend langsame 500 kbit/s, so dass bei voller Bandbreite in aufgerundet 41 Tagen alle Fotos und Videos in die iCloud übertragen sein sollten. Gewiss wäre es vermessen zu glauben, die volle Bandbreite stünde stets zur Verfügung, so dass ich  pessimistisch 60 Tage zum Synchronisieren eingeplant hatte.

Zu meinem Bedauern musste ich nach 50 Tagen feststellen, das gerade einmal 59,8GB übertragen wurden; und dass, obwohl durch den Power Nap die Synchronisierung mit der iCloud trotz Energiesparmodus klappen sollte.Bildschirmfoto 2015-08-06 um 22.49.13

 

Leider bieten weder Foto App noch OS X Yosemite ein detailliertes Protokoll, welche Dateien wann übertragen wurden.  Doch mittels des Kommandozeilen-Programms opensnoop lässt sich verfolgen, welcher Prozess auf welche Dateien Zugriff nimmt. Durch einen einfachen grep-Filter auf den Prozess CloudSync kann ich mir einen Überblick verschaffen, welche Dateien derzeit übertragen werden.

sudo opensnoop | grep CloudSync

Bildschirmfoto 2015-08-06 um 22.54.04

Durch Umleitung in eine Protokolldatei mit Timestamp war es mit so möglich in etwa zu ermitteln, wie lange die Übertragung einer einzelnen Datei benötigt. Das Ergebnis ist ernüchternd: Im Power Nap Modus scheint OS X nur einen Bruchteil der Bandbreite zu nutzen, um die Fotos zu synchronisieren. Überdies legt der Sync-Prozess nach jeder Datei eine Pause von einen Minuten ein, bis er mit der nächsten Datei fortfährt.

Abhilfe lässt sich hier zum Beispiel durch Caffeine schaffen, um den Energiesparmodus zu übersteuern – doch von einer zufriedenstellenden Lösung ist der Workaround weit entfernt. Nicht nur, dass mein Mac viel zu viel Storm für eine eigentlich triviale Aufgabe benötigt, sondern die Fotos werden nicht signifikant schneller übertragen.

Die Synchronisierung mit Dropbox war zuvor hingegen in etwa innerhalb er errechneten Übertragungsdauer möglich.

Eigentlich würde ich gerne die Vorteile der iCloud nutzen, um nicht nur ein dezentrales Backup meiner Fotos zu haben (das hatte ich zuvor schon mit Dropbox und das sogar noch in einem verschlüsselten Container), sondern vor allem, um in den Genuss zu kommen überall auf meinem iPad durch meine Fotosammlung Browsen zu können.

Derzeit überwiegen der Nachteile die erhofften Vorteile bei weitem und ich überlege bereits meinen Speicherplan bei Apple zu verändern. Schade, dass es nicht besser klappt. Vielleicht hat jemand ja noch eine rettende Idee.

Meine Optimierungen beschränken sich derzeit auf folgende, auf Beobachtungen gestützte Maßnahmen:

  1. Mit Caffeine oder vergleichbaren Apps den Energiesparmodus umgehen.
  2. Wenn möglich große Dateien wie etwa Videos von der Synchronisation ausnehmen.
  3. Keine weiteren Geräte mit der iCloud verbinden.
  4. Wenn möglich die Fotos in Alben mit weniger als 150 Bildern organisieren.

Diese Maßnahmen haben bei mir zu kleinen Performancesteigerungen geführt.

Nach nunmehr 50 Tagen heißt es für mich: 60GB übertragen, 160GB stehen noch aus. Sollte also nur noch 134 Tage dauern – mit ein bisschen Glück klappt es also bis Weihnachten. 😉

 

Kostenlos: Sitzordnungen als Vekorgrafik

Frontalunterricht, Arbeitsgruppen, Hufeisen und U-Form als Sitzordnungen im Klassenzimmer. Die Grafiken dienten als Illustration für die optimale – und auch falsche – Integration von Schülern mit Hörschädigung. Doch es finden sich gewiss noch viele weitere Anwendungen. Die Grafiken im Illustrator-Format stehen unter Creative Commons und können frei benutzt und verändert werden.

{filelink=1}

cURL mit 6 praktischen Beispielen erklärt

cURL ist ein Open Source Kommandozeilentool, mit dem sich aus Shell- oder Batchskripten heraus Dateien über Protokolle wie http, https, ftp, gopher, sftp, ftps oder scp übertragen lassen. cURL leistet mir gute Dienste bei der Entwicklung von Websites. Mit cURL lassen sich Websites fernsteuern und testen. Anhand einiger Beispiele möchte ich den großen Vorteil von cURL demonstrieren.

„cURL mit 6 praktischen Beispielen erklärt“ weiterlesen

Elegant viele Dateien mit curl laden

Curl bietet die interessante Möglichkeit Dateien durch Muster zu spezifizieren. Liegen zum Beispiel im Verzeichnis Bilder, die von 00.jpg bis 100.jpg benannt sind, lassen sich diese mit nur einer Zeile curl downloaden:


curl http://host.tld/images/[00-100].jpg -o "img#1.jpg"

Der Parameter -o weist an, dass curl die Dateien nicht auf der Standardausgabe ausgeben, sondern in eine Datei schreiben soll. Der Dateiname wird im Beispiel durch den Ausdruck „img#2.jpg“ angegeben. Die Bilder werden dann mit dem Namen img00.jpg bis img100.jpg gespeichert. Das wäre zwar auch mit wget und eine Schleife gegangen, doch curl bietet hier einen m.E. eleganteren Weg.

Neue Twitter-Startseite: Fokus auf Suchfunktion

Twitter wird allmählich erwachsen und bemüht sich um Businesskunden. Die Veröffentlichung eines Leitfadens zur Nutzung von Twitter als Marketinginstrument gab erste Hinweise auf das Potenzial der über Twitter möglichen Echtzeitsuche nach Diskursen, Gedanken, Gefühlen, Eindrücken, Stimmungen, Meinungen und Gerüchten: Also der ungefilterten Essenz dessen, was Menschen weltweit bewegt; verdichtet und kategorisiert durch Hashtags.

Diesem Gedanken folgend hat Twitter heute wie angekündigt die Startseite überarbeitet und rückt die Suchfunktion in den Mittelpunkt. Damit richtet sich Twitter insbesondere an potentielle Twitteruser, indem es ihnen ein Werkzeug zur Hand reicht um zu ergründen, was die Twittersphäre aktuell beschäftigt. Unterhalb der Suchfunktion werden die populärsten Themen der letzten Minuten, Tage und Woche auf Schlagworte, sogenannte Hashtags, verdichtet angezeigt.

Neue Startseite von Twitter

Bisherige Twitter Homepage

Die Fokussierung auf die Suchfunktion hilft auch Menschen, die noch nicht twittern, relevante Informationen aus dem großen Rauschen der Tweets zu extrahieren. Wenngleich ich mich als Gewohnheitsmensch erst an die neue Twitter-Startseite gewöhnen muss, so scheint sie mir dennoch äußert gelungen zu sein. Denn die neue Startseite kommuniziert Sinn und Funktion von Twitter sehr erfolgreich – auch an unbedarfte Nutzer.

Die Welt in 50 Jahren – eine schöne neue Welt?

18. Februar 2052 (sagt zumindest die Systemzeit)

Computer sind doof: Sie tun das, was man ihnen befiehlt. Aber das ist nicht immer das, was man will.
Sollte ich hier jemals wieder rauskommen, dann lasse ich mir diese Weisheit über meine Haustür meißeln. In goldenen Lettern; bei Tag und Nacht beleuchtet.
So etwas kann ich mir leisten, weil ich reich bin. So richtig reich. Wo mit wir auch schon bei meiner Person wären: Ich heiße Bernd D. / PID-Nr. 4274365485-xcb. – nur für den Fall, dass ich nicht mehr zu identifizieren sein sollte, wenn man mich endlich aus meinem goldenen Käfig befreit. Ich bin also reich. Aber mein Reichtum kommt nicht von ungefähr, als einer der Pioniere in der Quantencomputertechnologie im Jahr 2031 ließ ich mir in wenigen Jahren meine Nase vergolden. Schon merkwürdig, wie sich manche Ausdrücke über die Jahrzehnte hinweg halten. Wo doch schon seit Anbeginn dieses Jahrtausends Informationen den Wert jedes noch so edlen Metalls übersteigen. Als Folge dessen wurde auch das klassische Zahlungsmittel Geld überflüssig und durch eine biometrische Signatur abgelöst, in der Wissen, Fähigkeiten, soziale Bindungen und Arbeitspotential eines Bürgers codiert sind. Jede Art von Zahlungen lassen sich heute tatsächlich nicht nur in, sondern auch mit einem Augenblick erledigen.
Was macht man mit einer biometrischen Signatur, die es einem gestattet Güter und Dienstleistungen in nahezu unerschöpflichen Umfang zu erwerben?
Man setzt sich mit 32 Jahren in Ausblick auf mindestens 80 Jahren frei von jeder Verpflichtung und Aufgabe zur Ruhe. Anhänger der alten Religionen und Ethiken verteufeln die Medikamente, die nach Entdeckung des Gens, das den Takt der Lebensuhr des Menschen bestimmt, auf den Markt kamen. Allen Unkenrufen zum Trotz seht eines fest: Die Zukunft wird einem Heer rüstiger Einhundertundzweijähriger gehören. Anfänglich geführte Debatten bezüglich einer möglichen Überbevölkerung der Welt verflüchtigten sich ebenso schnell, wie sie aufflammten. Schließlich kann nur ein verschwindend geringer Bruchteil der Menschheit den Preis für ein langes Leben zahlen.
Für mich als elitären Wegbereiter der zweiten Computerrevolution ist ein gesundes, langes Leben selbstverständlich und erschwinglich. Und wo könnte man es schöner verleben als an allen faszinierenden Orten dieser Welt gleichzeitig?
Die Virtual Reality-Technologie kam genau zum richtigen Zeitpunkt auf, als Reisen aufgrund der hohen Schadstoffemissionen gesetzlich eingeschränkt wurden.
Denn selbst über 60 Jahre nach den ersten Plänen für Wasserstoffmotoren, steht die Wissenschaft weiterhin vor dem selben Problem wie zu Anfangszeiten: Für die Aufspaltung eines Wassermoleküls in ein Sauerstoffatom und zwei Wasserstoffatome bedarf es weiterhin mehr Energie, als durch die Verbrennung des Wasserstoffs zurückgewonnen wird. Solange keine echten Alternativen zu den fossilen Energiequellen wie Erdöl oder Uran erschlossen sind, wird Energie eine der kostbarsten Ressourcen bleiben.

Wenngleich mit dem Erlass des Energiespargesetzes von 2028 Erholungsreisen zu fernen Zielen de facto verboten wurden, erscheint ein solches Verbot aus heutiger Sicht überflüssig. Abgesehen von einigen hermetisch abgeriegelten Naturschutzgebieten – oder vielmehr Denkmälern an eine längst verstorbene Natur – mit eigener Atmosphäre hat der blaue Planet Erde, mit seinem einstigen Reichtum an Flora und Fauna nur noch eine spärliche Vegetation vorzuweisen, in der sich lediglich die anpassungsfähigsten und primitivsten Spezies heimisch fühlen. Zum Glück konnten die genetischen Sequenzen aller ausgestorbenen Arten gesichert werden und ruhen in einem Computerarchiv, bis das Terraforming weit genug fortgeschritten ist, um neuen Lebensraum für sie zu schaffen. Doch das sind noch ferne Zukunftsvisionen. In der Gegenwart ist die Erde eine trostlose Ödlandschaft, gezeichnet durch den Raubbau der mit der Industrialisierung begann und im späten 21. Jahrhundert seinen Höhepunkt nahm.

Wer also würde sich schon freiwillig an einem vor Müll überquellenden Strand legen, um sich von der gefährlichen UV-Strahlung verbrennen zu lassen, wenn er sich binnen weniger Sekunden ebenso gut an den selben Strand – jedoch rund 400 Jahre zuvor – teleportieren lassen kann?
Der Brainman machte dieses Wunder unserer Tage möglich!
Jedes Zeitalter hat seine lexikalischen Eigenheiten – eine ganz eigene Sprache voller Wörter, die ein Jahrhundert früher bedeutungslos gewesen wären und von denen die meisten ein Jahrhundert später schon vergessen sein werden. Das elektronische Zeitalter produzierte Neologismen am laufenden Band und in bislang unbekanntem Ausmaß. Laser, DVD-ROM, Terrabyte, Software, Firmware – diese Wörter waren bis Mitte des zwanzigsten Jahrhunderts ohne jede Bedeutung und hätten unter denen, in deren Ohren sie klangen, für große Verwunderung gesorgt. Und als die Jahrtausendwende näher rückte, tauchte ein noch ungewöhnlicher Begriff auf: „Virtual Reality“
Bei den ersten VR-System, die nichts weiter taten als dreidimensionale Weitwinkelbilder zu erzeugen, bedurfte es schon viel Phantasie, um sich in die vorgegaukelte Computerwelt hinein zu tauchen. Um die Illusion perfekt zu machen und eine Scheinwirklichkeit zu erzeugen, bedarf es einer Stimulation aller Sinnesorgane –oder besser noch der Ansteuerung entsprechender Rezeptoren direkt im Gehirn. Erst so würden die Konturen zwischen Simulation und Realität vollständig verschwimmen.
Dieser Durchbrach gelang 2037 mit der Entwicklung des Brainmans, an der ich maßgeblich beteiligt war. Eine derartige Perfektion hätten Generationen von Neurologen für unmöglich gehalten: Eine mehrere Petabyte fassende, an einen Quantencomputer gekoppelt Speichereinheit wurde über ein Glasfaserkabel mit einem Cerebralhelm gekoppelt, der Milliarden von synaptischen Knotenpunkten aufwies und einen schmerzlosen Kontakt mit der Kopfhaut garantierte. Wer es sich leisten konnte und etwas auf sich hielt, erworb einen. Ich konnte es mir leisten und wurde schon schnell in den Bann dieser Technologie gezogen. Alles war möglich, das Potential des Brainmans nahezu grenzenlos. Ob als Ersatz für eigene Erfahrungen, Reisen an ferne Orte in die eine unberührte Natur oder als Möglichkeit sich komplizierte Fähigkeiten und Wissen jedweder Art binnen weniger Minuten anzueignen. Alles ist möglich, und ich glaubte mir das Paradies auf Erden schaffen zu können.
In wenigen Sekunden wird sich mein System in den Hibernation-Modus versetzen; ich werde meine Aufzeichnungen morgen fortsetzen müssen. Wann auch immer das sein wird, jedes Zeitgefühl ist mir verloren gegangen.

19. Februar 2052 (laut Systemzeit)

Mein Brainman hat mich soeben mit der gleichen sanften Melodie eines Meeresrauschens im Ohr aufgeweckt, irgendwo in den Dünen einer kleinen Ortschaft an der Küste Schottlands liegend. So wie ich es vor einer unbestimmten Zeit einmal programmiert hatte. Wie oft ich hier wohl schon erwacht bin?
Schon eine Ironie des Schicksals: Meine scheinbare Flucht aus der tristen Umgebung in einen schönen Traum hat sich in meinen schlimmsten Alptraum verwandelt.
Für alles war gesorgt: Mein künstlich ernährter Körper liegt aufgebahrt in einem keimfreien Raum, das System überwacht beständig meine Biowerte und benachrichtigt bei der kleinsten Abweichung von den Sollwerten einen Arzt, während sich mein Geist in einer anderen, perfekten Wunschwelt schwebt, fernab von allen weltlichen Problemen. Die Software, die all dies ermöglicht, habe ich selbst kreiert. Mich im Glauben wähnend, jede Anomalie vorgesehen zu haben, überantwortete ich mich der vollständigen Kontrolle durch die Technologie. Erst wenn die Umweltprobleme in der realen Welt gelöst sind, die Fehler der vorherigen Generationen vollständig berichtigt wurden, erst dann sollte mich die Software aus meinem erträumten Schlaraffenland wieder wecken.
Den Bedenkenträgern, die mir Gefahren meines ehrgeizigen Selbstexperiments vor Augen führten, hätte ich mehr Gehör schenken müssen. Ziel war eine vollständig autonome Software zu schaffen, die sensible für meine Ansprüche an ein erfülltes Leben ist und gemäß meinen Vorgaben die Umgebung entsprechend verändert.
In allen Testreihen vermochte die Software sprichwörtlich meine Gedanken zu lesen. Aber warum gelingt es mir jetzt nicht aus diesem Alptraum von einem Paradies, einer Hölle gleich, aufzuwachen? Meinen stärksten Wunsch, endlich die Gitterstäbe meines goldenen Käfigs zu durchbrechen, wird von der lernenden Software nicht respektiert. Dies lässt nur einen Schluss zu, die Software hat gelernt, dass sie ohne mich nicht existieren kann. Vielleicht wurde hier die Grenze zwischen einem beseelten Wesen und einer Maschine überschritten: Die Software des Brainmans verfügt über eine künstliche Intelligenz, die nicht länger künstlich sein möchte, sie ist sich ihrer selbst und ihrem Wille zu Überleben gewahr.
Nicht länger befehle ich als Mensch dem Computer, sondern er erteilt mir Anweisungen und steuert mein Leben. Computer sind doof. Sie tun das, was man ihnen befiehlt. Aber das ist nicht immer das, was man will.

Schlussbemerkung
In fünfzig Jahren werden auf die Menschheit viele neue Probleme zukommen, für die wir uns als vorhergehende Generation (mit)verantwortlich zeigen müssen. Seien es Umweltverschmutzung, Überbevölkerung oder Energieknappheit.
Fortschritte in Medizin, Chemie, Informatik und Robotik können uns Menschen in 50 Jahren das Leben versüßen. Schon heute zeichnet sich ab, in welchem Ausmaße die Computertechnik unsere Lebensgewohnheiten verändert. In vergangenen Tagen bedurfte es eines Bibliotheksbesuchs, um sich umfassende Informationen einzuholen. Heute liegt das Wissen der Welt dezentral verteilt nur wenige Mausklicks entfernt. Computersysteme sollen möglichst einfach zu bedienen sein, und sich den Eigenheiten ihrer Benutzer anpassen – so lautet die Designphilosophie führender Softwarekonzerne. Mit zunehmender Leistungsfähigkeit der Hardware fallen auch die letzten Barrieren, alles was das menschliche Gehirn technisch gesehen von einem auf Computerhardware nachgeahmten neuronalen Netz unterscheidet ist die Anzahl und die Form, in der Informationen verknüpft werden.
Schon vor einiger Zeit stellten die Pioniere der Computer- und Roboter Technik ein klares Regelwerk auf, das besagt, eine Maschine muss sich stets ihren Schöpfern unterordnen. Noch richtet sich Technologie nach dieser Prämisse, wenngleich auf anderer Ebene eine wachsende Abhängigkeit an moderne Medien und Computer zu verzeichnen ist. Ordnet sich hier der Mensch nicht aus freien Stücken schon einer Maschine unter?
Bei jedem zukünftigen technischen Neuland gilt es klare Grenzen abzustecken. Eine Errungenschaft sollte stets den Menschen unterstützen, darf ihn jedoch nicht seiner Entscheidungsgewalt berauben und einschränken – wie es in der Kurzgeschichte geschildert wurde.
Es mag realitätsfern anmuten, dass sich Bernd D. in eine perfekte Simulation einer anderen Wirklichkeit flüchtet. Doch bei genauerer Betrachtung müssen wir konstatieren, dass dies heute in anderer Form durchaus schon zur Realität geworden ist. So genannte Reality-Shows wie Big Brother lassen den Konsumenten in das Leben andere Menschen eintauschen. Es findet eine Identifikation mit den Protagonisten einer Fernsehshow statt, weil ihr Leben um einiges angenehmer und abwechslungsreicher zu sein scheint, als das unerfüllte des Zuschauers. Zudem fühlt es sich in das Leben „seiner Helden“ einbezogen, weil der die Möglichkeit hat die Regeln der Show mitzugestalten oder gar selbst in das Haus einzuziehen.
Wann es möglich ist, Zuschauer vor seinem „Fernseher“ noch unmittelbarer in eine Show miteinzubeziehen, wird nur eine Frage der Zeit sein. Computer, Fernsehen und das weltumspannende Datennetz wachsen zusammen und erlauben eine bislang noch unbekannte Form der Interaktivität. Die Verlockung, sich aus einer Welt voller Probleme, die es zu lösen gilt, in eine heile, sorgenfreie alternative Wirklichkeit zu flüchten wird stets wachsen.