Single Page Applications

am 26. November 2017 in Tech, WebDesign von
Bisher unkommentiert »

Wer ständig mit dem Internet zu tun hat und etwas aufmerksamer durch die
verschiedenen Internetseiten surft, wird etwas feststellen: Immer mehr Internetseiten sind
nicht mehr wie früher Aufgebaut als eine Ansammlung von Seiten, die miteinander
verlinkt sind, sondern es gibt nur noch eine einzelne Seite auf der alle gewünschten
Informationen zu sehen sind, oder nachgeladen werden.

Dass dies nicht nur ein Trend ist, dem nur wenige innovative Startups folgen, wird
durch die vielen Giganten im Internet deutlich. So ist zum Beispiel die komplette Seite von
Facebook zum Großteil eine Single Page Application, auch SPA genannt. Doch auch Gmail,
Google Maps, Twitter und dir fallen bestimmt noch mehr Seiten ein, sind alles SPA’s.

Doch warum wird diese Technik so häufig und gerne eingesetzt? Dies lässt sich leicht
durch die vielen Vorteile, die eine SPA mit sich bringt nachvollziehen. Denn unter anderem
verringert eine solche Internetseite die Serverlast des Betreibers enorm. Die eigentliche Seite
wird nur einmal heruntergeladen und anschließend müssen nur noch Informationen, Texte
und Bilder nachgeladen werden. Es müssen nicht bei jeder Navigation alle Skripte, Header
und Stylesheets der Seite neu geladen werden. Dies bringt einen großen Vorteil für Seiten, die
sehr große Benutzerzahlen zu verzeichnen haben. Ein weiterer Nutzen bringt das SPA-Paradigma bei Seiten die hohe Interaktivität zwischen dem Benutzer und der Anwendung
benötigen. Hier kann eine solche Seite wie eine typische Desktopanwendung auftreten, sodass
man garnicht mehr das Gefühl hat, im Internet unterwegs zu sein. Dies ist zum Beispiel bei
Google Docs der Fall.

Wenn wir jetzt die Vorteile einer SPA wissen, müssen wir jetzt nur noch mehr über die
technische Realisierung einer solchen Web-App erfahren. Ermöglicht werden diese Art von
Internetseiten nur durch JavaScript oder andere auf clientseitig laufende Skripte.
Hierbei ist der Begriff AJAX der Kern einer jeden SPA. Denn nur durch AJAX
(Asynchronous JavaScript and XML) ist es möglich, Inhalte dynamisch nachzuladen,
nachdem die Seite fertig geladen wurde. Dazu gibt es auch immer mehr mächtige
Frameworks, die eigens dafür entwickelt wurden. So sind AngularJS, React oder Backbone.js
nur die Bekanntesten unter den vielen Verfügbaren.

Da wir jetzt auch die Technik dahinter verstehen, sollten wir uns aber noch über die
Nachteile einer SPA im Klaren sein. Denn ein großes und nicht zu vernachlässigendes Manko
ist die Suchmaschinenoptimierung einer Single Page Application. Da der komplette Inhalt
der Seite nicht sofort beim aufrufen der Seite verfügbar ist, können die meisten Crawler nicht
alle Inhalte erfassen, die die Seite zur Verfügung stellt. Außerdem wird beim Klick auf einen
Link keine neue Seite geladen, da alle Inhalte nur nachgeladen werden und es im
wesentlichen nur eine Seite gibt. Daher sollte bei Firmenseiten oder ähnlichem auf eine SPA
verzichtet werden. Denn eine solche Seite ist im Normalfall nicht bei den obersten
Suchergebnissen gelistet.

Folglich sollte genauestens überlegt werden, was die Ziele einer Seite sind, bevor die
eigene Seite als Single Page Application gebaut wird. Kann der SEO-Faktor vernachlässigt
werden, oder ist viel Interaktion gefragt, so kann getrost auf bekannte Frameworks wie
AngularJS gesetzt werden. Ist jedoch ein gutes SEO-Ranking erforderlich, so sollte von dieser
Technologie abgeraten werden und eher eine Seite im klassischen Stil entwickelt
werden.

Quellen

http://www.dtelepathy.com/blog/design/8-reasons-why-pageless-design-is-the-future-of-the-web
http://t3n.de/news/single-page-webdesign-beispiele-323225/
http://singlepageappbook.com/goal.html
https://de.wikipedia.org/wiki/Single-Page-Webanwendung
https://blog.secu-ring.de/software/single-page-applications-loesung-fuer-probleme/
http://www.flyacts.com/blog/seo-und-spa-single-page-applications-unvereinbar-oder-unzertrennlich/

Die Lieblings-Apps der Deutschen

am 26. November 2017 in Aktuelles von
Bisher unkommentiert »

Egal ob in der Schlange beim Bäcker, morgens in der U-Bahn oder daheim auf dem Sofa…. Überall ist bei vielen Deutschen das Smartphone mit dabei. Und das nicht nur in der Tasche, sodass man keinen dringenden Anruf verpasst. Nein, ich sehe immer mehr Menschen die dieses (mehr oder weniger) kleine Gerät in der Hand halten, wie wild darauf herum tippen und mit gesenktem Kopf durch die Welt gehen. Doch womit beschäftigt sich der deutsche Durchschnittsbürger, wenn er auf sein Smartphone schaut?

Deutsche nutzen am liebsten Apps zur Kommunikation. Ihre liebsten App-Anwendungen sind daher im Bereich Social und Messaging. 2016 nutzten User diese Apps fast doppelt so häufig wie noch im Jahr zuvor.
Beliebt sind Social- und Messaging-Apps in Deutschland vor allem wegen des Trends zum “Communitainment” – also dem Teilen unterhaltsamer Inhalte mit Freunden oder Bekannten. Außerdem werden über die gängigen Chat-Apps vermehrt Sprach- und Videoanrufe geführt.

Whatsapp steht so mit großem Abstand auf Platz 1 der deutschen Lieblingsapps. Bis 2015 hatten schon fast 25 Mio. Menschen in Deutschland diese Messenger-App auf ihrem Gerät installiert. Aber auch Facebook und der dazugehörige Facebook-Messenger standen hoch im Kurs.
Weitere Social Apps wie Twitter, Instagram, Snapchat oder Youtube sind ebenfalls sehr beliebt bei Deutschen sowie internationalen Usern – liegen aber im Ranking hinter Whatsapp und Facebook.

Whatsapp steht so mit großem Abstand auf Platz 1 der deutschen Lieblingsapps. Bis 2015 hatten schon fast 25 Mio. Menschen in Deutschland diese Massenger-App auf ihrem Gerät installiert. Aber auch Facebook und der dazugehörige Facebook-Messanger stehten hoch im Kurs.
Weitere Social Apps wie Twitter, Instagram, Snapchat oder Youtube sind ebenfalls sehr beliebt bei deutschen sowie internationalen Usern – liegen aber im Ranking hinter Whatsapp und Facebook.

In ganz Europa werden auch vermehrt Business- und Finanz-Apps verwendet. In Deutschland liegen diese Apps im Ranking direkt hinter Social- und Messeging-Apps und hatten im letzten Jahr ein Wachstum von 69 Prozent.

Unabhängig vom Anwendungsgebiet mögen die Deutschen am liebesten kostenlose Apps. Alle Apps, die sich in den Top 20 der Downloadzahlen befinden, können von Smartphone- und Tablet-Besitzern kostenlos herunterladen werden.

Das lässt darauf schließen, dass der praktische Nutzen der Apps klar im Vordergrund liegt. So sind auch Wetter– oder Taschenrechner-Apps bei den Deutschen sehr beliebt.

Interessant ist, dass es Spiele-Apps trotz großer Beliebtheit (vor allem bei Kindern und Jugendlichen) nicht in die Top 10 geschafft haben. Nach einem kurzen Trend nimmt die Nutzung und damit auch die Downloadzahlen der Apps wieder stark ab. AngryBirds liegt im Downloadranking bei Android immerhin noch auf Platz 13, kann aber mit den Apps anderer Kategorien nicht mithalten. Auch das Beispiel der Spiele-App „Pokemon go“ zeigt, dass ein Trend im Bereich der Spiele oft nur von kurzer Dauer ist.

Auch Wissens-Apps sind bei den Deutschen beliebt. Ein Beispiel dafür ist der Übersetzungs-Anbieter LEO, der zwischen verschiedenen Sprachen ganz einfach Wörter übersetzen lässt. Gerade bei alltäglichen Sprachproblemen kann eine solche App hilfreich sein und Pannen vermeiden.

Immer mehr Verkehrsbünde bieten Informations- und Auskunftsapps für ihre Region an. In diesen Apps können dann Fahrplane, Wegbeschreibungen oder aktuelle Verbindungen für die öffentlichen Verkehrsmittel (Bus, Zug, S-Bahn, U-Bahn,…) eingesehen werden. Auch aktuelle Informationen wie Zugausfälle, Bauarbeiten oder Gleisstörungen können den Nutzern problemlos angezeigt werden.
Neben den Apps der deutschen Bahn ist für diese Art der Apps der Verkehrsbund in München (MVV) ein vorbildliches Beispiel. Sie bieten ihren Kunden verschiedene Apps, die auf die einzelnen Bedürfnisse angepasst sind. So ist mit diesen Apps selbst das Fahrscheinlösen direkt vor Ort über das Smartphone längt zum Alltag geworden.

Auch Schnäppchenjäger kommen auf ihre Kosten. Immer mehr Apps bieten mit günstigen Angeboten Käufern und Verkäufern einen unkomplizierten Prozess an. kaufDA ist ein Besipiel für eine App, mit der Angebote schnell gefunden werden können, sodass bei einem Kauf möglichst viel Geld gespart werden kann. Aber auch „Vermittlungs“- Apps wie Sphock, Ebay oder Kleiderkreisel sind bei den Deutschen immer beliebter.

Quellen

https://netzoekonom.de/2015/12/28/die-lieblings-apps-der-deutschen-facebook-fuehrt-klar-vor-google-und-apple/
http://www.focus.de/digital/multimedia/focus-studie-zeigt-die-lieblingsapps-der-deutschen_aid_838504.html
https://www.wuv.de/digital/diese_apps_nutzen_die_deutschen_am_liebsten
https://www.android-user.de/lieblings-apps-der-android-user-redaktion/

FloNET – evolutionäres Lernen

am 26. November 2017 in Aktuelles, Tech von
Bisher unkommentiert »

Vor ca. Einem Jahr beschloss ich, herauszufinden wie man Neurale Netzwerke benutzt um Intelligente Programme programmieren zu können. Das Thema künstliche Intelligenz ist ein Thema, das in Zukunft immer mehr Teil unseres täglichen Lebens wird, daher ist es sicher kein Fehler, etwas Wissen in diesem Gebiet zu haben. Umso erfreuter war ich, als ich ein Video mit dem Titel “Deep Learning without an PhD” fand, anscheinend eine einfache Anleitung als Videoform. Als ich jedoch bereits nach wenigen Minuten gar nichts mehr verstand, stellte ich das Thema Neurale Netzwerke ersteinmal hinten an. Etwas später fand ich diesen Artikel (Den Blog kann ich übrigens nur wärmstens empfehlen!). Dort wird auch unter anderem beschrieben, wie ein Gehirn grundsätzlich funktioniert. Auf Basis von diesem Wissen konnte ich dann eine eigene Version eines Neuralen Netzwerks programmieren.

Funktionsweise

Die Funktionsweise meiner Version ähnelt teilweise verbreiteten Methoden, jedoch gibt es auch einige Unterschiede. Ich werde im Folgenden meine Version beschreiben, doch der Grundgedanke eines Neuralen Netzwerks ist überall der selbe.

Das Neuron

Ein Neuron ist der kleinste Teil eines Neuralen Netzwerks, und damit auch von unserem Gehirn. Ob ein Neuron ein Signal weitergibt, das es erhalten hat, hängt davon ab wie stark es aktiviert wurde. Wurde das Neuron oft genug und mit genug Energie aktiviert, gibt es irgendwann einen Impuls an weitere Neuronen weiter.

In diesem Bild ist ein Neuron dargestellt, wie ich es in meiner Implementierung benutze. Von der vorherigen Schicht übergibt ein Neuron in diesem Beispiel einen Wert von 1.3 an das Neuron. Dieses würde nun null weitergeben, da der Threshold-Wert von 2.1 nicht überschritten wurde. Jedoch übergibt ein zweites vorheriges Neuron zusätzlich noch den Wert 1.8. Das Neuron addiert alle Werte, die es bekommt, und vergleicht es mit seinem Threshold Wert. In diesem Fall wurde er überschritten, weshalb das Neuron seinen festgelegten Outputwert weiterreicht. Dieser ist für jedes Neuron individuell, genau wie sein Threshold-Wert. Durch diese parametergesteuerte Interaktion können einfache Logikoperationen ausgeführt werden.

Das Netz

Das Netz besteht aus vielen verbundenen Neuronen, wie es oben beschrieben wurde. In diesem Beispiel besitzt das Netz 3 Inputfelder/Neuronen. Diese Werte werden von dort an die erste Reihe an Neuronen weitergeleitet. Dieses Netz besitzt 3 sogenannte “hidden layers”. Diese sind für die Berechnung der Outputwerte zuständig, in diesem Fall sind es 2. Alle Parameter können frei gewählt werden, und an das jeweilige Szenario angepasst werden.

Wie geeignet, oder “intelligent”, ein Netz ist, hängt davon ab, wie die Parameter der einzelnen Neuronen gewählt werden. Dann sind gängige Machine Learning Aufgaben wie Bild- oder Spracherkennung möglich. Auch wenn diese modellhaften Netze nicht exakt dem eines Gehirns nachempfunden sind, sind sie doch recht ähnlich. Das heißt, mit den richtigen Parametern müssen sehr intelligente Systeme möglich sein, da uns das biologische Vorbild beweist, was mit einfacher Signalübergabe möglich ist.
Doch diese Parameter des Netzes müssen erst einmal bestimmt werden. Mit zufälligen Parametern wird das Netz nur zufällige Ausgaben machen, die niemandem etwas Nützen. Die größten Unterschiede zwischen verschiedenen Machine Learning Methoden liegen genau hier, bei dem kritischen Teil. Komplexe Methoden, versuchen zum Beispiel, zu analysieren, welche Parameter besser zum Ziel verholfen haben, und welche nicht, und passt diese entsprechend an. Dies ist jedoch mathematisch sehr komplex, weshalb ich mich für eine andere Methode entschied:

Evolution

Ich verwende Auslese und Mutation, wie sie aus der Darwinistischen Evolutionstheorie stammt, um die Fitness meiner Netze zu steigern. Zu Beginn generiere ich eine festgelegte Anzahl an Netzen. Die Netze sind in ihren Netzeigenschaften gleich, jedoch werden alle Parameter der Neuronen zufällig bestimmt. Dazu gehören die Parameter maxX, outX und welche Neuronen miteinander verbunden sind. Zu diesem Zeitpunkt wird mit sehr hoher Wahrscheinlichkeit kein Netz ansatzweise einen Zweck erfüllen. Jedoch teste ich trotzdem jedes Netz, und bestimme einen Fitness-Wert. Dieser sagt aus, wie gut das Netz abgeschnitten hat. Habe ich zu jedem Netz eine Bewertung, kann ich beginnen, die nächste Generation vorzubereiten. Dafür sind 3 Schritte notwendig:

  1. Auslese
    Die Netze, die in der Rangliste in der unteren hälfte sind, werden gelöscht. (Das Gegenstück in der Realität wäre einen Darwin-Award zu gewinnen)
  2. Mutation
    Die Plätze, die durch die Auslese frei geworden sind, werden ersetzt durch neue Netze. Diese sind mutierte Versionen der Netze, die in der Rangliste die obere Hälfte besetzen. Bei einem Mutationsvorgang werden die Parameter der Neuronen leicht abgewandelt. So entsteht ein Netz, das teilweise neue Eigenschaften besitzt, zum Größten Teil jedoch noch dem Vorfahren-Netz entspricht. Die Mutation findet unter bestimmten Parametern statt, die angeben wie wahrscheinlich eine Mutation ist, und wie stark sich diese Auswirkt.
  3. Frisches Genmaterial
    Da die Netze mit jeder Generation ähnlicher werden, kann es sein dass sie sich in eine bestimmte Richtung entwickeln, von wo keine Möglichkeit zu einer Lösungsfindung vorhanden ist. Deshalb werden mit jeder Generation wenige Verlierer ersetzt durch komplett neu zufällig generierte Netze.

Löst ein Netz eine Aufgabe besonders gut, wird es auch in der nächsten Generation vorhanden sein. Es wird erst aussortiert werden, wenn es von vielen anderen Netzen in der Fitness überholt wurde, Zum Beispiel durch Mutationen von sich selbst, die kleine Verbesserungen aufweisen. Auf diese Weise werden die Parameter immer besser gewählt. Dieser Evolutionäre Lernvorgang wird dann beendet, wenn die Ergebnisse zufriedenstellend sind. Das Gewinner Netz der letzten Generation kann nun alleine verwendet werden, um Aufgaben zu lösen. Da die Rechnung, die in einem Netzwerk passiert auf einfachen Rechnungen basiert, ist die Endlösung auch relativ performant.

Diese Art des Lernens ist im Vergleich mit anderen Lernmethoden nicht sehr elegant, da es zum Großteil auf Zufall und “trial and error” basiert.

Implementierung: Autonomes Fahren

Um FloNET zu testen habe ich in Unity eine Umgebung gebaut, in der Fahrzeuge durch Hindernisparcours navigieren können. Jedes Fahrzeug besitzt fünf Sensoren, die in Unterschiedlichen Winkeln den Abstand zu einer Wand angeben. Diese fünf Abstände werden an das Neurale Netz weitergegeben, das dem Fahrzeug zugeordnet ist. Das Netz bestimmt basierend darauf den Wert, der das Fahrzeug steuert (Lenkung) Dafür wählte ich Netze mit drei hidden layers, sechs Neuronen in einem layer, fünf Inputs und einem Output. Jede Generation besteht aus 20 Fahrzeugen, die gleichzeitig Gegeneinander antreten. Kollidiert ein Fahrzeug mit einer Absperrung, bleibt es stehen. Ist die Zeit des Testlaufs um, wird die nächste Generation generiert. Als Fitnesswert wird die gefahrene Distanz der Fahrzeuge benutzt.

In dem Video ist ein Lernvorgang zu sehen, wie diese Fahrzeuge über mehrere Generationen immer weniger kollidieren, bis sie irgendwann die Teststrecke komplett durchqueren können.
Leider ist das Interface sehr unübersichtlich, doch manche Bezeichnungen solltest du aus dem vorherigen Text wiedererkennen können. Ab 1:20 sind die fühlerartigen Abstandssensoren als rote Linien zu erkennen.
In diesem Versuch ist es bereits nach zwölf Generationen gelungen, ein paar Netze zu erzeugen, die die Teststrecke durchqueren können. In diesem Fall war sehr früh ein Netz dabei, das bereits in den Grundzügen die Fähigkeit besaß, Hindernissen auszuweichen. Dies bringt die Evolution schneller voran. Doch auch mit weniger Glück sind die Netze spätestens nach 20 Generationen in der Lage, sicher zu navigieren.

Fazit

Der Ansatz über Evolution intelligente Systeme zu schaffen, halte ich für sehr vielversprechend, da wir Menschen auch ein Produkt der Evolution sind. FloNET ist in seiner Funktionalität sehr eingeschränkt, außerdem ist es mit PHP als Sprache nicht sehr performant. Ein großer Teil der außerdem noch zum biologischen Vorbild fehlt, ist die Fähigkeit, dass sich das Netz selbst anpassen kann. Die hier generierten Netze lernen nicht mehr, sobald sie eingesetzt werden.

Das Konzept von evolutionärem Lernen ist nicht neu, wie ich später feststellen musste. Es gibt bereits viele Beispiele im Internet. Dort habe ich mir dann auch die Idee abgeschaut, Fahrzeuge selbstständig fahren zu lassen.
Ich denke jedoch, dass es eine gute Demonstration ist, wie mächtig evolutionäre Algorithmen sein können. Ich denke dass es nicht die Lösung für Künstliche Intelligenz ist, jedoch glaube ich, dass es als Werkzeug sehr nützlich sein kann. So könnte man zum Beispiel spezielle Netze, die eigene Neuronenverbindungen herstellen können, nach ihrer Lernfähigkeit bewerten und evolutionär verbessern.

Falls du Interesse hast, FloNET zu benutzen, kannst du das gerne tun. Alle PHP Scripte findest du in dem Repository.

Die dunkle Seite des Internets

am 26. November 2017 in Aktuelles von
Bisher unkommentiert »

Wir schreiben Freitag, den 22.07.2016. Eine schreckliche Tragödie ereignet sich am Münchner Olympia-Einkaufszentrum. Der 18-jährige Schüler David S. schießt mit einer Pistole um sich und tötet neun Menschen. Nun stellt man sich die Frage: Wie ist es möglich, dass ein 18-Jähriger an eine Pistole kommt? Nach umfangreichen Ermittlungen stellte sich heraus, dass David S. seine Pistole ohne Weiteres aus dem Darknet erwerben konnte.

Was ist das Darknet?

Das Darknet, auch “deep web” genannt, ist ein Teil des Internets, welches jedoch nur über spezielle Software, wie z. B. dem Tor-Browser-Paket erreichbar ist. Das wichtigste Merkmal, was das Darknet von dem konventionellen Internet unterscheidet, ist die Anonymität. So ist es im “open web” kaum möglich komplett anonym zu surfen, da die IP-Adressen der User von allen Webseiten auf direktem Weg einem Standort zugeordnet werden können. Im Darknet hingegen gibt es keine direkten Verbindungen, denn das Darknet ist als sog. “Peer-to-Peer”-Netzwerk aufgebaut – das heißt, dass das Netzwerk zwischen einzelnen Nutzern besteht, also nicht zentralisiert ist. Das ganze funktioniert nach dem Zwiebelprinzip: Jede Verbindung geht über mindestens drei Knotenpunkte, wobei keiner der Server feststellen kann, woher die Anfrage kommt, wie sie Aussieht und wohin die Anfrage geht. Dieses Schichtenprinzip macht es quasi unmöglich den User zurückzuverfolgen und seine Aktionen nachzuvollziehen. Ein weiteres Merkmal des Darknets sind die URLs der Seiten, diese sind nicht so einfach aufgebaut wie im open web (Beispiel: http://onlinemedien.blog/), sondern sie bestehen aus zusammenhanglosen Buchstaben-Zahlen-Abfolgen (Beispiel: http://qzbkwswfv5k2oj5d.onion), damit die Seiten von anderen Usern nicht ohne Probleme gefunden werden können.

Wie ist es sonst möglich die Seiten im “deep web” zu finden?

Die meisten relevanten Seiten im Darknet sind in einer Linkliste, dem sog. “HiddenWiki” gesammelt. Das HiddenWiki sieht im Aufbau dem bekannten Wikipedia sehr ähnlich, enthält jedoch nur URLs von Seiten im Darknet. Einige Seiten sind jedoch nicht über das HiddenWiki erreichbar, sie sind nur nach Kontakt mit den Betreibern erreichbar, was es fremden Personen zusätzlich erschwert unbefugten Zugriff zu erhalten.

Wie kam David S. an die Waffe?

Die Anonymität, die das Darknet verspricht, machen sich viele Kriminelle zunutze, indem sie Seiten betreiben, auf denen illegale Güter und sogar illegale Dienstleistungen erwerbbar sind. So existieren im Darknet sogar Seiten, die sich mit Menschenhandel – also mit dem Handel lebendiger Menschen – befassen. Es ist auch möglich Falschgeld, Drogen und Waffen aller Art im Darknet zu kaufen.
Die zweite Hürde neben der Seitenfindung ist die Bezahlung im Darknet. Im Gegensatz zum herkömmlichen Bezahlprozess im Internet, ist es im “deep web” nicht möglich, über gängige Bezahlmethoden, wie PayPal oder Überweisung, zu bezahlen. Bezahlt wird mit Bitcoins, einer Onlinewährung, welche unter bestimmten Umständen, einen hohen Grad an Anonymität verspricht.

Der Amokläufer David S. kam über das Darknet schnell mit einem Waffenhändler aus Marburg in Kontakt. Dort trafen sich die Beiden nach kurzer Zeit für den Waffenhandel. Für 4000 € konnte sich David S. eine Pistole vom Typ Glock 17 mit dazugehöriger Munition kaufen, welche die Tatwaffe des Münchener Amoklaufs vom 22.07.2016 war.

Ist das Darknet deshalb böse?

Diese Frage ist nicht leicht zu beantworten, denn im Darknet existieren nicht nur Seiten mit illegalen Inhalten. Laut einer Statistik von Statista aus dem Jahre 2017 (siehe Abbildung 1) behandeln über ein Drittel der Seiten des “deep web” legale Themen.

Das hört sich im ersten Moment wenig an, jedoch ist es wichtig zu wissen, worum es sich bei diesen Seiten handelt. In totalitären Staaten, in denen es durch die Regierung verboten ist offen zu kommunizieren und seine Meinung zu äußern, bietet das Darknet ein Sprachrohr für die anonyme interne und externe Kommunikation. Gerade dieser Kanal ist unabdingbar für etliche Freiheitsbewegungen. Auch Whistleblower wie Edward Snowden kommunizierten über das Darknet mit den Medien. Das Schützen von Dissidenten war der ursprüngliche Gedanke des Darknets, der bis heute ein wichtiger Bestandteil geblieben ist.

Der Mensch macht den Unterschied

Letzten Endes muss jeder Mensch für sich entscheiden, wofür er das Darknet verwendet, jedoch ist diese Entscheidung mit Bedacht zu treffen, denn das Darknet ist keine gesetzesfreie Zone. Weltweit gibt es Ermittlungen gegen kriminelle Aktivitäten im Darknet – zum Teil mit Erfolg. Seit 2013 wurden international schon über 30 illegale Marktplätze zerschlagen und die Betreiber strafrechtlich verfolgt.

Auch Philipp K., der Waffenhändler, der David S. die Amokwaffe verkaufte, wurde von den Behörden verhaftet, nachdem diese Interesse an einem Waffenkauf vorgetäuscht haben und ihm anschließend mit einem Spezialkommando auflauerten. Angeklagt wurde Philipp K. wegen fahrlässiger Tötung und Waffendelikten. Hier hat die technische Anonymität, die ihm das Darknet verschaffte nicht weiterhelfen können, da er einen menschlichen Fehler beging und damit die Anonymität im Darknet aufgehebelt hat.

Quellen

Zollfahnder hatten Chatkontakt zu Münchner Amokläufer
Der Nazi aus dem Darknet
Was ist eigentlich das Darknet?
Wie funktioniert das Darknet?
Das TOR-Netzwerk nach Kategorien

Kollaboration über Microsoft Sharepoint

am 26. November 2017 in Aktuelles, Tech von
Bisher unkommentiert »

Sharepoint ist eine “Enterprise-Platform” von Microsoft, welche für Geschäftsanwendungen entwickelt wurde. Es bietet ein breites Portfolio an nützlichen und produktivitätssteigernden Funktionen für große und kleine Unternehmen.

Die Vorzüge von Sharepoint

Verbesserung der Teamproduktivität

Sharepoint beinhaltet viele Anwendungen innerhalb eines Systems, darunter zählen unter anderem Teamsites für die Kollaboration innerhalb eines Teams, eine umfangreiche Funktion zur Dokumentenablage und -organisation, sowie Benachrichtigungsfunktionen für Inhalte etc.

Umfangreiche Berechtigungsstruktur

Innerhalb von Sharepoint gibt es die Möglichkeit, die Berechtigungen nach Belieben anzupassen. So beschränken sich die Berechtigungsstufen nicht nur auf das Lesen, Schreiben und Löschen, sondern es sind sogar komplett eigene Berechtigungen einstellbar. Hierbei können die Berechtigungen vom Elternobjekt auf alle Subsites vererbt werden, oder, je nach Bedarf, auf einzelne Listen und Dokumenten spezifizierte Berechtigungen vergeben werden. Es ist auch möglich User-Gruppen zu erstellen (z. B. Abteilung, Team, Projektverantwortliche etc.).

Projektmanagement ohne Umwege

Durch sog. “Project Sites” hat man bereits wichtige Tools für das Projektmanagement auf einem Blick. Durch Features wie die Timeline, die einem die wichtigen Termine im Projektverlauf grafisch darstellt, kann es den Benutzern vereinfacht werden, das ganze Projekt im Überblick zu behalten. Die benutzerdefinierten Listen besitzen ein quasi unbegrenztes Potential für mögliche Projektmanagement-Maßnahmen.

Firmenweite Suchfunktion

Gerade bei großen Unternehmen ist es oft schwierig, bestimmte Dokumente zu finden, was zum Teil mit einem recht großen Zeitaufwand in Verbindung steht. Sharepoint bietet eine umfassende Suchfunktion, die – wenn sie richtig kalibriert ist – die Suchzeit auf ein Minimum reduziert.

Exzellente Dokumentenablage

Sharepoint ist eine hervorragende Plattform um Dokumente abzulegen und ist Netzwerklaufwerken überlegen. So kann man innerhalb einer Sharepoint Teamsite Dokumente jeglicher Art ablegen und kategorisieren. Ein besonderes Augenmerk wird hierbei auf Dateien aus Microsoft-Programmen gelegt (Word, Excel etc.). Diese sind direkt bearbeitbar und es besteht sogar die Möglichkeit Dokumente auszuchecken und zu versionieren, was die Kollaboration vereinfacht.

Möglichkeiten für ein Social Intranet

Da Sharepoint ein Web Content Management System ist, ist es damit ohne Weiteres möglich, ein Intranet innerhalb des Systems zu erstellen. Es gibt bei Sharepoint keinen vorgegebenen Seitenaufbau, denn das Layout aller Sites ist frei anpassbar. Durch einige soziale Funktionen, wie einer eigenen Profilseite (sog. “MySite”), sowie Likes und Kommentarfunktionen bietet Sharepoint eine optimale Basis für Firmenintranets. Durch die Anbindung an das Microsoft Active Directory, einem Nutzer-Verwaltungssystem, das mit Windows zu einem System mit einem Single-Sign-On kombiniert werden kann, werden Zugriffsprobleme ausgeschlossen.

Einfache Handhabung für Anwender

Microsoft Sharepoint hält sich an das Microsoft-typische Oberflächendesign, welches man bereits von Software wie Microsoft Word oder Microsoft PowerPoint kennt. Selbst für User, die mit Microsoft-Software nicht vertraut sind, bietet Sharepoint durch das minimalistische Design für den Endanwender dennoch eine hohe Benutzerfreundlichkeit. Nachdem eine Teamsite in Sharepoint angelegt wurde, besteht kaum Verwaltungsaufwand, was der Produktivität zugute kommt.

Anwendung von Geschäftsprozessen

Über Sharepoint ist es möglich, Geschäftsprozessen eine Form zu geben. Es gibt z. B. Möglichkeiten, Mitarbeiterbefragungen durchzuführen, was nur eine von vielen Anwendungen ist. Auch Aufgaben wie das Darstellen der Urlaubsplanung sind in Sharepoint mit Listen oder Zeitleisten durchführbar. Durch individuelle Workflows und Freigabeprozesse sind auch zusammenhängende Tätigkeiten standardisiert anlegbar. Ein Beispiel hierfür wäre die Anlage von neuen Mitarbeitern, welches mehrere Schritte beinhaltet (Mitarbeiter im HR anlegen, Hardware-Ausstattung, Zugänge anlegen etc.) und sich deshalb über mehrere Abteilungen erstreckt.

Microinteractions – UX bewegt sich?

am 24. November 2017 in WebDesign von
Bisher unkommentiert »

Leute, die sich mit User Experience beschäftigen, befassen sich im Allgemeinen mit der
Optimierung von technischen Interfaces für deren Nutzern. Initial befasste sich Usability
bislang mit Richtlinien wie Übersichtlichkeit oder Zugehörigkeit von Elementen.
Doch bestimmt ist auch einigen von euch schon aufgefallen, dass sich manche Interfaces
greifbarer und intuitiver anfühlen als andere. Auf den ersten Blick ist es schwer die
Ursache dafür herauszufinden – vor allem, wenn dir der Begriff „Microinteractions“ noch
nie über den Weg gelaufen ist.

Sicher hast du in deinem bisherigen Leben als Digital Native unzählige Geräte ein und
ausgeschalten, die Lautstärke deines Radios oder Walkmans angepasst oder hoffentlich
deinen Laptop ab und an eingeschalten. Als Studenten von Onlinemedien kennen wir
wohl allzu gut das Geräusch eines angehenden Macs oder Windows im Vorlesungsraum,
während der Dozent seinen bedeutungsschwangeren Satz beendet. Oft lacht der Kurs
nun, da es sich anhört, als ob das Geräusch den Worten des Dozenten eine höhere
Bedeutung gegeben hätte. Auch wenn wir es vielleicht, abgesehen von diesen
besonderen Momenten, noch nie bewusst wahrgenommen haben, genau das sind
Microinteractions.

Sie können quasi als ein Stilmittel der Usability verstanden werden, bei welcher ein
Nutzerszenario auf einen bestimmten Moment der Interaktion zwischen Nutzer und
Interface heruntergebrochen wird, damit genau dieser ausgearbeitet werden kann. Der
Fokus liegt dabei auf einer einzigen Interaktion, wie beispielsweise das Entsperren des
iPhones oder das Hochfahren des Laptops. Zudem sind diese genannten Momente eine
der wesentlichen Microinteractions, die ein Nutzer überhaupt mit dem Gerät tätigen wird.
Es ist nämlich die erste Interaktion zwischen dem Nutzer und dem Interface. So werden
jetzt vielleicht einige von euch an das Geräusch zurückdenken, mit welchem sich euer
iPhone entsperrt, oder dem leichten Zoomeffekt, mit welchem euer Homescreen danach
auftaucht (iOS 10, für alles andere ist mein Handy zu schlecht).

Genau solche Gesten lassen uns das Interagieren mit unserem Smartphone viel flüssiger
und effektiver erscheinen, auch wenn wir das bewusst vielleicht noch nie wahrgenommen
haben. Ein Microinteraction ruft dann positive Assoziationen bei uns hervor, wenn er
reizvoll, menschlich und effektiv ist. Solche Microinteractions sammeln und fließen in die
Gesamtwahrnehmung der Usability mit ein. Sie trennen somit ein gutes Produkt von
einem besonders gutem Produkt.

Microinteractions umgeben uns aber nicht nur bei der Interaktion zwischen Lautsprechern
oder Smartphones, sondern sollten uns idealerweise auch die Bedienung von Webseiten
„versüßen“. Denn Microinteractions können die Lücke zwischen Nutzer und Technologie
mithilfe von humaner und emotionaler Bindung schließen. Durch die intuitive und nahezu
unscheinbare Art begleiten uns Microinteractions durch den Webseitenfluss.
Um Micromoments selbst gestalten zu können, ist es wichtig ihren Aufbau zu verstehen.
Dieser setzt sich aus 4 Teilen zusammen:

  1. Trigger
  2. Eine Microinteraction muss zunächst ausgelöst werden. Im Idealfall soll der Trigger den
    Nutzer zur Interaktion animieren. Die besten Trigger sind solche, die dem Nutzer dann zur
    Verfügung stehen wenn er sie benötigt, ohne dass der Nutzer seine Bedürfnisse äußern
    muss.

  3. Rules
  4. Die Regeln bestimmen, was bei einer Microinteraction passiert. Sie müssen sich natürlich
    anfühlen und den Nutzer animieren und keinesfalls bei der Interaktion stören oder
    ablenken.

  5. Feedback
  6. Ganz wichtig ist es dem Nutzer klar zu machen, was durch die Interaktion passiert ist. Ein
    Mensch ist durch natürlich Konditionierung daran gewöhnt, dass auf eine Aktion eine
    Reaktion folgt. So fühlt es sich für einen Nutzer störend und unnatürlich an, wenn auf eine
    Aktion des Nutzers keine Reaktion des Systems folgt. Reaktionen können beispielsweise
    eine Live-Validierung von Nutzerdaten oder Ladeanimationen, die dem Nutzer klar
    machen, dass seine Aktion eine Reaktion hervorgerufen hat, er sich aber noch einen
    Augenblick gedulden muss, sein.

  7. Schleifen und Varianten
  8. Wenn eine Microinteraction mehrfach benutzt wird, sollte sie sich im besten Fall
    anpassen. Ein Unterschied sollte spätestens zwischen der ersten und der siebten Microinteraction
    sichtbar sein, idealerweise sollte sie sich an dem Nutzerverhalten orientieren.

Dieses Prinzip der Microinetractions spielte bei der Neugestaltung des Microsoft
Designs, welches im Mai 2017 erstmals vorgestellt wurde, eine bedeutende Rolle. Wie es
auf der Seite von Microsoft heißt:
„These are our foundational elements — the moments that will make our designs perform
beautifully across devices, inputs, and dimensions. This is how we build the next era
of Windows.“

Hier wird von Momenten gesprochen, welche das Design geräteübergreifend schöner
darstellen soll. Insgesamt setzt sich Fluent Design aus 5 Elementen zusammen. Licht,
Tiefe, Bewegung, Material und Skalierung.

Dabei spielen Microinteractions im Fluent Design vor allem bei Licht und Bewegung eine
große Rolle. Der Reveal Effekt, welcher größtenteils die Komponente Licht darstellt,
wurde im Rahmen des Creator Updates ausgerollt. Dieser Effekt beleuchtet die Stelle,
über die die Maus gerade fährt. Wenn mit der Maus geklickt wird erscheint ein Lichtkreis.
Die Interaktion stellt hier die Bewegung der Maus dar. Das Feedback, welches der Nutzer
erhält, sind die Lichtreflexe.

Die zweite relevante Komponente Bewegung, soll laut Microsoft nahtlose Übergänge
zwischen Interaktionen bewirken und so dem Nutzer helfen sich zu fokussieren.
Nicht nur Microsoft, sondern auch Apple oder andere Designer und Designguidelines
verwenden schon seit geraumer Zeit Microinteractions. John Pavlus, der zu diesem
Thema ein Kommentar zu Dan Saffers Buch verfasst hat, behauptet sogar, dass jeder
gute Designer Microinteractions genutzt hat. Letztendlich besitzen wir nun allerdings
durch die fortgeschrittenen Fähigkeiten von Webseiten und Endgeräten die Möglichkeit,
Micromoments besser zu entwerfen und umzusetzen. Diese Möglichkeit sollten wir alle in
der Zukunft nutzen, um unseren Nutzern die beste UX zu bieten.

Quellen

https://www.fastcodesign.com/1672922/the-future-of-ux-design-tiny-humanizing-details
http://microinteractions.com/
http://microinteractions.com/what-is-a-microinteraction/
http://t3n.de/news/ux-designtrend-478358/
https://blog.proto.io/secret-killer-ux-design-microinteractions/