05 Jan

Potenziale für Verbesserungen

Ich halte es für eine der weit verbreiteten Mythen, daß die Technologien, die wir aktuell nutzen, State-of-the-art-Technologien und damit optimal oder die besten sind. Es bestehen unglaubliche Potenziale für Verbesserungen. Durch die Dominanz der bestehenden Anwendungen wird uns darauf aber fast vollkommen die Sicht versperrt.

Wichtig ist dabei meines Erachtens vorwegzuschicken, daß Computerprogramme als Meme ein bestimmtes Verhalten vorschreiben und keine Alternativen zulassen – bestes Beispiel: Google. Michael Michaelis beschreibt das so:

“In kurzer Zeit steht ein Unternehmen im Zentrum des Interesses, welches letztlich auf einem einzigen Algorithmus[1] basiert: auf einer einzigen Idee, einer einzigen in Programmform gegossenen Formel, die alle Dokumente der Welt bewertet und zugänglich macht.”

Computerprogramme und Webanwendungen geben zwar Freiheit in der Nutzung, schränken diese aber immanent durch ihr spezifisches Design ein. Sie sind tendenziell eindimensional (bestes Beispiel: der Facebook “Like”-Button) und schaffen Gewohnheiten, die es den Menschen erschweren, sich zu verändern. Wer einmal von Windows auf Mac (oder umgekehrt) gewechsel hat, weiß, wovon ich spreche.

Man nennt das Lock-in-Effekte, die wiederum auf Netzwerkexternalitäten beruhen. Netzwerkeffekte nutzt mit seinem “Like”-Button, um schnellstmöglich sich überall zu vernetzen und einen de-facto-Standard für soziale Netzwerke zu etablieren. Links spielen dabei eine große Rolle. Je mehr Links auf eine Adresse zeigen, um so wichtiger wird sie. Das ist das Funktionsprinzip von Google.

Verlinkte Inhalte gewinnen dabei an Bedeutung – unabhängig davon, ob sie wirklich wichtig oder sinnvoll sind. Ihr Kontext ist die Relevanz – die nur über Links definiert wird. Jeder SEOler weiß, wie einfach dieses Kriterium und andere Relevanzkriterien (wie z.B. der Quality Score) zu manipulieren sind. Betrachtet man alternative Hypertext-Konzepte wie z.B. Ted Nelsons Transliterature-Konzept wird deutlich wie ungenügend der Ansatz des vielzitierten “Vaters des Webs” Tim Berners-Lee in Wirklichkeit ist. Solange Dokumente und Links keine Historie und die Herkunft der Quellen aufzeigen, wird Content-Diebstahl bzw. “Sharing” oder Content-Leihe schon aus ökonomischen Gründen die Regel sein.

Man stelle sich vor, wenn sich Ted Nelsons humanistisches Design und ein Millicent-Protokoll durchgesetzt hätten. Eine Vielfalt an Inhalten – gerade im so gerne sharenden Web 2.0 – wäre die Folge gewesen, alle Autoren würden angemessen vergütet und die ganze Diskussion über Qualitätsjournalismus im Web hätte sich erübrigt. Man könnte aufgrund der heutigen Sharing-Funktionen wahrscheinlich davon ausgehen, daß eine Phase des Wohlstands unter Autoren ausgebrochen wäre, die bisher nie dagewesen ist.

Leider lief die Entwicklung aber anders. Und aufgrund der Netzwerkeffekte entstehen Pfadabhängigkeiten, die es unmöglich machen das Rad der Geschichte zurückzudrehen. So schafften die Nerds einen neuen Historischen Materialismus den heute leider weder Ochs noch Esel, bzw. Maus oder User aufhalten können.

So zentrale Instanzen wie die Algos der Suchmaschinen bleiben so undiskutiert und ihre Suchalgorithmen geheime Verschlußsache. Statt sie offen zu legen, darüber zu diskutieren und dem besseren zum Erfolg zu verhelfen leiden viele User unbewußt an deren Folgen. Unbewußt oder nichtwissend deswegen, weil sie keine Alternativen kennen. Diese “haben sich ja nicht durchgesetzt”, was damit gleichgesetzt wird, daß diese falsch sein müssen.

Weit gefehlt: wer die Entstehung von Standards in Netzwerken und auch der Evolution (ich erwähne hier nur das Rad des Pfaus) kennt, der weiß, daß es nur darauf ankommt als first mover möglichst schnell eine kritische Masse aufzubauen und dann zu wachsen – fertig ist der de-facto-Standard und/oder das natürliche Monopol. Es ist solange nicht angreifbar, wie kein anderer Riese (oder Tyrann) kommt, der den Altvorderen absetzt.

Eine an sich grausame Welt. Wenn Informatiker wüßten, welche Kreaturen sie da schaffen und diese vom Ergebnis her beurteilen würden, dann würden sie sicher öfters die Lust an ihrem Job verlieren. Doch der Informatik fehlt einfach oft die Philosophie. Dabei ist die Informatik heute ein so zentrales Moment der Wissensgesellschaft.

Softwareprogramme, ihr Design und ihre Auswirkungen frei zu diskutieren, sie überhaupt verbessern und optimierbar zu machen, ja das wäre das Gebot der Stunde. Doch ich fürchte dass wir davon sehr weit weg sind und uns immer weiter davon weg entfernen. Facebook ist 50 Milliarden wert und eine illustre Liste von Investoren wartet nur auf Traumrenditen. Keine guten Voraussetzungen derartige Systeme zu öffnen oder zu verändern bzw. in konkreten Problembereichen wie z.B. Datenschutz zu verbessern.

Jaron Lanier betont immer wieder: “Du bist kein Gadget”. Der Mensch ist kein Spielzeug. Er denkt er macht sich die Welt mittels Software zum Untertan, dabei ist es umgekehrt. Das zu erkennen finde ich sehr wichtig, denn nur so können wir die Potenziale für Verbesserungen heben. Jetzt und in Zukunft.

01 Feb

Kollektive Intelligenz vs. individuelle Intelligenz – oder: Wer ist klüger: Masse oder Individuum?

Das Konzept der “Kollektiven Intelligenz” (die als “Weisheit der Massen” vor allem dem Web 2.0 zugeschrieben wird) wird von Kritikern (wie z.B. Jaron Lanier) oft als Gegenteil der individuellen Intelligenz betrachtet. Befürworter der “Kollektiven Intelligenz” weisen dabei auf die Überlegenheit von Systemen hin, die diese emergente Eigenschaft nutzen:

So formuliert Howard Rheingold in Smart Mobs„The ‚Killer-Apps’ of tomorrow’s mobile infocom industry won’t be hardware devices or software programs but social practices.” (Die Killerapplikationen der mobilen IT-Industrie von morgen werden nicht Hardware oder Software sein, sondern soziale Handlungen.) Dem Leitbild der Schwarmintelligenz wird das Potential unterstellt, Gesellschaft und Märkte zu transformieren. Als Beispiel hierfür werden Smart Mobs wie die Critical Mass-Bewegung angeführt. (Quelle: Wikipedia)

Problematisch mag dabei erscheinen, daß die Individuen, die Ursache des Phänomens “Kollektive Intelligenz” sind auf die Stufe von Ameisen, die ein sehr begrenztes Verhaltens- und Reaktionsrepertoire besitzen, gestellt werden. Zudem kommt ein empirischer Befund in der Diskussion z.B. auf BarCamps auf, der an der Überlegenheit der Kollektiven Intelligenz zweifeln lässt: Unternehmen wie Apple, die streng hierarchisch organisiert sind, keinerlei Partizipation zulassen und weder Blogs, Wikis oder Twitter nutzen, können äußerst erfolgreich sein. Es bestehen also in der Praxis zwei Wahrheiten nebeneinander und ich denke es ist Zeit, aus der These und Antithese eine Synthese zu formulieren.

Der individuellen Intelligenz kommt dabei eine zentrale Bedeutung zu. Denn gäbe es Steve Jobs und Jonathan Ive nicht, gäbe es Apple nicht. Gäbe es Richard Stallmann oder Linus Thorvalds nicht, gäbe es den GNU Kernel und Linux nicht. Es waren also schon immer Individuen, die den Unterschied machen und die Ursache für Intelligenz sind. Dazu treten nun die Möglichkeiten des Internets:

Das Internet vereinfacht wie nie, dezentral verstreutes Wissen der Menschen zu koordinieren und so deren kollektive Intelligenz nutzbar zu machen. (Quelle: Wikipedia)

Das Internet macht also die Identifikation und die Koordination individueller Intelligenz möglich – unter anderem mit dem Effekt, das so etwas wie eine kollektive Intelligenz entstehen kann. Die individuelle Intelligenz ist dabei Teilmenge und notwendige wie hinreichende Bedingung für die Entstehung kollektiver Intelligenz, die letztere kann erstere nicht ersetzen und steht damit auch nicht in Konkurrenz zueinander.

Die Kumulation von Informationen in Gruppen kann zu gemeinsamen Gruppenentscheidungen führen, die oft besser sind als Lösungsansätze einzelner Teilnehmer. Ein oft erwähntes Beispiel ist Francis Galtons Überraschung, dass Besucher einer Vieh-Ausstellung im Rahmen eines Gewinnspiels das Schlachtgewicht eines Rindes genau schätzten, wenn man als Schätzwert der Gruppe den Mittelwert aller Schätzungen annahm. (Die Schätzung der Gruppe war sogar besser als die jedes einzelnen Teilnehmers, darunter manche Metzger.)

Die individuelle intellektuelle Leistung in diesem Beispiel dürfte man als gering ansehen. Spannend wird es, wenn man an komplexere Aufgaben und Herausforderungen denkt, wie z.B. die Realisierung eines gemeinsamen Projekts. Hier kann die kollektive Intelligenz sehr gut geeignet sein, individuelle Intelligenz zu identifizieren, diese einzubinden und gemeinsam als “Super-Organismus” eine Lösung zu schaffen, die der einzelne nicht leisten hätte können. So weit die Synthese: kollektive Intelligenz hilft, die individuelle Intelligenz zu finden, zu bündeln und so zu einem Vorteil zu gelangen.

Allerdings ist aus vielen historischen Erfahrungen auch bekannt, dass die kollektive Intelligenz irren kann. Jaron Laniers Kritik des “Digitalen Maoismus” ist hierbei sehr interessant.

“Lanier ein Kritiker der sogenannten Schwarmintelligenz des Kollektivs. Diese sei nur zur Vorhersage von Statistiken und Zahlenwerten wie Marktpreisen oder Wahlergebnissen geeignet, nicht aber zur Darstellung von Wissen. Systeme wie Wikipedia, die er dem Konzept der Schwarmintelligenz zuordnet, fänden oder verbreiteten keine Wahrheiten, sondern nur die Durchschnittsmeinung einer anonymen Masse. Die Darstellung von Wissen erfordere dagegen persönliche Kompetenz und Verantwortlichkeit. Das Internet fördert nach Laniers Meinung den Glauben daran, dass ein Kollektiv Intelligenz, Ideen und Meinungen hervorbringen könne, die denen des Individuums überlegen seien. Diesen Irrglauben nannte er „Digitalen Maoismus“ und er führe dazu, dass das Kollektiv als wichtig und real angesehen werde, nicht aber der einzelne Mensch.” (Quelle: Wikipedia)

Wenn nun Lanier nur in einigen wenigen Fällen Recht hätte, wäre dann die Frage offen, wie man diese Fälle des Irrtums erkennt und was man dagegen tut. Der Sprung auf eine höhere, ordnende Ebene höherer Intelligenz ist im Konzept der kollektiven Intelligenz ausgeschlossen. Die Masse bestimmt, was gemacht und gedacht wird. Um sich vor derartigen Irrtümern zu schützen, muss sich das Kollektiv auf einen Notausgang, auf ein Prozedere im Fall des Irrtums vereinbaren.

Die Kostenlos-Mentalität gepaart mit Googles Dominanz entpuppt sich z.B. nach Jaron Lanier als solch ein Irrtum:

Das Interessante ist, dass die chinesische Regierung und Google ganz ähnliche Ziele haben: Beide wollen Kontrolle über die Kommunikation, beide haben keine Lösungen für die Zukunft. Google muss sich reformieren. Es ist wie ein Organismus ist, der sich von seinem eigenen Körper ernährt. Es geht eine Weile lang gut, aber dann ist das Verhungern unausweichlich. Statt nur Anzeigen zu verkaufen, muss es anfangen, Geld zu verlangen für die Inhalte, die es anbietet, und dieses Geld an die Autoren auszuzahlen. Sonst ist die Zivilisation, die es im Internet verfügbar machen will, irgendwann tot.

Gerade in solchen Fällen wünscht man sich einen von allen legitimierten Prozess der individuelle und kollektive Intelligenz mit ihren jeweiligen Stärken einbindet. Vielleicht sollten wir hier über einen neuen Gesellschaftsvertrag nachdenken – auf jeden Fall bedarf es hier ganz neuer Ansätze und Konzepte, die global diskutiert werden müssen, denn die Probleme der Zukunft werden nicht kleiner und die Zahl der Beteiligten nicht geringer.