2 Definition Web 2.0

Was beinhaltet das „Buzzword“ Web 2.0?

Nicht erst seit einige Firmen dieses als Marketing-Schlagwort verwenden, ist unklar, was genau der Begriff „Web 2.0“ überhaubt bezeichnen soll. Web 2.0 ist keine Technologie, die sich durchgesetzt hat, kein neues Protokoll und keine neue Programmiersprache. Es ist vielmehr eine Verbindung vieler kleiner Faktoren, die in ihrer Kombination eine neue Sichtweise auf das Internet ergeben. Dieses wurde durch eine Rückbesinnung auf die Ursprünge des Internets möglich, die klar werden liess, dass dieses Medium nicht nur als Verkaufsplattform und zur Spamverteilung genutzt werden sollte (vgl. die Zeit vor der Dot-Com-Blase), sondern auch dazu dienen kann, Menschen zusammenzuführen, um mit ihnen zu kommunizieren und Informationen auszutauschen bzw. ein Medium zu schaffen, welches wieder von User für User nutzbar ist. Diese neue Sichtweise, gepaart mit Technologien wie Ajax, RSS, Ping, Mashup, offenen Schnittstellen und Social Networking, kann als Definition für das Web 2.0 genutzt werden. Im folgenden Abschnitt wird kurz auf die Entwicklungsschritte des Web eingegangen. Dabei wird auf Basis der Theorien von Tim O’Reilly eine ausführliche Definition des Web 2.0 erarbeitet [4].

2.1 Das Web in der Zeit von 1988-1995

Die Anfänge des Web 2.0 entwickelten sich bereits in der Zeit um 1988. Dabei wurde das Web vorrangig für die Kommunikation von Wissenschaftlern oder Universitäten untereinander und dem Militär genutzt. In dieser Epoche war das Web ein schreibendes Medium und es wurde für Mail und Datenkommunikation genutzt. Dabei waren die ersten Browser bereits so aufgebaut, dass jeder Nutzer Inhalte selbst einstellen und editieren konnte. Hier wurden die Grundsteine für das „two way Web1)“ gelegt, welche aber erst im Web 2.0 umfassend realisiert werden sollten [1] [27].

2.2 Das Web in der Zeit von 1996-1997

Das Web wie wir es aus dem Jahre 1996 kennen basierte vorrangig darauf, statische HTML- Seiten für die Selbstpräsentation oder den Verkauf respektive die Werbung von Produkten ins Netz zu stellen. Die Option, dass Inhalte editiert werden, war nicht mehr erwünscht, ebenso wenig wie der Austausch von Inhalten und die Verlinkung zu anderen Webseiten. Die Betreiber versuchen die User auf ihren Seiten zu halten und veranlassen sie so zum reinen Konsumieren von Inhalten [1].

2.3 Das Web in der Zeit von 1997-2001

In der Zeit zwischen 1996 und 2001 wurde das Web dynamisch. Die angewandten Lösungen waren allerdings – meist aus Kostengründen – nur auf Shops und Foren begrenzt, die noch härter um Hit & Eyeballs (Seitenaufrufe) kämpfen. Jeder Betreiber wollte die Nutzer auf seinen Seiten halten. Dadurch entstand eine mangelnde Vernetzung der Informationen und Inhalte. Ein Anwender hatte nur begrenzt die Chance, Daten selbst einzugeben. Nach dem Zusammenbruch der Dot-Com-Blase zogen sich die meisten Investoren wieder zurück. Dadurch wurde der Weg frei für die Open-Source-Gemeinde, die durch Offenheit und Zusammenarbeit den Grundstein für den Erfolg des Web 2.0 legte [1].

2.4 Web 2.0

Der Begriff „Web 2.0“ wurde durch Tim O’Reilly und John Battle geprägt, die Anwendungsmöglichkeiten und interessanten Entwicklungen seit der Dot-Com-Blase unter dem Synonym Web 2.0 zusammenfassten (diese waren nicht unbedingt neu, wurden aber in einem anderen Zusammenhang betrachtet und neu definiert). Einen Eindruck von der Verfügbarkeit der Technologien, Verhaltensweisen und Anwendungen gibt Abbildung 1: Es ist zu erkennen, wie lange diese jeweils bereits vor dem Web 2.0 existierten und benutzt wurden [2].



Abbildung 1: Technologiebaum Web 2.0 [23]


Dieses neue (alte) Web baut (wieder) auf Offenheit, Freiheit und Standardisierung auf. Möglich wurde dieses, wie bereits erwähnt, durch die starke Open Source Bewegung, die nach dem Platzen der Dot-Com-Blase zunehmend im Internet an Einfluss gewann, nachdem die großen kommerziellen Organisationen das Interesse am neuen Markt verloren hatten. Sie entwickelten Anwendungen, Schnittstellen, Frameworks und stellten diese allen zur Verfügung. Dadurch ist es möglich, attraktive Anwendungen kostengünstig herzustellen, die früher nur selten bezahlbar waren. Offene Schnittstellen machen einen Datenaustausch von unterschiedlichen Systemen und Anwendungen möglich (siehe Flickr, Google Maps, …). Zusätzlich ist Standardisierung ein weiterer wichtiger Faktor für den Erfolg des Web 2.0, da nur durch einheitliche Protokolle und Formate wie XML, REST, GML/KML, SOAP, RSS/Atom (siehe Kapitel 3) der Gebrauch von Schnittstellen (API’s) überhaupt erst möglich wurde. Die Freiheit in diesem Web besteht zum großen Teil aus der Möglichkeit des Nutzers, Daten überall zu publizieren. Web 2.0 Systeme basieren auf der Mitarbeit der Benutzer, die Inhalte verfügbar machen, pflegen, erweitern und verbessern bzw. darüber (mitunter lang und ausgiebig) diskutieren. Durch Ajax ist zudem eine flache Navigation und starke Interaktivität der Seiten realisiert worden. Entgegen vieler Behauptungen muss ein erfolgreicher Web 2.0 Service aber keineswegs immer nur Ajax verwenden. Es ist vielmehr nur eine der Technologien, die zurzeit auf Grund der verfügbaren Bandbreite erfolgreich sind. (weiterführend Kapitel 3). Des Weiteren resultiert aus höheren Übertragungsraten eine Änderung im Kommunikationsverhalten, wodurch auch die Möglichkeiten der mobilen Nutzung von Software und Internetanwendungen stark angestiegen sind. All diese Faktoren tragen gemeinsam dazu bei, dass das Internet wieder eine erfolgreiche Entwicklung erfährt [3]. Einen groben Überblick dieser Veränderungen im Web 2.0 geben die Vergleiche in Abbildung 2, die die Wandlung von Zusammenarbeit und Offenheit im neuen Web illustriert.


2_web1.0vs_web2.0.jpg


Abbildung 2: Unterschiede Web 1.0 – Web 2.0 (O’Reilly) [2]


An diesem Punkt soll aber darauf hingewiesen werden, dass es trotz der Zusammenfassung von einigen Unterschieden und der Verwendung als Marketingschlagwort keine eindeutige Definition von Web 2.0 gibt. Das Internet entwickelt sich stetig weiter und es ist nur möglich, Teilabschnitte grob zusammenzufassen. Eine realistischste Betrachtungsweise kann Abbildung 3 vermitteln: das Web 2.0 steht im Zentrum der Beschreibung, die unterschiedlichen Entfernungen und Größen stellen jeweils die entsprechende Bedeutung für die zugehörigen Prinzipen und Praktiken dar. Diese Art der Illustration ermöglicht es, eine genaue Definition zu umgehen.



Abbildung 3: Web 2.0 System [2]


2.5 Die 7 Prinzipen des Web 2.0

Tim O’Reilly ist durch seinen Konferenzbeitrag im Herbst 2004 (USA) zu einem Pionier des Web 2.0 geworden. Seine Ausführungen und Definitionen gelten als wegweisend in der Web-Entwicklung. In dieser Konferenz wurden die wichtigsten Entwicklungen und Erweiterungen des Internet zusammengefasst. Diese werden bis heute von vielen Menschen verwendet, kommentiert und verbessert. Sie stellen einen großen Teil des in Abbildung 3 dargestellten Diagramms dar und können gleichzeitig als repräsentative Zusammenfassung von Web 2.0 dienen. Im folgenden Abschnitt soll auf die wichtigsten Punkte näher eingegangen werden.

2.5.1 Das Web als Plattform

Das erste Prinzip ist das Web „als Plattform“ zu sehen. Dieses wurde bereits zum Teil von DoubleClick2) oder Akamai3)vor dem Web 2.0 angestrebt. Weiterhin ist die veränderte Sichtweise auf Softwarelösungen durch die Einführung von Multiplattformen4) (siehe auch Punkt 2.5.6) zu benennen. Diese hat zur Folge, dass Webanwendungen als Service angeboten, zentral verwaltet und kontinuierlich verbessert werden, wobei der Nutzer direkt oder indirekt für die Verwendung bezahlt. Ein Zitat von Tim O’Reilly aus der ersten Web 2.0 Konferenz erläutert dies näher, indem es einen Vergleich von Netscape (Web 1.0) und Google (Web 2.0) zieht, bei dem entscheidende Punkte auf der Suche nach einer Beschreibung abgeleitet werden können. Darin heißt es:

„ … Google benötigt vor allem Kompetenzen in einem Bereich, den Netscape niemals brauchte: Datenbank Management. Google ist nicht nur eine Ansammlung von Software-Tools, es ist eine spezialisierte Datenbank. Ohne Daten sind die Tools nicht nutzbar, ohne die Software sind die Daten nicht handhabbar. Der Wert der Software verhält sich proportional zu Ausmaß und Dynamik der Daten, die sie verwalten soll. Man glaubte an die Ansicht der 90er Jahre, dass es beim Web um Verbreitung und nicht um Beteiligung geht…“

Damit wird die Wandlung des Internet beschrieben, bei der es nicht mehr auf das Konsumieren von Dateninhalten ankommt. Vielmehr werden Services geschaffen, die durch freiwillige und kostenlose Mitarbeit der Nutzer Informationen sammeln und anderen wieder zur Verfügung stellen (siehe Punkt 2.5.2). Dabei ist für den Erfolg die breite Masse („The Long Tail“5)) einer Plattform entscheidend. Dieses wird zurzeit aus zwei Richtungen heraus beschrieben: Zu unterscheiden sind der Marketing-Aspekt und der Entwicklungs- bzw. Verwendungs-Aspekt.

Marketing-Aspekt: Er besagt, dass sich Werbung und der Produktverkauf weitaus effektiver gestalten, wenn man mehrere einzelne Seiten im Internet bedient und vermarktet. Ein gutes Beispiel dafür ist Google Adsense6). Durch diesen Service kann Werbung leicht auf jede noch so kleine Webseite eingebunden werden. Anhand von Metadaten der Seite wird sie mit personalisierter Werbung versehen. Entwicklungs- und Verwendungs-Aspekt: Dieser beschreibt die Anpassung von Webservices auf das Nutzerverhalten, um die breite Masse anzusprechen, sowie die Sammlung und Beschreibung von Daten und Metainformationen. Dadurch kann ein breites Spektrum des Nutzerwissens dargestellt werden, in dem die gesammelten Informationen in ihrer Schnittmenge eine wahrheitsgetreue Sicht liefern (vergl. 2.5.2, 2.7.2) [2] [22].

2.5.2 Die Nutzung kollektiver Intelligenz

Ein weiteres zentrales Prinzip, welches für den Erfolg von Web 2.0 steht, ist die Nutzung von kollektiver Intelligenz. Zurzeit zeichnet sich ein Trend bei allen erfolgreichen Internetfirmen ab, die sich diese Eigenschaft auf verschiedene Weise zu Nutze machen. Zum einen verwenden Yahoo oder Google diese Gemeinschaft, um ein Verzeichnis von Informationen aufzubauen, wobei sie die Daten durch die kollektive Arbeit von allen Anwendern auswerten. Neuere Firmen wie del.icio.us7) und Flickr8) verwenden dieses auch als „Folksonomy“ (vergl. 3.5) bezeichnete Verfahren für das gemeinsame Beschreiben (auch Taggen genannt) von Inhalten (Bilder, Bookmarks, etc). In diesem Zusammenhang ist auch die Online-Enzyklopädie Wikipedia zu nennen, die ihren Grundgedanken aus einer Maxime von Eric Raymond9) (Def. für Open Source Software) ableitet:

“Mit genügend wachsamen Augen werden alle Bugs beseitigt“.

Dadurch wurde ein Informationssystem geschaffen, bei dem alle Nutzer Information (Daten) eintragen und sie wechselseitig und selbständig verbessern und erweitern können. Ein weiterer wichtiger Punkt für die Nutzung von kollektiver Intelligenz sind die im Web 2.0 populären Webblogs, die durch RSS, Ping und Trackbackping (siehe 3.3 und 3.5) in letzter Zeit einen hohen Verbreitungsgrad erreicht haben und sich immer größerer Beliebtheit erfreuen. Ihre Zahl wird auf rund 75 Millionen (März 2007) geschätzt, wobei alle 1,4 Sekunden (Abbildung 4) ein Blog hinzukommt. Durch die Verwendung dieser Techniken bzw. die Verknüpfung mit Community-Servern (siehe 3.5) entsteht ein inkrementelles Web, wodurch Informationen aktuell und schnell verteilt werden können. Zugleich stellt die kollektive Intelligenz einen Filter für die Informationen dar [28]. Zusammenfassend kann man dieses Prinzip mit den Worten von James Suriowecki10) am besten als “die Weisheit der Massen“ beschreiben.

Dabei sind die Zuschauer von einst (Konsumenten im Web 1.0) die aktiven Betreiber von heute (Web 2.0) [2] [22].

—-


Abbildung 4: Blogstatistik [28]


2.5.3 Daten als Kapital

Web 2.0 Anwendungen basieren immer stärker auf einzigartigen Datensammlungen. Dadurch schaffen sich Firmen wie Google oder Yahoo ihren enormen Wettbewerbsvorteil. Jeder erfolgreiche Internet-Service beruht heutzutage darauf, Daten aufzunehmen, in einer Datenbank abzulegen und aufgearbeitet wieder zur Verfügung zu stellen – in einem solchen Ausmaß, dass SQL auch als das neue HTML gesehen wird. Datenbanken bzw. Daten sind der zentrale Punkt bei Web 2.0 Anwendungen. Tim O’Reilly bezeichnete sie als Infoware, in der die Daten – wie im vorherigen Abschnitt beschrieben – oft durch kollektive Intelligenz erstellt werden. Dabei wird eine Verknüpfung zwischen den Punkten 2.5.2 (Kollektive Intelligenz) und 2.5.3 (Daten als Kapital) deutlich, wodurch ein neues Bewertungssystem von Webservices abgeleitet werden kann:

Ein Webservice ist nur so gut wie die Daten, die er in der Lage ist zu sammeln, zu verwerten und wieder zur Verfügung zu stellen. Ein Dienst gewinnt immer mehr an Bedeutung und Vollständigkeit, je mehr Menschen ihn nutzen und sich beteiligen.

Aber wem gehören die Daten?

Vielleicht sollte man sich die Allgemeinen Geschäftsbedingungen einiger Webservices einmal genauer durchlesen, bevor man Daten zur Verfügung stellt. Zum Beispiel erhebt Amazon in seinen Copyright-Rechten Anspruch auf jede abgegebe Beurteilung, so dass diese theoretisch nicht an anderer Stelle im Web verwendet werden dürfte. Welche Rechte haben User dann noch an ihren eigenen Daten, die sie so freizügig preisgeben? Man kann in den meisten Fällen davon ausgehen, dass der Nutzer durch die Eintragung alle Rechte an den Webservice abtritt. Dies soll keine negative Bewertung des kollektiven Erfassens von Informationen sein, sondern vielmehr ein Hinweis, genau zu überlegen, wo man überall Daten hinterlässt („das Netz vergisst nichts“) [2] [22] [35].

2.5.4 Abschaffung des Software Lebenszyklus

Die neue Sicht auf Webanwendungen und ihre Weiterentwicklung zu Webservices führt in diesem Zusammenhang auch zu einer anderen Auslieferungscharakteristik. Grund hierfür ist die Verlagerung von Desktopanwendungen in das „Betriebsystem Internet“11). Dadurch sind tägliche oder stündliche Erneuerungen möglich, wodurch sich diese immer in einem Beta-Zustand befinden. Dabei ist auch ein Wandel der Definition von Software zu beobachten. Diese kann mit Verwendung als Webservice eher als Dienstleistung bezeichnet werden. An dieser Stelle wird auch eine Verbindung zu der in Punkt 2.5.2 behandelten, „kollektiven Intelligenz“ deutlich. Diese sorgt dafür, dass Echtzeitbeobachtungen des Nutzerverhaltens oder die Mitwirkung von Usern eine schnellere bzw. effektivere Verbesserung und Erweiterung des Services zur Folge haben. Dadurch entwickelt sich ein völlig neues Auslieferungsmodell, welches sich von dem einer Desktopanwendung unterscheidet. Dies kann anhand eines Vergleichs der Softwareauslieferung von Flickr und Microsoft erläutert werden (Abb.5):



Abbildung 5: Release History Microsoft vs. Flickr [5]


Microsoft benötigt für die Weiterentwicklung bzw. Auslieferung seiner Software weitaus mehr Zeit als der Webservice Flickr, denn es kann diese nicht in einem Beta-Zustand verkaufen und dann mit den Kunden weiterentwickeln, wie es im Internet der Fall ist. Vielmehr müssen diese Systeme bei der Auslieferung theoretisch die vollständige Funktionalität anbieten, die im Vorfeld angekündigt und bezahlt worden ist. Des Weiteren kann bei Systemen, die serverseitig lagern, der Updateprozess schneller bewerkstelligt werden. Bei einem fehlerhaften Update bzw. wenn dieses nicht die gewünschte Akzeptanz beim Nutzer erreicht, kann es in wenigen Sekunden wieder vom System genommen und die alte Version zurückgespielt werden. Bei allen Desktop-Anwendungen wissen die Hersteller dagegen nicht, wie die Software durch andere Programme oder Treiber in Mitleidenschaft gezogen bzw. verändert worden ist. Dadurch ist es schwer, ein hundertprozentig funktionierendes Update für eine Version zu liefern. An diesem Punkt müssen Webservices nur auf die Spezifikationen der verschiedenen Browsertypen achten. (Allerdings werden auch hier meist aus Kostengründen nur vorherrschende Programme wie IE oder Mozilla angepasst und Safari-Nutzer sind zum Teil ausgeschlossen [2] [22]).

2.5.5 Lightweight Programming Models

Webservices kann man grob in zwei Kategorien einteilen: Die einen nutzen strenge Formalien wie SOAP (Siehe Kap. 3.6), die anderen verwenden einen einfachen Aufbau mit XML und HTTP à REST (Siehe Kap. 3.6). Die zweite Variante findet bei den Webdesignern eine Verbreitung von 95%. Daraus kann ein Wunsch nach einem einfachen Aufbau von Webservices abgeleitet werden. Als Beispiel sei an dieser Stelle auf Google Maps als „GIS-Lösung“[14] verwiesen, die durch den einfachen Aufbau und die Verwendung von Ajax einen durchschlagenden Erfolg gegenüber schon länger existierenden Web-basierten Kartendiensten wie MapQuest[15] und MapPoint (Microsoft)[16] hatte. Ein weiterer wichtiger Punkt des Lightweight-Programming-Models (LPG) lässt sich hieran demonstrieren: Durch die offene Schnittstelle (API) wird jeder Person die Möglichkeit eröffnet, diese Anwendung zu nutzen und für ihre Zwecke zu verwenden bzw. zu erweitern. Dieser Punkt war bei allen herkömmlichen Anbietern nur mit Hilfe eines förmlichen Vertrages und unter hohem Aufwand möglich. So können neue Arten von lose gekoppelten Diensten entstehen, die sich von der traditionellen Denkweise der IT lösen und dadurch einen grundverschiedenen Aufbau darstellen. Es ist des Weiteren eine Kooperation bei Web Services nach einem „Endnutzer zu Endnutzer“- Prinzip möglich, ohne dass es eine Koordination des Anbieters erfordert. Resultierend aus der Einfachheit von RSS, XML, Ajax, etc. reduzieren sich aber auch die Barrieren der Wiederverwendbarkeit. Folglich sinkt als negativer Effekt auch der Schutz des geistigen Eigentums. Als positiven Effekt muss man aber wiederum das Prinzip der kollektiven Intelligenz sehen (2.5.2), wonach sich ein Webservice schneller zu den Bedürfnissen des Users entwickelt. Damit vollzieht sich bei diesen Anwendungen auch eine Änderung der AGBs[17] von „alle Rechte vorbehalten“ in „einige Rechte vorbehalten“. Als weiterer positiver Effekt ist das Kombinationsprinzip zu nennen, das Folgendes festlegt:

„Wenn bereits alle grundlegenden Services erfolgreich existieren, kann ein neuer Nutzen aus der Kombination dieser gewonnen werden.“

Prinzipiell kann somit angenommen werden, dass Web 2.0-Firmen in Zukunft auch durch die Verbindung von Diensten innovativer und erfolgreicher sein werden als Firmen, die das Web 2.0 nicht nutzen[2] [22].

2.5.6 Multiplattforming

Durch die Entwicklung von Anwendungen in einem Browser, wie es im Web 2.0 gemacht wird, kann zum ersten Mal der Gedanke der Plattformunabhängigkeit realisiert werden. Durch das Internet als Trägermedium und entsprechende Clients können mehr Menschen auf verschieden Geräten erreicht werden als seinerzeit durch die Entwicklung von Java-Anwendungen gehofft wurde. Schon Dave Stutz[18], ein ehemaliger Microsoft- Entwickler betonte: “Nützliche Software, die über die Grenzen einzelner Geräte hinaus geschrieben wurde, wird die hohe Marge für lange Zeit beherrschen“.

Es muss bei einem Webservice also nicht immer ein Browser als Anzeigemedium dienen. Die Entwicklung von Services in Widgets oder in alternativen Clients wie Handy/PDA gewinnen zurzeit immer mehr an Popularität. Diese sind prinzipiell von der gleichen Struktur und ihre Anwendungs- und Nutzerdaten werden meist auch serverseitig bezogen. Resultierend daraus sind auch verstärkt Bemühungen unternommen worden, Services von Anfang an als verteiltes System zu implementieren. Durch diese Einbindung von Geräten werden völlig neue Anwendungsmöglichkeiten sichtbar, besonders wenn man daran denkt, dass diese Clients in Zukunft nicht nur in der Lage sein werden zu konsumieren, sondern auch Daten für andere Dienste oder Personen bereitzustellen (zu produzieren), getreu dem Motto „Jeder Sender ist auch ein Empfänger“. Interessant ist dieser Punkt auch für die Idee des Bürgerjournalismus [2] [22].

2.5.7 Benutzerführung

Webdienste waren in der Vergangenheit kaum mit den Desktopanwendungen vergleichbar. Durch die Verfügbarkeit schnellerer Anbindungen und die Nutzung von Ajax können im Web 2.0 nun diese Benutzerführungen (Rich User Experience) bereitgestellt werden. Dadurch stehen die Anwendungen im Web denen vom Desktop um nichts mehr nach. Im Gegenteil, sie bieten Vorteile, die mit einer Desktopanwendung nur schwer zu realisieren sind. Zusätzlich liegen diese vollständig mit den Userdaten auf dem Server, was zur Folge hat, dass kein Speicher auf einem lokalen Gerät benötigt wird. Des Weiteren gibt es auch viel versprechende Entwicklungen im Bereich des „Office im Web“. So können z.B. mit Hilfe des Textverarbeitungsservices Writely[19] mehrere Menschen an einer Textversion gleichzeitig arbeiten und alle gängigen Formate im- und exportieren. Die Firma Ajax13.com (Abbildung 6) hat die vier wichtigsten Komponenten des Office Paketes bereits in einer interessanten Betaversion vollständig im Browser implementiert bzw. in ihrer Funktionalität nachempfunden. Zum Teil werden diese Tools – wie z.B. Thinkfree[20] – auch kostenlos und mit freiem Speicher (in diesem Falle 1GB) angeboten. Diese Art von Programmen sind zwar noch nicht mit einem vollständigen Desktopprogramm wie Word oder Exel vergleichbar, sie sind aber für die meisten Zwecke ausreichend und bieten, wie Writely, Funktionen die in einer lokalen Anwendung nur schwer realisierbar sind. Darüberhinaus werden die ständig weiterentwickelt und verbessert (vgl. 2.5.4). Weitere erfolgsversprechende Re-Implementierungen von Desktopanwendungen sind zum Beispiel der Terminkalenderservice „Google Gmail[21]“, der Bildbearbeitungsservice Neximage[22] oder der MP3-Player Ajax Tunes[23] [2] [22].





Abbildung 6: Ajax Office Implementierung [8]


1)
Ein Web das in beide Richtungen agieren kann „jeder Empfänger ist auch ein Sender“ [36].
4)
Das Prinzip der Multiplattformen, welche die Darstellung von Inhalten auf PC, Palm oder Handy möglich macht und die Verlagerung von Desktop- Funktionen ins Web, wodurch sich die Anwendungsschicht, wie bei einem Thin Client, verschiebt.
5)
Dieser Punkt wird ausführlich in dem Buch von Chris Anderson „The Long Tail. Why the Future of Business Is Selling Less of More“ beschrieben.
11)
Alle Anwendungen laufen in dem Browser oder einem andern Alternativen Client und werden zentral auf einen Server bzw. in einem verteilten System verwaltet
web_2.0.txt · Last modified: 2007/12/04 11:55 by admin
CC Attribution-Noncommercial-Share Alike 4.0 International
Driven by DokuWiki Recent changes RSS feed Valid CSS Valid XHTML 1.0