Microsoft .NET versus Sun ONE

13.02.2001 von ULRICH BANTLE  und Mike Hartmann
Mit neuen Diensten können Dotcoms endlich profitabel arbeiten. So zumindest die Aussage von Microsoft und Sun. Doch was steht hinter .NET und ONE und was ändert sich für Unternehmen, Entwickler und Benutzer?

Stellen Sie sich vor, Sie sind während der CeBit in Hannover unterwegs. Es ist 20 Uhr und es war ein langer Messetag. Plötzlich erhalten Sie eine Nachricht auf dem Handy. "Etwa 50 Meter von hier ist ein italienisches Restaurant. Die Tagesspezialität ist Lasagne al forno. Soll ich Ihnen einen Tisch reservieren?"

So in etwa könnte ein zukünftiges e-Commerce-Modell aussehen. Ihr Serviceprovider weiß, dass Sie am liebsten gegen 20 Uhr zu Abend essen. Dabei bevorzugen Sie italienische Speisen und mögen es gern scharf. Der Terminkalender hat für diesen Zeitrahmen keine Termine vorgesehen und im Restaurant ist auch noch ein Tisch frei. Anhand dieser Daten und Ihres aktuellen Standortes in der Stadt kann der Provider Ihnen diesen Vorschlag unterbreiten.

Utopie? Nein. Orwellsche Visionen? Schon eher, aber so kann das Leben in nicht allzu ferner Zukunft aussehen. Die großen Softwarefirmen bauen schon jetzt an einer Infrastruktur. Und ganz vorne weg Microsoft und Sun. Nicht nur, dass sich die beiden Konzerne wegen Java ganz gewaltig ins Gehege kamen, jetzt geht es ums Ganze: um das Internet der Zukunft.

Microsoft will mit seiner .NET-Strategie das Internet revolutionieren. "Wir machen das Internet profitabel", tönte Microsofts Chef-Software-Architekt Bill Gates auf der Eröffnungsveranstaltung zur .NET-Roadshow in Düsseldorf. Sun hält mit seiner ONE-Strategie dagegen. "Lasst euch nicht in das Schema eines Herstellers pressen und setzt auf offene Standards", so lautet dort das Credo. Ein klarer Seitenhieb gegen Microsofts Komplettpaket.

Beide Unternehmen bewerfen sich regelrecht mit Dreck. So hat Microsofts Presseagentur unlängst einen Brief an amerikanische Journalisten versandt, in dem einige -vermeintlich - unangenehme Fragen gestellt wurden. Sun hat diese Fragen mitsamt Antworten auf seiner Website veröffentlicht.

Doch was steckt eigentlich hinter den "Visionen" von Bill Gates und Scott McNealy? Wie soll ihrer Meinung nach das Internet der Zukunft für Benutzer, Entwickler und Geschäftsleute denn nun aussehen?

Quo vadis, Internet?

Das Internet ist dynamisch. Soll es auch sein. Vor nur wenigen Jahren hat es als reine Präsentationsplattform für Informationen angefangen - vor allem für wissenschaftliche Inhalte. Fragmente dieser Idee finden sich immer noch in den Strukturen und besonders in den HTML-Tags. Verlinkungen für Querverweise zwischen Publikationen sollten die Bibliografien für Veröffentlichungen vereinfachen. Tags wie Emphasis, Abbr oder Citation erinnern ebenso daran. Doch im Internet ist nur eines stetig, und das ist der Wandel.

Ganz besonders der Wandel der Benutzerschar. Immer mehr PC-Benutzer haben dank günstiger Tarife und schnellerer Zugänge Zugriff auf das "Netz der Netze".

Außerdem steigen Datenübertragungsrate und Performance der Server im Internet ständig. Und neben dem herkömmlichen PC als Zugangsgerät kommen jetzt auch Handhelds, PDAs oder Handys mit immer größerer Leistungsfähigkeit zum Einsatz. Sun schätzt, dass bis zum Jahr 2002 nur noch weniger als 50 Prozent aller Internetzugriffe über einen Desktop-PC erfolgen werden. Bis 2003 wird es weltweit 500 Millionen mobile internetfähige Geräte geben. Dabei sollen rund 45 Prozent aller Benutzer sowohl mobil als auch stationär ins Internet gehen.

Für den Benutzer stellt sich nun das Problem, die Daten auf diesen Geräten untereinander zu synchronisieren und möglichst - etwa im Falle eines Gruppenterminkalenders - auch per Fernzugriff erreichbar zu sein.

Laut Sun und Microsoft ist die einzige Lösung ein intelligentes, kontextsensitives Netzwerk, das seine Daten an beliebige Geräte übermitteln kann. Und das soll möglichst ohne Krücken wie WAP erfolgen, das spezielle Server und Datenformate benötigt. Der Slogan lautet unisono bei Sun und Microsoft: "any place, any time, any device". Und damit ganz ähnlich wie jener der bereits vorhandenen UMS-Dienste - nur dass die beiden Konzerne ihn deutlich weiter fassen.

Intelligente Webdienste

Die Strategien von Microsoft und Sun zielen auf intelligente Webseiten, von denen Scott McNeally schon heute sagt: "Sie sind für das Informationszeitalter dasselbe, was austauschbare Komponenten für die Industrialisierung waren. Wir stehen kurz vor der explosionsartigen Verbreitung neuer Dienste, die einfacher, schlauer und zugänglicher für Männer, Frauen und Kinder sind."

Im Klartext heißt das bei beiden Konzernen gleichermaßen, dass diese "neuen Dienste" sich alle verfügbaren Daten über einen Benutzer zusammenstellen und daraus eine bessere, dynamischere und persönlichere Webumgebung für den Nutzer schaffen. Solche Daten sind beispielsweise

Daneben soll auf eine Vielzahl weiterer Fakten zugegriffen werden, die sich aus dem jeweiligen Kontext ergeben.

Um diesen Gegebenheiten Rechnung zu tragen, entwickeln sowohl Microsoft mit .NET als auch Sun mit ONE (Open Network Environment) Strategien, die auf Komponenten basieren. Jedes mögliche Angebot wie beispielsweise Aktienkurse, Sportergebnisse, Richtungsanweisungen, E-Mail oder Kalender wird als eine Dienstkomponente angesehen und bereitgestellt. Dabei ist egal, ob hierfür ein Programm mit dynamischer Datenausgabe erstellt wird, die Informationen statisch abgelegt sind oder dynamisch aus mehreren Quellen (anderen Diensten) stammen. All diese Dienstkomponenten werden in einem Verzeichnis mitsamt allen wichtigen Informationen über Art und Weise des Abrufs abgelegt. Von dort können Benutzer, Firmen oder auch andere Anwendungen und Dienste die Informationen abfragen und damit auf diese Dienste zugreifen. Damit eine solche Integration und Interoperabilität möglich wird, müssen die Dienste standardbasierte Strukturen zur Darstellung kontextueller Informationen verarbeiten und den Datenzugriff über standardbasierte Programmierschnittstellen zur Verfügung stellen.

Das ist besonders wichtig für die zukünftigen Pläne diverser Anbieter, Software nicht mehr als Paket zu verkaufen, sondern die Funktionen über Applikationsserver im Netz anzubieten - wie etwa Suns StarOffice über das Sun ONE Webtop (vormals Star Portal) oder Microsofts Bestreben, sein Office über das Web anzubieten.

Gemeinsamer Nenner für Webdienste

Damit die verschiedenen Webservices untereinander und mit dem Benutzer und seinen verschiedenen Zugangsgeräten kommunizieren können, benötigen sie eine gemeinsame Basis. Reines HTML ist hier nicht geeignet, denn es vermischt die darzustellenden Daten mit den Darstellungsanweisungen und weiteren Ausführungsanweisungen wie etwa Javascript. Ein Dienst oder Zugangsgerät kann die Daten nicht extrahieren, um sie gegebenenfalls an die eigenen Charakteristiken anzupassen. Unterschiede bestehen beispielsweise in den Anzeigemöglichkeiten (Größe, Farbe), in der Verbindung zum Netz oder bei Ausführung spezieller Codes.

Der erste wichtige Schritt ist die Trennung von Daten und Darstellung. XML kristallisiert sich hier als wichtigster Standard heraus, denn es ermöglicht eine plattformunabhängige Darstellung aller möglichen Daten. Zudem ist XML flexibel genug, um an neue Gegebenheiten angepasst zu werden. Auch in diesem Punkt sind sich Microsoft und Sun einig: XML ist die Grundlage für intelligente Webdienste.

Die einzelnen XML-Dialekte zur Übertragung und Darstellung der Daten sind beispielsweise XHTML, VoiceXML oder WML. Der Auslieferungsdienst sorgt zudem für die Transformation der XML-Daten über XSLT, wenn der Client die Umwandlung nicht selbst vornehmen kann oder will. Und genau hier wird es spannend, denn der Dienst muss dem Client zunächst die angebotenen Daten beschreiben und ihm somit die Auswahlmöglichkeit geben. Wie genau dieses Protokoll auszusehen hat, darüber sind sich Microsoft und Sun nicht einig. Hier stehen diverse Vorschläge im Raum: etwa Microsofts SOAP, Suns ebXML und die W3C XP-Spezifikation (XML-Protocol), die sich allerdings noch in der Entwicklung befindet.

Bestandteile intelligenter Webdienste

Damit die Vielzahl angestrebter Funktionen und Möglichkeiten angeboten werden kann, sind neben den Standards noch eine Reihe weiterer Dienste erforderlich. Will ein Anwender etwa unabhängig vom aktuellen Standort und dem benutzten Gerät Zugriff auf seine Daten haben, müssen diese im Netz abgelegt sein anstatt auf seinem PC oder PDA. Um zu gewährleisten, dass niemand unberechtigt auf die persönlichen Daten zugreift und sie benutzt, muss die eindeutige Identität des Benutzers festgestellt werden. Und dazu wiederum ist eine digitale ID im Sinne eines Ausweises nötig, die im Netz abgelegt wird, wie sich Microsoft das beispielsweise mit passport.com vorstellt.

Eines der zentralen Elemente beim Internetzugang ist immer noch die Kommunikation. Dementsprechend sind Instant Messaging, E-Mail, Fax oder Sprache ebenfalls integraler Bestandteil jeglicher Netzstrategie. Allerdings um den Aspekt erweitert, dass sich die Nachrichten über jegliches Device abrufen lassen.

Personalisierung soll dem Benutzer die Möglichkeit geben, Einfluss auf die Art und Weise des Datenzugriffs zu nehmen. Welcher Service darf inwieweit auf Daten zugreifen und zu welchem Zweck. In diesem Punkt setzen die beiden Kontrahenten auf den P3P-Standard des W3C. Es ist jedoch noch nicht abzusehen, wie weit die Konfigurationsmöglichkeiten gehen. Besonders bei Microsoft ist zu befürchten, dass es, ähnlich wie bei Cookies, lediglich globale Einstellungen geben wird und keine auf bestimmte Sites bezogenen.

Termine ins Netz?

Private und geschäftliche Termine zu koordinieren, wird immer schwieriger in den Zeiten von PC, PDA, Laptop und Handy. Und je mehr Geräte man benutzt, desto komplizierter wird die Synchronisation. Warum also die Daten nicht ebenfalls auf einem zentralen Server im Netz ablegen? So zumindest der Ansatz von Sun und Microsoft. Dann könnte man doch die Koordination von Beruf und Familie in einem Abwasch erledigen. Nebenbei ermöglicht dies zudem einer Firma, die den Benutzer aufgrund seines Profils zu ihrer Zielgruppe zählt, den potenziellen Kunden zu kontaktieren und ihm ein unschlagbares Angebot zu machen. Natürlich nur, wenn der Terminkalender und die persönlichen Präferenzen des Users es zulassen. Immerhin böte sich so doch für den Benutzer auch die Gelegenheit, nebenbei Geld zu verdienen: zum Beispiel a la "Get paid to surf", indem er sich mit Werbung berieseln lässt.

Gelbe Seiten im Internet

Essenzieller Knackpunkt dieser Konzepte ist ein leistungsfähiges Verzeichnis, das Dienste und Personen aufführt, mit denen die Benutzer in Kontakt treten wollen. Ein solches Verzeichnis soll allerdings mehr darstellen als nur eine Suchmaschine oder eine simple Auflistung aller Nutzer und Dienste. Diese Verzeichnisdienste müssen in der Lage sein, in Beantwortung einer Anfrage gespeicherte Informationen als Antwort neu zusammenzustellen, und quasi ein maßgeschneidertes Paket anlegen. Da ein solches Verzeichnis selbst ein intelligenter Webdienst ist, können auch andere Dienste wiederum Daten aus dem Verzeichnis anfordern und sie zu einem eigenen Angebot zusammenstellen.

Schnittstelle zum Benutzer

Microsoft war zwar nicht Vorreiter in Sachen benutzerfreundliche Schnittstelle, hat sie aber immer weiterentwickelt. Sehr zum Leidwesen vieler Benutzer, die sich ständig umgewöhnen müssen. Aber dennoch: Unter dem Schlagwort "Intelligente Interaktion" fasst Microsoft die nächste Evolutionsstufe des User-Interface zusammen.

Das Hauptproblem sieht Microsoft in der Ausrichtung auf zwei verschiedene, nur marginal miteinander verwobene Bereiche: hier der PC mit seinen Applikationen, dort das Internet mit seinen Webseiten. Mit seinen lokalen Anwendungsdaten kann der Benutzer problemlos all das tun was er will: sie miteinander verlinken, sie gruppieren und somit sein Wissen organisieren. Bei Webseiten ist das anders. Er kann gerade einmal Favoriten anlegen und die vielleicht in Ordnern nach Themen sortieren. Will er aber von einer als Favorit markierten Seite einen Querverweis auf andere Daten setzen, beispielsweise auf seiner Festplatte, scheitert er.

Aber auch die ganz normale Interaktion mit dem System hat sich nicht besonders weiterentwickelt. Microsoft will in der nächsten Generation das gesprochene Wort als Ein- und Ausgabemedium verwenden, Handschrifterkennung verstärkt einbauen und ganz besonders die Syntax für die Eingabe von Befehlen oder Datenabfragen verändern. Anstatt dem Benutzer eine Anpassung an den Computer abzufordern, soll sich der Computer dem Benutzer anpassen. Der Computer soll Befehle in der Muttersprache des Benutzers entgegennehmen und dann ausführen. Einen ersten Schritt geht Microsoft mit dem unter "English Query" fungierenden Softwarepaket, bei dem Datenabfragen nicht mehr mit kryptischen SQL-Statements erfolgen. Der Benutzer beschreibt vielmehr die gewünschten Daten und die Software muss sehen, wie sie damit zurechtkommt.

Der "universelle Umschlag", eine XML-basierte Informationsarchitektur, soll Browsen, Kommunikation und Dokumenterstellung unter einer Oberfläche vereinen. Damit können Benutzer auch Daten aus dem Web kommentieren, bearbeiten und neu zusammenstellen.

Ein persönlicher "Informationsagent" soll die Identität und die "Web-Persönlichkeit" des Benutzers verwalten, indem er Transaktionen speichert, sie in Zusammenhang mit dem aktuellen Kontext und Präferenzen bringt und anhand der gewonnenen Erkenntnisse agiert. So kann er etwa die aktuellsten Nachrichten sammeln oder anhand des aktuellen Portfolios bestimmte Aktienkurse holen. Der Agent ist auch dafür zuständig, in welcher Weise andere Dienste auf die "Web-Persönlichkeit" - sprich die Daten - des Benutzers zugreifen dürfen.

Die so genannten Smarttags erweitern die Intellisense-Technologie von Microsoft ins Web. Intellisense bezeichnet etwa die Smartmenüs von Office oder Windows Whistler, die sich je nach Gebrauchshäufigkeit verstecken.

.NET-Architekturmodell

Webseiten sollen im Zuge der neuen Internetstrategien von Microsoft und Sun zu so genannten Web Services werden. Aus den Daten einer Webseite soll, so ein Grundgedanke der Web Services, eine programmierbare Anwendung für andere Webseiten oder Intranets geschrieben werden können.

Microsoft-Experte Alfons Stärk sieht darin den zukunftsweisenden Aspekt: "Der wesentliche Punkt ist, dass .NET mir hilft, das Internet, wie es heute ist, programmierbar zu machen. Heute kann ich mit den verschiedenen Diensten im Internet nur beschränkt umgehen, weil Webseiten sich oft täglich ändern. Ich kann deshalb keine Algorithmen schreiben, die Webseiten auslesen und verarbeiten und daraufhin wieder andere Aktionen anstoßen. .NET zielt darauf ab, ein Programmiermodell für das Ganze zu entwickeln. Das Modell ermöglicht, dass aus Webseiten Web Services werden. Services, die wie Komponenten von Applikationen programmierbar und austauschbar sind."

Microsoft .Net-Experte Thomas Baumgärtner dazu: ".NET ist ein Framework, das Web Services unterstützt. Es kann verschiedene Datenquellen über eine Webseite verbreiten und dem User oder einem programmierten Entscheidungsmechanismus zugänglich machen."

Technisch betrachtet, besteht das .NET-Modell aus drei Schichten. Auf der untersten Ebene arbeitet eine universelle Runtime-Engine. Diese ist für Dienste wie Thread-Management zuständig. Sie ähnelt von der Idee her der Java Virtual Machine. Eine Bibliothek mit generellen Klassen wie Ein/Ausgabe stellt den Anwendungen eine API bereit, über die sie die meisten ihrer Aufgaben erledigen können. An der Spitze sitzen die ASP+. Das ist eine erweiterte Form der Active Server Pages, die Scripte und webbasierten Code voneinander trennt. Über die so genannten WinForms lassen sich weiterhin normale Anwendungen schreiben, die keine Webschnittstelle benötigen.

Sun-ONE-Architektur

Sun stellt die Architektur von Sun ONE etwas ausführlicher vor als Microsoft. Das fällt dem Hersteller sicher auch leichter, da sich das Modell in eine offene Umgebung eingliedern soll und nicht so stark auf eine Betriebssystemwelt fixiert ist.

Die Dienstschicht von Sun ONE basiert auf Java und den entsprechenden Erweiterungen wie JDBC oder NetBeans, die eine Schnittstelle zu bestehenden Anwendungen oder Daten ermöglichen sollen. Auf der Auslieferungsseite entfallen entsprechend die spezialisierten Modi wie WinForms. Dort finden sich lediglich W3C-Standards wie XML, HTML oder WML.

Kommen andere Programmiersprachen als Java zum Einsatz, muss sich der Programmierer entsprechende Bibliotheken besorgen, die eine Kommunikation über die Standardschnittstellen ermöglicht. Eine Common Language Runtime wie bei .NET ist nun einmal nur beschränkt möglich, wenn man sich nicht auf ein Betriebssystem spezialisiert. Dafür ist der Weg offen für neue Plattformen.

ONE-Software auf dem Server

Grundsätzlich sind sich Sun und Microsoft einig, wie ein Server auszusehen hat. Möglichst schnell soll das System sein, ausfallsicher und skalierbar. Der Ansatz beider Hersteller ist ein Rechner-Cluster. In der Theorie vereint ein Cluster die drei Grundforderungen unter einem Dach. Bei einem Cluster handelt es sich um zwei oder mehr Rechner, die nach außen hin erscheinen wie ein System. Die Last der einzelnen Prozesse auf dem virtuellen System wird auf die Rechner aufgeteilt. Fällt einer der Rechner aus, übernehmen die anderen die zusätzlichen Aufgaben. Reicht die Leistungsfähigkeit des Gesamtsystems nicht mehr aus, fügt man einfach einen weiteren Computer hinzu und hat mehr Rechenleistung zur Verfügung.

In der Theorie klingt das sehr banal. In der Praxis dagegen sind eine Unzahl von Parametern und Rahmenbedingungen zu beachten. Beispielsweise muss dafür gesorgt werden, dass alle Rechner im Verbund auf denselben Datenbestand zurückgreifen können. Es sind Vorkehrungen zu treffen, wie die Neuzuordnung von Ressourcen und Sitzungen erfolgen soll, wenn ein Rechner ausfällt, und so weiter.

Sun setzt bei der Serversoftware voll auf Solaris und SunCluster. Für die Webfunktionen ist das iPlanet-Paket zuständig:

.NET-Software auf dem Server

Microsoft arbeitet schon sehr lange an dem System und hat erst mit Windows 2000 einen ersten Ansatz für das Cluster-Problem gefunden. Der Advanced Server und der Datacenter Server verfügen über die grundlegenden Bausteine zum Errichten eines Clusters.

Eigentlich ist bereits mit Windows 2000 die Betriebssystem-Grundlage für Microsofts .NET-Strategie geschaffen. Das nächste Windows-Release - Codename Whistler - verbessert lediglich die Integration, weil es die entsprechenden Bestandteile bereits von Haus aus mitbringt.

Die einzelnen Komponenten des COM+-Modells sind ebenfalls für Distributed Computing vorbereitet. Mit einem Zusatzprodukt - dem Application Server 2000 - vereinfacht Microsoft die Einrichtung und das Management von Rechner-Clustern, die Webdienste anbieten sollen. Weitere Kernbestandteile der .NET-Strategie auf dem Server sind

Windows .NET

Wenn Whistler als Windows XP im nächsten Sommer die Bühne betritt, wird der Benutzer vom .NET-Charakter möglicherweise wenig bemerken. Whistler profitiert eher von seiner entscheidenden Neuerung, der Verschmelzung von NT mit 9x zu einer Codebasis. Unter dem Codenamen Blackcomb arbeitet Microsoft derweil schon am nächsten Windows .NET. Wohin geht die Entwicklung? Hin zum nur noch über dem Browser schwebenden Internet-OS?

Hierzu noch einmal Microsoft-Experte Alfons Stärk: "Wir werden nicht allein diese Nur-Noch-Browser-Endgeräte haben. .NET bedeutet schon noch eine Art Servermodell. Das heißt, ein Teil der Intelligenz steckt auf dem Device. Aber es ist nicht mehr so, dass ich nur eine bestimmte Form von Intelligenz auf meinem PC habe. Sondern ich habe auf meinem PC eine Runtime, kann mir Sachen über den Browser herunterladen und auf dem PC ausführen. Aber ich brauche schon aus dem Grund eine Intelligenz, weil ich einen Web Service - zum Bespiel das Buchen einer Reise oder das Anschauen von Videos - auf einem PC auf eine ganz andere Art darstellen will, als auf einem kleinen Gerät. Das heißt, ich muss zum einen Dienste zur Verfügung stellen, und ich brauche ein intelligentes Endgerät, das entscheidet, wie diese Daten und Funktionen in dem entsprechenden Kontext optimal dargestellt werden können. Whistler wird deshalb stark XML-orientiert sein, es wird SOAP unterstützen und die Common Runtime Library für .NET-Services wird auf Whistler laufen." Zudem wird Whistler als Plattform für alle Benutzer und Computer einheitlich sein - vom PDA mit Whistler CE bis hin zum Datacenter-Server. Damit vereinfacht sich Microsoft die Einführung der .NET-Strategie.

Was ist mit Linux?

Mit .NET lassen sich Anwendungen schreiben, die ähnlich wie bei Java auf allen XML-Plattformen laufen und kein System scheuen. Die Common Language Runtime (CLR) wird es deshalb auch in einer Art Light-Version geben. Diese soll sich leicht auf beliebige Geräte portieren lassen, Handys etwa, um dort den kleinsten gemeinsamen Nenner für XML-Anwendungen zu definieren. Aber wie sieht es mit der Portierung des Frameworks aus? Wird es ein .NET für Linux geben?

Alfons Stärk dazu: "Es ist zu früh um zu sagen, so wird es werden. Eine Möglichkeit wäre aber, mit dortigen Entwicklungsumgebungen auf XML zu programmieren. Mit wahrscheinlich etwas weniger Komfort und etwas weniger Möglichkeiten."

Thomas Baumgärtner wird deutlicher: "Es gab Spekulationen wegen des Einstiegs von Microsoft bei Corel und wegen eines Paragraphen im Vertrag. Aber das kann man momentan schon guten Gewissens verneinen - Linux ist für uns derzeit kein Business Modell, das es uns lohnenswert erscheinen lässt, für die Plattform einen nennenswerten Entwicklungsaufwand zu treiben. Es wird vom Markt nicht nachgefragt, es wird bei uns nicht nachgefragt. Es besteht kein Grund, sich frühzeitig in Diskussionen um andere Plattformen zu begeben. Dafür ist die unterstützte Industrie viel zu groß.

Dadurch, dass wir so was wie C# und damit den Funktionsumfang der CRL bei den ECMA Gremien hinterlegt haben, ist das skriptkonform. Damit ist für Leute, die Compiler und Frameworks entwickeln möchten, der Weg offen. Wenn jemand hergeht und die Initiative ergreift und Compiler entwickelt für irgendein Betriebssystem, hat er damit einen Weg eingeschlagen, der es für dieses System offen macht. Aber das wird nicht von uns a priori betrieben, dass wir Portierungen auf andere Betriebssysteme machen. Wir haben das mit COM auf gewisse Weise betrieben. Da haben wir Partner mit ins Boot geholt, die Portierungen gemacht haben, in Richtung Solaris und Unix, so dass wir in der Lage waren, einen Internet Explorer für Unix anzubieten. Weiter geht so eine Investition nicht."

Applikationshosting

Mit der Umstellung der eigenen Applikationen lässt sich Microsoft noch Zeit. Das nächste Office-Paket (Office XP), von dem soeben die erste Betaversion erschienen ist, wird noch nicht .NET heißen. Neue Funktionen wie XML-basierte Smarttags, die Verknüpfungen mit anderen Programmen auf Knopfdruck ermöglichen, deuten bereits in Richtung .NET. Wird der Microsoft-Fels Office demnächst bröckchenweise als Web Service im Internet zu finden sein?

Stärk: "In einem ersten Schritt, denkt man daran, Office als Service über einen bestimmten Zeitraum zur Miete anzubieten. Für mich als Benutzer heißt das nicht, dass alles anders aussieht, sondern nur, dass ich mich nicht selber darum kümmern muss, wann zum Beispiel Updates aufgespielt werden. Das funktioniert mit einer Art Abonnement-Service."

Baumgärtner: "Genau spezifiziert, wie es aussehen wird, ist es noch nicht, aber die Grundüberlegung Office .NET-fähig zu machen ist da. Praktisches Beispiel, wenn ich eine Präsentation halten muss, kopiere ich sie klassischerweise vom Intranet auf den Laptop und hoffe, dass die Festplatte heil durch die Flughafenkontrolle kommt. Da wäre der erste Schritt, zu sagen, ich lagere die Daten dezentral aus. Der Anbieter von Web Services wird mir dafür auch einen Datenplatz anbieten. Ich will als Benutzer die Möglichkeit haben, meine Daten bei jemand zu hosten, der mir Kompetenz in punkto Datensicherheit verspricht. Das ist ein Vorteil für viele Consumer und auch Mittelständler, die zu wenig Know-how haben, wie sie ihre Daten schützen können. Die Daten liegen damit nicht mehr statisch auf einer Festplatte.

In Zukunft habe ich nur noch meine Grundmodule, die solche Dinge zur Ausführung bringen. Die Daten sind dezentral und ich kann mir an jedem Ort und mit der entsprechenden Hardware die entsprechenden Module laden. Davon wird man bei Microsoft auf jeden Fall Gebrauch machen, so viel kann man sagen. Wie es genau aussieht, welche Module statisch gehalten werden und welche nicht hängt dann sicher von der Verwendungshäufigkeit ab."

Bill Gates sagte zu diesem Thema auf der Eröffnungsveranstaltung zu .NET: "Anwendungen werden auch weiterhin unsere primären Produkte sein, nur die Plattformen werden sich etwas ändern, etwa zum Full-Screen-Device. Aber es ist vorstellbar, dass Kunden ein Betriebssystem abonnieren, um neue Verbesserungen zu erhalten."

Auch Sun arbeitet mit Hochdruck an entsprechenden Tools für Service Provider. Das Star Portal, das dem Benutzer eine komplette Weboberfläche mit StarOffice-Anwendungen bereitstellt, wird in die ONE-Strategie als "Sun ONE Webtop" einfließen.

Software zur Entwicklung

Die beiden Strategien von Microsoft und Sun stehen und fallen mit der Verfügbarkeit entsprechender Entwicklungstools. Solche Tools müssen komplett in das jeweilige Framework integriert sein und die schnelle Programmierung neuer Dienste ermöglichen.

Sun setzt auf Java als primäre Programmiersprache und bietet seine Forte-Tools an, die sich nahtlos in die Sun-ONE-Umgebung einfügen und neben Java auch C, C++ und Fortran unterstützen.

Nach dem Rechtsstreit um Java hat sich Microsoft mit C# auf eine javaähnliche Programmiersprache eingeschossen. Als Entwicklungsumgebung dient weiterhin Visual Studio, das als .NET-Variante die Features des .NET-Frameworks voll ausnutzen soll. Auch Visual Basic wird es weiterhin geben. Es unterstützt zwar neue Features wie Inheritance und das Überladen von Operatoren, dafür müssen sich die Entwickler allerdings ziemlich umstellen. Denn Visual Basic soll gemeinsam mit C# auf der Common Language Infrastruktur (CLI) und der Common Language Runtime (CLR) aufsetzen. Das ist grob gesagt Microsofts Pendant zur Java Virtual Machine (JVM). Microsoft ist deshalb in einem ersten Schritt bemüht, für C# und CLI Zertifizierungen von der European Computer Manufacturers Association (ECMA) zu bekommen. Unterstützt wird der Softwarekonzern in diesem Bemühen von Intel und Hewlett-Packard.

Java vs C#

Dass Microsoft mit C# eine neue Sprache einführt, die viele Züge von Java trägt, hat in der Fachwelt für ein gemischtes Echo gesorgt. Zu spät, unkten die einen mit Blick auf die im Internet verbreitete Sun-Technologie, zu wenig die anderen. Microsoft dagegen glaubt, mit C# eine entscheidende Schwäche von Java überwunden zu haben: Java spricht nur Java.

Dazu Alfons Stärk: "Java hat das Problem, kein Standard zu sein. Java gehört Sun und Sun will die Kontrolle nicht aufgeben über Java. Und das ist genau das, was wir mit C# nicht machen wollen. Wir wollen hier nicht einen Standard, den ein Hersteller definiert und kontrolliert und der so keine Rückendeckung bekommen wird. Wir haben C# jetzt schon an Normierungsgremien gegeben. C# wurde von uns initiiert und in der primären Definition gemacht, ist aber ein Standard, der von den Gremien kontrolliert wird.

Der wichtige Punkt an der Common Language Runtime ist, das sie anders ist als die JVM (Java Virtual Machine). Die JVM hat das Ziel, dass Java-Programme auf jeder Plattform mit demselben Code laufen - was sie dann de facto doch nicht tun, aber das ist zumindest das Ziel -, was bedeutet, dass diese VM auf dem kleinsten gemeinsamen Nenner basieren muss. Und damit hat Java traditionell ein Problem, weil dieser gemeinsame Nenner nicht das Optimum aus meiner Plattform herausholt, sondern nur das, was über die Plattformen hinweg als Gemeinsamkeit zu finden ist."

Stärk weiter: "Die CLR dagegen unterstützt optimal die Windows Plattform, das heißt, sie bietet vollen Funktionsumfang. Und es gibt noch eine andere, eine kleinere Version der CLR, die auf andere Formfaktoren adaptiert werden kann. Zum Beispiel auf ein CE-Gerät oder auf ein Smartphone. Dadurch habe ich die Möglichkeit, innerhalb von C#, innerhalb von Visual Studio .Net-Applikationen zu schreiben, die sowohl meine Plattform voll ausnutzen, zum Beispiel für Windows 2000 Professional und einen Server auf der anderen Seite, aber auch Module, die überall laufen. Also auch auf kleinen Geräten und dort wiederum das Display optimal nutzen."

Bill Gates sagte zum Thema Java: "Sun macht sich selbst unglaubwürdig. Java erzeugt keine Interoperabilität. Und überhaupt, nur 10 Prozent aller neu begonnenen Projekte basieren auf Java. Das beliebteste System ist Visual Basic."

Um den "wenigen" Java-Entwicklern den Einstieg in C# zu erleichtern, wird Microsoft mit den Jump-Tools eine Softwaresuite zum Konvertieren von Java-Code anbieten.

Sicherheit und Risiken

Die Sicherheit der Daten ist bei einer umfassenden Internetstrategie ein wichtiges Thema. Und Microsoft hat sich dabei durch die jüngst bekannt gewordenen Einbrüche in das eigene Netzwerk und die DoS-Attacken nicht gerade mit Ruhm bekleckert. Java stellt mit der Sandbox eine Umgebung mit beschränkten Zugriffsrechten zur Verfügung. Welche Vorkehrungen sind für .NET gedacht?

Baumgärtner: "Es wird zertifizierte und authentifizierte .NET-Module geben. Und es besteht die Möglichkeit, Zugriffe auf bestimmte Bereiche zu begrenzen. Weder die Daten liegen auf meinem PC noch ein Großteil meiner Anwendungen, sondern nur die Komponenten, um XML zu interpretieren.

Mit .NET hat man erst eine Architektur, die so was möglich macht. Heute hat man den Ansatz, dass meine Applikation entscheidet, mit welchen Daten sie arbeitet, weil alles lokal auf meinem PC liegt. Deshalb kann auch ein Virus zuschlagen. In Zukunft definiere ich, was mit Daten zu passieren hat. Das machen die Web Services. Im Datenpaket ist genau definiert, welche Applikation darf zugreifen, und diese Definition ist Bestandteil der Datei selbst."

Stärk: "Wenn ich Daten dezentral habe, muss ich mir Mechanismen überlegen, wie ich den Fluss dieser Daten kontrollieren kann. Was man mit Sicherheit sehen wird, ist, dass man den Fluss sensitiver Daten explizit bestätigen muss. Was bislang so nicht passiert. Jetzt liegen eben die PINs in einem Textfile auf meiner Festplatte in der C:-Partition und es ist relativ einfach, sie zu finden. Künftig liegen die Daten auf Web Services und der Web Service weiß, bevor ich Daten herausgebe, brauche ich die digitale Signatur von der Gegenstelle. Dadurch bekomme ich eine größere Kontrolle als jetzt. Das Thema Sicherheit wird ein Bewertungs- und Erfolgskriterium sein für einzelne Web Services. Wie gut sie sicherstellen können, dass mit meinen Daten verantwortlich umgegangen wird."

Was aber passiert, wenn der Service, auf dem der digitale Ausweis eines Anwenders liegt, von Hackern mittels einer DoS-Attacke unter Beschuss genommen wird? Bei herkömmlichen Webseiten kann man nicht auf das Angebot zugreifen. Nicht so schlimm, es gibt ja genug andere Webseiten. Ist aber die ID blockiert, sind auch sämtliche Transaktionen gesperrt. Der Benutzer hat keinen Zugriff auf seine Dokumente, kann seine Mails nicht abrufen und auch keine Geschäfte tätigen. Er ist quasi völlig lahm gelegt. Nicht nur die Sicherheit der Daten ist also ein Punkt, sondern auch die Sicherheit des Zugriffs. Solange die Benutzer hier Zweifel hegen müssen, ist bei den Netzstrategien Vorsicht angesagt.

Zeitrahmen

Microsoft räumt seinem Projekt eine Anlaufphase von bis zu drei Jahren ein. Dann sollen Benutzer die .NET-Funktionen des Betriebssystems und neuer Anwendungen mit Web Services in ausreichender Zahl verbinden können.

Baumgärtner: "Mitte 2001 wollen wir mit Tools, Services und Serverapplikationen Gewehr bei Fuß stehen - inklusive .NET-Frameworks. Das Ganze ist von heute ab auf zwei bis drei Jahre angelegt. Auch hier im Haus sind die Entwicklungen auf eine Laufzeit von zwei bis drei Jahren angesetzt. Dann soll .NET ein Standard sein, der akzeptiert ist."

Bill Gates sieht die ganze Sache etwas weniger optimistisch. Auf der .NET-Summit in Düsseldorf sagte er: "Die Bausteine von .NET sind da oder werden es bis Mitte des Jahres sein und die Softwarefirmen sind dabei, neue Anwendungen zu entwickeln. Neue Zugangsgeräte wie der Tablet-PC und eine drahtlose Netzwerk-Infrastruktur werden ebenfalls bald verfügbar sein. In etwa drei bis vier Jahren werden wir ganze Systeme auf der .NET-Basis sehen. Das ganze System, etwa mit Spracherkennung, oder Benutzerschnittstellen, die auf Basis von Beschreibungen reagieren und Antworten liefern, wird noch 10 Jahre dauern."

Dass die neue Netzinfrastruktur eine Zukunft hat, macht eine Studie der KPMG aus dem Oktober 2000 deutlich. Dort wurden 2852 Unternehmen zum Thema Investitionen in e-Business befragt. Das höchste Potenzial hat das Segment Business-to-Business (B2B). Dort wollen bis 2003 knapp 85 Prozent aller Unternehmen investieren, also in die Integration von Partnern in eigene Geschäftsprozesse. Customer Relationship Management (CRM) ist immer noch 75 Prozent aller Firmen ein Anliegen, also die Bindung und Betreuung von Kunden über das Internet. B2C, also die Bestellung von Waren per Internet durch Endkunden, ist dagegen kein so großes Thema. Nur 69 Prozent sehen darin eine Notwendigkeit für Investitionen.

.NET in Aktion

Ein Beispiel für die Möglichkeiten eines .Net-Service hat Microsoft mit dem TerraService ins Netz gestellt.

Auf der Basis von Luftbildaufnahmen, Straßenkarten und demografischen Informationen lassen sich mit dem Service bebilderte Informationen über einzelne Regionen zusammenstellen. Das TerraService-Projekt gilt als Proof-of-Concept. Der Clou daran ist, dass andere Webseiten den Kartenservice laut Microsoft ohne viel Aufwand in das eigene Angebot einbauen könnten. Jeffrey Richter, einer der Programmierer des TerraService, spricht von einem Webformular, das sich unterschiedliche Daten von unterschiedlichen Servern holt und diese dynamisch darstellt. Da er browserbasiert ist, funktioniert der Web Service plattform- und systemunabhängig.

Die Kooperation des TÜV Süddeutschland mit der Süddeutschen Zeitung stellt gerade die auf .Net basierende Website autocert.de auf die Beine. Dort will man ein Content-, Service-, Community- und e-Commerce-Portal rund ums Auto aufbauen.

Fazit

Die neuen Netzstrategien von Microsoft und Sun können erst in einigen Jahren wirklich Früchte tragen. Bislang sind nur Betaversionen der .NET-Werkzeuge zu haben und auch neue Zugangsmethoden zum Netz wie etwa Wireless LAN sind noch nicht sehr weit verbreitet.

Entscheidend für die Erfüllung der Visionen von Bill Gates und Scott McNealy ist die Akzeptanz bei Entwicklern, IT-Unternehmen, Internet-Service-Providern und Firmen. Und die wiederum hängt von der Machbarkeit in zeitlicher und personeller Hinsicht ab. Programmierer sind üblicherweise ausgelastet und ein Unternehmen wird nicht bereit sein, Anwendungen umzustellen, ohne zu wissen, ob sich das Konzept durchsetzt.

Aber letztendlich entscheidet der Kunde. Und gerade an der Frage, ob er seine Daten einem Server anvertrauen oder seine Wege im Netz verfolgen lassen will, scheiden sich die Geister. Betrachtet man zudem die extreme Verflechtung von Server- und Client-Software sowie diversen Diensten (Hotmail, Passport) bei Microsoft, könnte man schnell ein ungutes Gefühl entwickeln und sich an das Big-Brother-Szenario aus George Orwells Roman "1984" erinnert fühlen. (mha/uba)