Der PC verschwindet. Nun, nicht ganz und auch nicht in den nächsten paar Tagen. Aber die Art, wie wir Computer einsetzen, wird sich in den ersten Jahrzehnten unseres neuen Jahrhunderts doch ziemlich verändern. Dies zeigt der soeben erschienene «Technology Forecast 2000» des Pricewaterhouse Coopers Technology Center in Menlo Park, Kalifornien. Bei Forschern in Universitäten und Industrie und bei bekannten Visionären wie Cheftechniker Peter Cochrane von British Telecom, Internetpionier Dave Faber oder Sun Mitgründer Billy Joy erfragten sie, wohin denn die Fahrt in den ersten Jahrzehnten des noch jungen Jahrhunderts führen werde.
Neue Architekturen
Waren Batch-Verarbeitung, Timesharing und Client/Server-Architektur die wesentlichsten Trends der Neunzigerjahre, so werden dem Forcast gemäss in den kommenden Jahrzehnten vor allem «virtual Reality» (VR) und «pervasive Computing» an Bedeutung gewinnen. Gemeinsam ist den beiden Trends, dass der Rechner nicht mehr länger als identifizierbares Gerät im Mittelpunkt steht, mit dem der Mensch über eine Tastatur oder einen Stift und einen Monitor kommuniziert.
Gleichzeitig bilden sie aber die entgegengesetzten Enden des Spektrums im Umgang mit Computern: Beim «pervasive Computing», wo alle «intelligenten» Geräte im Geschäft oder Haushalt vernetzt sind, gibt es den Rechner auf dem Schreibtisch nicht mehr. Er verschwindet sozusagen in der computerisierten Umgebung. In der virtuellen Realität dagegen sind wir es, die im Computer verschwinden, in einer von Rechner geschaffenen Umwelt. Der Computer löst sich nicht in der Umwelt auf, er ist unsere Umwelt.
Heute ist der Einsatz von virtual Reality noch weitgehend auf bestimmte Anwendungsgebiete beschränkt, etwa auf Architektur oder Visualisierung. VR wird in den nächsten Jahren an Bedeutung gewinnen. Pervasive Computing aber wird – zumindest in Frühformen – schon bald kommerziell verwertet werden. Etwa in tragbaren, stromsparenden Geräten, die in kabellose Netze integriert sind.
Prozessor-Technologien
Natürlich bedingen solche Entwicklungen immer leistungsfähigere Prozessoren. Den Anfang erleben wir soeben mit: Bereits wird mit 0,18 Mikron produziert und 0,13 Mikron-Technologien sind auf dem Weg. Doch Eric M. Berg, Herausgeber des Forecast und Chef der Abteilung für Technologieanalyse bei der Strategic Technology Group von Pricewaterhouse Coopers meint: «Die heutigen Techniken stossen an ihre Grenzen. Neue, auf Laser-, Ultraviolett- oder Röntgenstrahlen basierende Produktionstechniken werden sie ersetzen. Anderseits wird, etwa in den Labors von
Hewlett-Packard, mit «wachsenden» Halbleitern experimentiert. Bereits konnten Leiterbahnen von gerade noch 10 Atomen Breite und mit 50 Atomen Abstand aufgebaut werden.»
Doch selbst diesen Verfahren sind durch die physikalischen Eigenschaften der verwendeten Materialien Grenzen gesetzt: Wird die Miniaturisierung zu weit getrieben, können sie die elektronischen Eigenschaften verlieren, auf denen die Halbleitertechnik basiert. Möglicherweise folgen dann heute noch exotisch erscheinende Technologien wie DNA-basierende oder gar Quanten-Computer.
Software entscheided
Entscheidender jedoch als neue Hardwaretechniken dürften die Entwicklungen bei der Software sein. Ein Wecker etwa, der die Weckzeit nicht nur mit dem Terminplan des Besitzers, sondern auch mit den Verkehrsverhältnissen und den Verspätungen der Airline abstimmt, benötigt weniger einen Durchbruch bei der Hardware-Entwicklung, als den ständigen Kontakt mit den Informationsquellen und Protokolle, die es ermöglichen, die Informationen automatisch zu verarbeiten und aufeinander abzustimmen. Da sind die Software-Ingenieure gefordert. Berg: «Denken Sie an die Entwicklung des World Wide Web. Sicher hat das Web in den Neunzigerjahren von billigeren PCs und mehr Bandbreite profitiert. Entscheidend jedoch war der Browser. Dieses vergleichsweise einfache Stück Software machte das Internet mit dem riesigen Angebot an Inhalten und Dienstleistungen erst verfügbar.»
Kommunikation
Neben den neuen Geräten werden die kabellose Kommunikation und deren Protokolle eine wesentliche Rolle spielen. Berg: «Soeben beginnt bei der Telefonie eine Entwicklung, die als die zweieinhalbte Generation bezeichnet wird (im Gegensatz zur geplanten dritten Generation, die noch etwas auf sich warten lassen wird) und die kabellose Datenübertragung auf 144 Kbps und mehr beschleunigt. Daneben wird an Protokollen wie der Web-Clipping Technology von
Palm und WAP gearbeitet, die Handys einen breiten Zugang zum Web und zu anderen Netzwerken geben.»
Zwischen Business und der Heimumgebung werden für die Kommunikation zwischen unterschiedlichen Geräten verschiedenste Funk-LANs und PANs (Personal Area Network) entstehen. «Ad hoc-Netzwerke» werden den Geräten automatisch Zugang zu einem Netzwerk geben, sobald sie in deren Gebiet kommen.
Natürlich verlangt dieser allgegenwärtige Zugang zu unterschiedlichsten Informationen einen Dienst, der diese für die individuellen Bedürfnisse der Anwender aufbereitet. Lange Tipp-Orgien dürften das Letzte sein, was sich der Benutzer eines Mobilgeräts mit entsprechend kleiner Tastatur wünscht. So nähern wir uns wohl oder übel einer Zeit, in der auch persönliche Daten im Netz gelagert sind. Voraussetzung ist allerdings, dass Privatsphäre und Sicherheit hinreichend gewährleistet werden. Und in dieser Beziehung bleiben doch noch ein paar Fragen offen. (fis)
Technology Forecast 2000
Der Technology Forecast wird jedes Jahr von Pricewaterhouse Coopers herausgegeben. Er befasst sich mit Stand und Entwicklung in der IT-Technologie. Das Thema E-Business wurde dieses Jahr erstmals in einem separaten Band behandelt. Der Technology Forcast 2000 umfasst 774 Seiten und eine CD. Er kostet Fr. 675.- und kann bei Pricewaterhouse Coopers, Sonja Jau (Tel: 01 630 13 49, sonja.jau@ch.
pwcglobal.com) bestellt werden.