Bildwb

Zukunftstechnik – wie geht es weiter?

In der Geschichte der Menschheit hat sich der technische Fortschritt immer mehr beschleunigt: Nach der Zähmung des Feuers vergingen Hunderttausende, nach der Erfindung der Malerei Zehntausende von Jahren bis zur nächsten großen Innovation. Der Schritt von der Bronze- in die Eisenzeit benötigte nur ein bis zwei Jahrtausende, zwischen dem Buchdruck Gutenbergs mit beweglichen Lettern und der Rotationspresse standen etwa 500 Jahre. Doch erst im 20. Jahrhundert wurde das technische Potenzial des menschlichen Geistes wirklich entfesselt: In weniger als 100 Jahren wurden Auto, Telefon, Fernsehen, Computer, Internet, künstliche Niere und die genetische Manipulation von Lebewesen ersonnen. In den letzten 40 Jahren verdoppelte sich die Rechengeschwindigkeit von Mikroprozessoren alle eineinhalb Jahre – insgesamt um etwa das 100 000 000-Fache! Und noch eine beeindruckende Zahl: Die Entschlüsselung des menschlichen Erbguts kostete drei Milliarden Euro und dauerte von 1990 bis 2005, also 15 Jahre. Im Jahr 2010 soll dies hingegen auch für Privatleute erschwinglich sein und nur noch wenige Tage dauern.

Wie wird es weitergehen? Was sind die nächsten Schritte und welche morgen bedeutsamen Techniken werden heute schon in den Laboren von Universitäten und Großkonzernen erprobt? Natürlich ist es das Wesen einer überraschenden Entdeckung, dass sie vorher keiner vorausgesehen hat. Dennoch lässt sich heute bereits absehen, dass in bestimmten Gebieten Großes erwartet werden kann, einfach, weil die Entwicklung in den letzten Jahren dort besonders stürmisch verlief und viel Geist und Geld investiert worden ist und auch weiter wird. In anderen Fällen ist abzusehen, dass bisherige Erfolgsrezepte an ihre Grenze stoßen werden, so etwa die Verkleinerung der Schaltkreise in Computerchips: Haben sie erst einmal atomare Abmessungen, setzen die Naturgesetze der weiteren Miniaturisierung eine Schranke. Andererseits könnten gerade hier unvorhergesehene Entdeckungen ganz neue Türen aufstoßen.

Den Abschluss dieses Kapitels und des ganzen Bandes bildet die Erforschung der Zukunft selbst, denn die Abschätzung künftiger Entwicklungen ist zu einer eigenen Fachdisziplin mit stetig zunehmender Bedeutung geworden.

Neue Materialien und Nanotechnologie: Intelligent und klein

Wie macht man Atome sichtbar?

Zum Beispiel mit Rastertunnelmikroskopie, mit der sogar einzelne Atome »gesehen« werden können. Das Rastertunnelmikroskop (STM, für englisch Scanning Tunneling Microscope) wurde Anfang der 1980er Jahre vom schweizerisch-deutschen Physikerteam um Gerd Karl Binnig und Heinrich Rohrer erfunden. 1987 wurden diese beiden dafür mit dem Nobelpreis für Physik ausgezeichnet.

Das Messprinzip nutzt den quantenmechanischen »Tunneleffekt«. Dieser Effekt beruht darauf, dass sich ein quantenmechanisches Teilchen, z. B. ein Elektron, niemals an einem ganz bestimmten Ort befindet; statt dessen kann man immer nur eine Wahrscheinlichkeit für den Raumbereich angeben, in dem es sich aufhält. Das bedeutet aber, dass Elektronen über weite Bereiche »verschmiert« sind – mit der Konsequenz, dass sie sogar »verbotene« Gebiete durchqueren können, um auf der anderen Seite wieder aufzutauchen: Sie »durchtunneln« diese Region.

Im Tunnelmikroskop durchtunneln die Elektronen den winzigen Abstand zwischen einer nur wenige Atome großen Sondenspitze und der Oberfläche der untersuchten Probe. Dabei entsteht ein sehr kleiner, aber messbarer Strom. Tastet man die Oberfläche mit der Sonde Punkt für Punkt ab, so lässt sich aus den gemessenen Stromwerten ein Abbild der Oberfläche rekonstruieren.

Übrigens: Das Rastertunnelmikroskop erlaubt es auch, einzelne Atome oder Moleküle gezielt aus der Probenoberfläche zu lösen und an anderer Stelle wieder abzulegen – man kann also mit Atomen »schreiben« oder winzigste Strukturen erzeugen.

Welche sind die feinsten Filter?

Nanosiebe, oft auch Molekularsiebe genannt. Diese Filter haben Poren im Nanometerbereich (ein Nanometer entspricht einem Millionstel Millimeter). Bei Zeolithen, hochporösen Mineralien aus Aluminium-Silicium-Sauerstoffverbindungen, liegt die Porengröße zwischen 0,3 und 2 Nanometern. Ähnliche Durchmesser bieten Kohlenstoff-Nanoröhrchen. Maßgeschneiderte Filter aus Silicium, die ähnlich wie Speicherchips mit Ätzverfahren hergestellt werden können, besitzen Porendurchmesser von bis zu 50 Nanometern. Zum Nanosieb werden diese Materialien jedoch erst, wenn sie sehr viele Poren aufweisen.

Bei den künstlich erschaffenen Nanoröhren liegen die Poren meistens nebeneinander und sind durch undurchlässige Materialien, etwa Silicium, voneinander getrennt. Die Besonderheit natürlicher Nanosiebe, wie z. B. der Zeolithe, ist, dass sich bei diesen Materialien sehr viele Poren neben- und hintereinander befinden: Auf diese Weise wird ein extrem feinmaschiges dreidimensionales Sieb gebildet. Durch die riesige Zahl an Poren besitzen Nanosiebe eine sehr große »innere« Oberfläche.

Wozu dienen Nanosiebe?

Eingesetzt werden Nanosiebe beispielsweise bei der Wasserreinigung. Wassermoleküle passieren die Siebe ungehindert, aber bereits größere Moleküle, z. B. Schadstoffe oder Viren (die meist größer als 10 Nanometer sind) werden zurückgehalten. Auch elektrisch geladene Teilchen (also Ionen) können ganz oder teilweise herausgefiltert werden: Nanosiebe sind ideale Ionenaustauscher. Wasser, das auf diese Weise gereinigt wurde, ist biologisch und chemisch extrem sauber und weich – was z. B. auch Ablagerungen an Wasserrohren stark vermindert. Die zur Wasserenthärtung eingesetzten Nanofilter müssen allerdings sehr oft gereinigt werden, meist unter Zuhilfenahme von Säuren und Laugen.

In ähnlicher Weise helfen Nanosiebe bei der Dialyse. Dort vermeiden sie die bisher notwendige zusätzliche Trennung des Bluts in Plasma und Blutkörperchen, indem sie nur das Plasma passieren lassen.

Übrigens: Aufgrund ihrer großen inneren Oberfläche sind Nanosiebe auch sehr gut als Katalysatoren geeignet. Einsatz finden sie z. B. in der Mineralölindustrie beim »Cracken« von Kohlenwasserstoffen: So entsteht aus Erdöl Benzin.

Wird es in Zukunft Computerchips aus Plastik geben?

Ja, obwohl das auf den ersten Blick im Widerspruch dazu steht, dass Kunststoffe als elektrische Isolatoren eingesetzt werden, z. B. als Umhüllungen von Kabeln; selbst die Platinen, auf denen klassische integrierte Schaltungen aufgebracht sind, bestehen aus isolierendem Kunststoffmaterial. Mittlerweile ist es jedoch möglich, Kunststoffe herzustellen, die nicht isolieren, sondern ähnlich wie Metalle den elektrischen Strom leiten.

Somit ließen sich auf einfache Weise die ersten elektrischen Schaltkreise herstellen: Leitfähige Polymere könnten nämlich wie Druckfarbe im Muster eines Schaltkreises einfach auf einen Träger aufgedruckt werden, um danach von selbst auszuhärten. Diese Technik könnte die bisher übliche aufwendige Siliciumtechnik ersetzen, bei der integrierte Schaltungen durch Belichten und anschließendes chemisches Ätzen von metallbeschichtetem Silicium hergestellt werden. Ein weiteres Plus gegenüber der herkömmlichen Silicium-Elektronik ist die hohe Flexibilität: Mit leitfähigen Kunststoffen sind biegsame Schaltungen möglich. Damit ließen sich in Zukunft Produkte wie aufrollbare Bildschirme oder »intelligente« Kleidungsstücke realisieren.

Wie lässt sich die Farbbrillanz von Flachbildschirmen steigern?

Mit OLEDs. Dies steht für das englische »Organic Light Emitting Diode«, also organische Leuchtdiode, wobei »organisch« bedeutet, dass das lichterzeugende Material aus Kunststoff (Polymer) besteht. Eine OLED ist aus mehreren Schichten aufgebaut: einer Trägersubstanz (meistens aus Glas), einer darauf befindlichen, kaum 200 Nanometer dicken Polymerschicht sowie zwei elektrisch leitenden Lagen, die die Polymerschicht oben und unten begrenzen. Liegt zwischen den begrenzenden Lagen eine elektrische Spannung an, so wandern Elektronen von der einen Schicht zur anderen. Bei ihrem Weg durch das Polymermaterial regen sie dessen Atome zum Leuchten an. Dabei lässt sich über die Kunststoffsorte die Farbe des ausgesandten Lichts variieren. Im Handel erhältlich sind OLEDs als Displays für Digitalkameras und Handys. Auch der Einsatz als Computermonitor steht unmittelbar bevor. Prototypen haben bereits gezeigt, dass diese Displays eine ausgezeichnete Farbbrillanz besitzen und, anders als herkömmliche Flachbildschirme, auch von der Seite ohne Farbfehler betrachtet werden können.

Was sind Fullerene?

Fullerene sind Kohlenstoffmoleküle in Form einer geschlossenen Kugel oder einer Röhre, wobei sich die Kohlenstoffatome – und das ist die Besonderheit – an der »Oberfläche« dieser Gebilde zu einem Gitter anordnen, während der Innenbereich hohl bleibt. In den am besten untersuchten Fullerenen aus sechzig bis siebzig Kohlenstoffatomen erkennen Sportenthusiasten unschwer einen Fußball. Ihren Namen haben die Fullerene jedoch in Erinnerung an Richard Buckminster Fuller, einem Architekten ähnlich aussehender, kugelförmiger Häuser (etwas respektloser spricht man auch von »Buckyballs«). Erzeugt wurden Fullerene erstmals von Richard Smalley und seinen Mitarbeitern im Jahre 1985. Für diese Entdeckung und ihre Erforschung wurden Robert F. Curl jr., Sir Harold W. Kroto und Richard E. Smalley 1996 mit dem Nobelpreis für Chemie ausgezeichnet.

Fullerene entstehen, wenn Kohlenstoff bei hoher Temperatur in einer sauerstofffreien Atmosphäre »verbrannt« wird, etwa in einem elektrischen Lichtbogen – bei Anwesenheit von Sauerstoff würde der Kohlenstoff wie ein Brikett verbrennen. Dabei lagern sich Kohlenstoffatome aneinander und wachsen zu Ketten unterschiedlicher Länge. Einige davon wachsen auch »in die Breite« und bilden so allmählich die kugelförmige Struktur des Fullerens. Durch gezielte Anlagerung weiterer Kohlenstoffatome an ein solches, etwa bei der Herstellung im Labor, kann ein Buckyball fast beliebig verlängert werden. So entstehen lange Schläuche, die sog. Nanoröhren.

Wozu können Fullerene genutzt werden?

Im Inneren von Fullerenen können andere Atome oder kleinere Moleküle eingeschlossen werden, man spricht dann von »Käfigmolekülen«. Diese gelten u. a. als ideale Speicher für Wasserstoff, was sie für die Fahrzeugindustrie als künftiges Tankmaterial interessant macht. Auf ähnliche Weise sollen auch Medikamente in den Körper transportiert werden. Zusammen mit Molekülen, die bestimmte Zelltypen identifizieren können – etwa Blut oder auch Tumore – lassen sie sich zielgenau im Körper freisetzen.

Allerdings hat die Anwendung von Nanoteilchen auch deutliche Schattenseiten. Weil Fullerene so klein sind, oft sogar kleiner als Viren, können sie leicht in den Körper eindringen. Sie werden beispielsweise eingeatmet oder über die Haut aufgenommen und reichern sich in den Zellen des Körpers an. Dort lösen sie eventuell die Immunabwehr aus, ohne jedoch vom Immunsystem wirksam bekämpft werden zu können. Die Folge sind Vergiftungserscheinungen oder allergische Reaktionen mit bisweilen sehr schweren Folgen wie Lungenödemen.

Wer ist der »Erfinder« der Nanotechnologie?

Der US-amerikanische Ingenieur Karl Eric Drexler ist einer der Pioniere der Nanotechnologie. Bereits Mitte der 1980er Jahre prägte er den Begriff »Nanotechnologie«. In zahlreichen, umstrittenen Veröffentlichungen vertrat er die Auffassung, dass Proteine aussichtsreichste Kandidaten für zukünftige Nanomaschinen sind. 1986 gründete er das »Foresight Institute« (»Institut für den Blick in die Zukunft«).

Kritiker werfen ihm eine allzu rosige Sicht sowohl auf die Realisierbarkeit als auch den potenziellen Nutzen von Nanomaschinen vor – vor allem, wenn sie auch noch, wie von Drexler prophezeit, reproduktionsfähig wären. Michael Crichtons Thriller »Prey« (»Beute«, 2002) griff genau dieses Motiv auf und stellte den Menschen als leichte Beute für außer Kontrolle geratene Schwärme von »Nanoraubtieren« dar.

Wussten Sie, dass …

man sich tatsächlich vorstellt, Roboter in Miniaturausführung zu bauen? Sie sollen nur nanometergroß sein (ein Nanometer entspricht einem Millionstel Millimeter) und werden daher »Nanniten« genannt. Solche Nanomaschinen könnten in der Lage sein, im menschlichen Körper »Reparaturen« vorzunehmen, so dass ernste Erkrankungen erst gar nicht entstehen könnten. Andere Einsatzgebiete wären Bereiche schwer zugänglicher Maschinen, etwa im Inneren von Motoren oder Kraftwerken.

Wussten Sie, dass …

das kleinste »Fußballfeld« der Welt nur 2 x 1,5 Mikrometer misst? Es würde damit 2000-mal auf die Querschnittsfläche eines menschlichen Haares passen. Chemnitzer Wissenschaftler erzeugten diese Nanostruktur im Mai 2006 mithilfe eines Rasterkraftmikroskops.

man mit einem Aerogel aus Siliciumdioxid sogar eine durchsichtige Wärmeisolierung konstruieren kann? Solche Aerogele können z. B. für Fenster eingesetzt werden.

Was ist ein Aerogel?

Eine Gemisch aus Luft und einem festen Trägergerüst. Ausgangspunkt bei der Herstellung ist ein flüssiges Gel, ähnlich wie Gelatine. Bildet Siliciumdioxid (Quarz) das Gerüst, bezeichnet man sie als Silica-Aerogele. Aber auch andere Substanzen werden eingesetzt, etwa Kohlenstoff. Die flüssige Komponente des Ausgangsstoffs kann Wasser oder Methanol sein.

Das Volumen eines fertigen Aerogels besteht nur zu 5 % aus dem Trägermaterial, der Rest sind luftgefüllte Poren mit wenigen Nanometern Durchmesser. Diese Poren machen Aerogele zu hervorragenden Isolatoren.

Raumfahrt: Technik im All

Wie kommt der Mensch ins All?

Derzeit nur mittels Raketen. Um ins All zu gelangen – d. h. eine Höhe von mehr als 100 km über der Erdoberfläche zu erreichen –, braucht man einen Antrieb, der die notwendige Kraft zur Überwindung der Erdschwere aufbringt und auch im luftleeren Raum noch funktioniert. Der einzig bekannte Mechanismus, der beide Bedingungen erfüllt, ist eine Rakete.

Ein Raketenmotor nützt das physikalische Gesetz von Kraft und Gegenkraft (»actio = reactio«) aus: Wenn die Rakete eine Masse mit großer Geschwindigkeit nach hinten ausstößt (das ist die Aktion), so entsteht ein nach vorne gerichteter Schub als Reaktion. Die für die Beschleunigung der ausgestoßenen Masse nötige Energie liefert bei heutigen Raketenmotoren die Verbrennung eines chemischen Treibstoffs; der dafür gebrauchte Sauerstoff wird in einem eigenen Tank mitgeführt.

Durch die gewaltigen Mengen an Treibstoff ist das Verhältnis von Startgewicht zu Nutzlast bei einer Rakete extrem ungünstig: Es liegt für die europäische Rakete Ariane 5 bei 2,8 %, für das amerikanische Spaceshuttle gar nur bei 1,3 %. Eine Ariane mit 700 t Startgewicht kann also gerade mal 6 t Nutzlast transportieren. Um nicht ständig Raketen bauen zu müssen, wurde der zur Erde zurückkehrende Raumgleiter entwickelt. Doch die erhoffte großen Einsparungen haben sich u. a. wegen Treibstoff- und Wartungskosten nicht eingestellt.

Welche Antriebe haben die Raumschiffe der Zukunft?

Die Raumschiffe werden vermutlich – wie heute – mehrstufige Raketen mit chemischen Treibstoffen besitzen, um die Erdschwerkraft zu überwinden (d. h. eine Geschwindigkeit von mindestens 7,9 km/s zu erreichen).

Sind sie erst einmal im Raum angelangt, lassen sich unterschiedliche Antriebsalternativen denken; einige davon sind bereits in Planung. Für kleine und leichte Raumfahrzeuge ist der Ionenantrieb gedacht, der nach dem Rückstoßprinzip funktioniert: Ausgestoßen wird ein Ionenstrahl, dessen Ionen durch ein elektrisches Feld beschleunigt wurden; die Energie dazu stammt aus Solarzellen. Allerdings ist die Schubkraft eines Ionenantriebs wesentlich geringer als bei konventionellen (chemischen) Antrieben. Ionenantriebe werden daher für die Bahnregelung von Satelliten in hohen Umlaufbahnen eingesetzt, da hier nur geringe Kräfte aufgebracht werden müssen. Als sog. Marschtriebwerk wurden sie bislang in den Sonden Deep-Space 1 (NASA) und SMART-1 (ESA) erfolgreich getestet. Bei diesen interplanetaren Sonden sind Ionentriebwerke sinnvoll, weil hier lange Schubzeiten (bei kleiner Schubkraft) hingenommen werden können.

Das Sonnensegel ist ein bisher noch unerprobter Antrieb von Raumfahrzeugen. Er soll, ähnlich wie beim Segel von Schiffen, den Strahlungsdruck der Sonne als Antriebsquelle nutzten. Ein solches Segel muss extrem groß und leicht sein, da der Strahlungsdruck der Sonne nur sehr gering ist und quadratisch mit der Entfernung von der Sonne abnimmt. Prototypen aus Mylar-Fasern messen 20 × 20 m² bei einem Gewicht von wenigen Kilogramm, also etwa 10 g pro Quadratmeter.

Welchen Nutzen hat die Raumfahrt?

Ein Nutzen der unbemannten Raumfahrt für den Alltag wurde lange nicht gesehen, heute aber wissen wir: Ohne Raumfahrt gäbe es keine Wettersatelliten, kein Satellitenfernsehen, keine Satellitennavigation etc. Der Nutzen ist also indirekt vorhanden.

Wussten Sie, dass …

der Mensch zwar von Raumfahrt redet, aber eigentlich die Erde kaum verlassen hat? Die ISS kreist in rund 400 km Höhe über der Erdoberfläche, das entspricht etwa der Strecke Frankfurt–Hamburg. Selbst der Mond, tausend Mal weiter entfernt, ist noch in nächster Erdnähe.

entgegen einem nicht auszurottenden Gerücht der Kunststoff Teflon nicht für die Raumfahrt entwickelt wurde? Er wurde erstmals 1938 hergestellt, ab den 1950er Jahren aber auch in der Raumfahrt benutzt.

zum Überwinden der Erdschwerkraft eine Geschwindigkeit von 11,2 km/s notwendig ist? Das entspricht über 40 000 km/h.

Wann gibt es Weltraumtourismus?

Weltraumtourismus – also eine Vergnügungs- oder Studienreise in den Erd-Orbit (oder darüber hinaus) – ist nicht nur denkbar, er wird bereits praktiziert: Die Reise des US-amerikanischen Unternehmers Dennis Tito an Bord einer russischen Sojus-Kapsel zur Internationalen Raumstation ISS im April 2001 gilt allgemein als der Beginn des Weltraumtourismus. Tito bezahlte etwa 20 Millionen Dollar für seinen Flug. Seitdem hat es zwei weitere Weltraumtouristen gegeben.

Nach Studien der Tourismuswirtschaft haben grundsätzlich viele Menschen den Wunsch, in den Weltraum zu fliegen. Bei der Firma Virgin Galactic haben sich rund 7000 Personen gemeldet, die bis 200 000 Dollar für einen solchen Flug zu bezahlen bereit sind. Dabei soll das privat entwickelte Raumschiff namens SpaceShipOne genutzt werden, das bei seinem Jungfernflug im Juni 2004 auf Anhieb die Höhe von 100 km überstieg, die als untere Grenze für Weltraumflüge gilt.

Optische und Quantencomputer: Die fünfte Generation

Gibt es Computer ohne Elektronik?

Ja, zumindest theoretisch. Denn »Elektronik« ist die Lehre vom Schalten und Rechnen mit Elektronen als Informationsträgern, und hierzu gibt es Alternativen. Allerdings sind diese bisher noch kaum über das Entwurfs- oder Entwicklungsstadium hinausgelangt. Die beiden vielversprechendsten Ansätze sind der optische Computer und der Quantencomputer. Ersterer arbeitet noch auf vergleichsweise herkömmliche Art: Sog. Lichtteilchen oder Photonen übernehmen hier die Aufgabe der Elektronen im Rechner.

Quantencomputer sind dagegen mit den Mitteln der klassischen Physik überhaupt nicht mehr zu verstehen, denn sie nutzen wesentlich Effekte der Quantentheorie, etwa die Tatsache, dass Quantenobjekte sich gleichzeitig an mehreren Orten aufhalten können oder an derselben Stelle viele unterschiedliche Zustände einnehmen können.

Welchen Vorteil bieten optische Rechner?

Optische Computer sollen eine wesentlich höhere Rechenleistung ermöglichen als die heute üblichen Computer mit elektronischen Bauteilen. Theoretisch ist eine 1000- bis 10 000-mal höhere Rechengeschwindigkeit möglich.

Während in der Praxis noch keine durchgängig mit Photonen arbeitenden Computer realisiert wurden, hat die Optoelektronik, also die Nutzung sowohl von Elektronen als auch von Photonen im selben System, schon große Erfolge feiern können. So sind optische Speicherplatten wie CD und DVD heute in fast jedem Haushalt zu finden, moderne Audio-Video-Heimanlagen verfügen bereits über Anschlüsse zur rein optischen Datenübertragung. Auch Glasfaser-Fernleitungen, wie sie in der Telekommunikation benötigt werden, arbeiten optisch. Weniger weit ist man dagegen mit optischen Schaltelementen, also der Beeinflussung von Lichtsignalen durch Licht, ähnlich wie im Grundbaustein der Mikroelektronik, dem Transistor.

Wie arbeiten Glasfasern?

Glasfasern übertragen das Licht von Laserdioden, in welchem die Abfolge von Nullen und Einsen einer Datei durch Hell-Dunkel-Signale widergegeben wird. Obwohl die Fasern aus dem brüchigen Glas bestehen, sind sie flexibel und lassen zudem das Licht nur am Anfang und am Ende ein- bzw. austreten. Möglich wird dies zum einen durch einen vielschichtigen Aufbau und zum anderen dadurch, dass sich ihre optischen Eigenschaften von innen nach außen ändern, wodurch das Licht immer zur Fasermitte hin reflektiert bzw. gebrochen wird.

Die Datenübertragung mit Licht birgt Vorteile gegenüber der elektrischen Übertragung in Kupferkabeln: geringeres Gewicht pro verlegtem Kilometer, geringere Störanfälligkeit und vor allem eine deutlich höhere Übertragungsgeschwindigkeit. Probleme gibt es allerdings, wenn Datenströme aufgeteilt und an verschiedene Adressen weitergeleitet werden müssen. Die nötigen Schaltvorgänge können derzeit nur mit elektronischen Bauteilen durchgeführt werden. Und diese sind nicht nur langsamer, sondern verbrauchen zusätzlich Zeit durch die Umwandlung von optischen in elektronische Signale und zurück. Abhilfe schaffen sollen in Zukunft rein optische Schalter, die z. B. mikrometergroße Spiegel oder sog. nichtlineare optische Materialeigenschaften ausnutzen.

Was ist das Besondere an Quantencomputern?

Sie rechnen nicht nur mit Nullen und Einsen – wie normale Computer –, sondern nutzen auch Quantenzustände von Atomen oder Elektronen aus. Analog zu den Bits klassischer Rechner ist die Grundeinheit beim Quantencomputer das Quanten-Bit oder kurz Qubit. In einem Qubit überlagern sich die Zustände »Null« und »Eins«, und diese Überlagerung bleibt solange erhalten, bis jemand »hinsieht«. Mit »Hinsehen« kann z. B. das Auslesen eines Qubits, also seine »Messung« gemeint sein. Dadurch wird die Überlagerung aufgehoben, das System »entscheidet« sich eindeutig für einen der beiden Zustände.

Wussten Sie, dass …

der Kerndurchmesser einer Glasfaser nach EU-Standard nur 50 μm beträgt? Somit ist sie dünner als ein menschliches Haar.

Glasfasern elastisch sind? Man kann sie also krümmen, darf sie aber nicht knicken.

verschiedenfarbiges Licht in einer Glasfaser sich mit unterschiedlicher Geschwindigkeit ausbreitet? Es ist daher vorteilhaft, Laserstrahlung zu verwenden, die aus Licht einer einzigen Wellenlänge besteht.

die für paralleles Rechnen nötigen Prozessoren nicht in einem einzigen Computer stecken müssen? Man kann auch viele »normale« Rechner zusammenschalten. Mit 528 handelsüblichen PCs wurde so an der Universität Chemnitz einer der schnellsten »Cluster-Rechner« der Welt realisiert.

ein Quantencomputer ganz anders aussehen kann als herkömmliche Rechner? So wurden Prototypen realisiert, in denen Laserstrahlung die Atomkerne einer Flüssigkeit in spezielle Quantenzustände versetzt.

es auch DNA-Rechner gibt, deren Programm im genetischen Code verschlüsselt ist?

Was heißt »paralleles Rechnen«?

Früher hatte jeder Computer einen zentralen Mikroprozessor, der die Arbeit aller anderen Komponenten steuerte und selbst immer eine Programmanweisung nach der anderen ausführte. Bei solchen seriellen Rechnern kann viel Zeit durch das Warten unbeschäftigter Systemkomponenten verschwendet werden. Heute setzt sich dagegen das »parallele Rechnen« immer mehr durch; auch PCs werden schon mit mehreren parallel agierenden Zentralprozessoren angeboten. Hochleistungsrechner besitzen mitunter sogar Tausende von Prozessoren, die jeweils gleichzeitig Einzelaufgaben bearbeiten. Allerdings lassen sich nicht alle numerischen Fragestellungen mit Parallelrechnern besser lösen.

Roboter und künstliche Intelligenz: Anders als der Mensch

Gibt es schon richtige Roboter?

Ja, insbesondere in der Industrie existieren vielfältige programmierbare Maschinen, die sich mithilfe von Sensoren, Software usw. auf ihre äußere Umgebung einstellen und ohne menschliches Zutun die ihnen übertragene Arbeit verrichten. Solche Industrieroboter findet man etwa beim Schweißen von Blechen, oder allgemein in Situationen, die für den Menschen zu gefährlich – wie das Handhaben von Gütern in radioaktiv verstrahlter Umgebung – oder nicht zugänglich sind, etwa die Oberfläche fremder Planeten.

Was ist eigentlich Intelligenz?

Nach dem »Wahrig«-Wörterbuch die Summe der geistigen Begabungen, eine genauere Beschreibung ließe sich nur schwer finden. Unstrittig ist, dass zur Intelligenz sprachliches Verständnis, Gedächtnis, rechnerisches Denken, räumliches Denken sowie schlussfolgerndes Denken gehört. Ebenso weiß man, dass niemand in allen Aspekten der Intelligenz gleich gut ist, somit etwa Intelligenztests je nach Fragestellung beim gleichen Menschen zu ganz unterschiedlichen Ergebnissen führen. Völlig ungeklärt sind einige der grundsätzlichen Fragen: Wie funktioniert unser Denken, unsere Kreativität? Ist Intelligenz an biologische oder überhaupt irgendwelche Strukturen gebunden oder kann sie in Robotern, Computern oder gar in immateriellen Wesen verankert sein?

Eng verbunden mit der Frage, was Intelligenz selbst ist, ist die Suche nach dem, was Systeme mit künstlicher Intelligenz können müssen – oder anders herum: Welche Leistungen von Computern oder Robotern kann man als »intelligent« bezeichnen? So gelten gute Schachspieler zwar gemeinhin als intelligente Menschen, doch ein PC-Computerprogramm kann heute den Schachweltmeister besiegen. Unreflektierte emotionale Wutausbrüche werden dagegen meist als dummes Verhalten angesehen, gehören aber wohl zu denjenigen Geistesleistungen, die am schwersten von einem künstlichen System hervorgebracht werden können.

Ist das Gehirn ein Vorbild für künstliche Intelligenz?

Ja, es ist sogar ein wichtiger Ansatz in der Forschung zur künstlichen Intelligenz, die Funktionsweise des Gehirns nachzubilden. Aber: Im Gehirn gibt es etwa 100 Milliarden »Schaltzellen«, sog. Neuronen, und jede von ihnen tauscht ständig mit etwa 1000 anderen Signale aus. Dabei verarbeitet das Gehirn die Informationen nicht wie ein normaler Computer nacheinander, sondern parallel in vielen Einheiten, die sich gegenseitig beeinflussen.

Künstliche neuronale Netze versuchen, diese Eigenschaften nachzuahmen, entweder in Computerprogrammen oder in eigens konstruierten Schaltkreisen. Bislang konnten aber nur wenige Tausend künstliche Neuronen verbunden werden; die Komplexität des menschlichen Gehirns wird so möglicherweise nie erreicht werden. Dennoch können diese rechnenden Netze bei bestimmten Aufgaben schon heute Erfolge aufweisen, etwa bei der Interpretation von Luftbildaufnahmen, in der Spracherkennung oder auch in der Prognose von Wetter- oder Börsendaten.

Was sind Expertensysteme?

Elektronische Ratgeberprogramme, die sowohl auf eine große Basis von gespeicherten Informationen zurückgreifen als auch nach vorgegebenen Regeln eigene Schlüsse ziehen und dem Anwender anbieten können. Dies ist nur in eng begrenzten Problemkreisen möglich. Hier kann solch ein Programm aber sowohl herkömmlicher Software als auch den menschlichen Fähigkeiten überlegen sein.

Wussten Sie, dass …

der Begriff »Roboter« auf das tschechische Wort »robota« zurückgeht, das Fronarbeit bedeutet?

auch Hilfe- und Assistenzsysteme in einem normalen PC auf Ansätze der Künstlichen Intelligenz zurückgehen?

das Computersystem »Deep Blue« das Schachspiel so gut beherrschte, dass es 1997 den damaligen Schachweltmeister Garri Kasparow besiegte?

Science-Fiction-Autoren wie auch Philosophen darüber debattieren, ob intelligente Roboter Menschenrechte haben?

Was ist ein Roboter?

Eine programmierbare Maschine, deren Gestalt von der Aufgabe abhängt, für deren Erfüllung sie konstruiert wurde. Heutige Industrieroboter sind in den seltensten Fällen menschenähnlich. In der Kfz-Fertigung etwa sind sie fest montiert, aber drehbar und besitzen einen oder mehrere bewegliche Arme, in die unterschiedlichste Werkzeuge eingesetzt werden. Haushaltsroboter existieren erst in wenigen Modellen, etwa als selbststeuernde Staubsauger in Form einer flachen Scheibe. Japanische Ingenieure haben auch künstliche Haustiere erfunden, welche in der automatisierten Altenpflege eingesetzt werden sollen.

Futurologie: Wie sieht die Welt von morgen aus?

Was ist Futurologie?

Die Wissenschaft, die aus heutigen Technologien und gesellschaftlichen Trends zukünftige Entwicklungen – Chancen wie Gefahren – ableiten will. Man spricht daher auch von Zukunftsforschung.

Zum Themenspektrum der Futurologie gehört auch die Frage, welche Optionen es für die Gestaltung der Zukunft gibt und welche Voraussetzungen dafür nötig sind. Im Unterschied zur Science-Fiction schreibt die Futurologie aber nur bestehende Trends fort und setzt keine Technologie voraus, die noch zu entwickeln wäre, bzw. für die noch keine Grundlagen existieren.

Treffen Vorhersagen immer ein?

Nicht unbedingt, wie das folgende Beispiel sehr plastisch zeigt: »Im Jahr 2000 lebt praktisch die gesamte Weltbevölkerung von 15 Milliarden Menschen in einer einzigen Stadt namens Ecumenopolis, die etwa 10 % der Landfläche bedeckt und hauptsächlich aus 300 Stockwerken hohen Wohntürmen besteht. Der Rest der Erdoberfläche ist geschütztes Grünland. Nur noch die Hälfte der Bürger geht (bei einer Viertagewoche) einer Erwerbstätigkeit nach, 20 % arbeiten gar nicht mehr. Schwere körperliche Arbeit ist auf Roboter übertragen worden, intelligente Systeme übernehmen auch Dienstleistungen. Infektionskrankheiten und Krebs sind durch Biotechnologie ausgerottet, unter gewaltigen Kunststoffkuppeln wird genug Nahrung für alle erzeugt. Für die Energieerzeugung sorgen 20 000 Kernreaktoren oder gewaltige Sonnenkraftwerke im All.«

Solche Visionen entstanden in den 1950er und 1960er Jahren. Sie waren geprägt vom Vertrauen in die Machbarkeit technischer Visionen. Heute wissen wir: Die Entwicklung ist so nicht eingetreten, hier war man zu sehr dem Denken der technischen Machbarkeit und des immer währenden Fortschritts verhaftet. Die »Befreiung der Menschen von der Arbeit« erleben wir heute aber sehr wohl, wenn auch nicht wie damals gedacht als freiwilligen Verzicht auf Arbeit bei wachsendem Wohlstand, sondern als strukturelle Massenarbeitslosigkeit und Verarmung.

Um die Qualität der Prognosen zu verbessern, wurden verschiedene Methoden entwickelt, etwa die Delphi-Befragung, die Simulation und die Szenariotechnik. Viele dieser Methoden werden auch bei der Technikfolgenabschätzung verwendet.

Was ist die Delphi-Befragung?

Ein systematisches, mehrstufiges Befragungsverfahren zur Einschätzung zukünftiger Ereignisse, Trends und technischer Entwicklungen. Die 1964 entwickelte Delphi-Methode ist nach dem Orakel von Delphi des klassischen Griechenlands benannt. Sie wird (mit Modifikationen) noch heute häufig für die Ermittlung von Prognosen angewendet.

Zu Beginn erhält eine Gruppe von Experten einen Fragenkatalog zu Themen des zu untersuchenden Fachgebiets. Die schriftlich erhaltenen Antworten, Schätzungen, Ergebnisse usw. werden aufgelistet, durch eine spezielle Mittelwertbildung zusammengefasst und den Fachleuten anonymisiert erneut vorgelegt, damit sie ihre Aussagen verfeinern oder auf die Einschätzungen der Kollegen eingehen können. Dieser Prozess kann mehrfach wiederholt werden. Das Endergebnis ist eine aufbereitete Gruppenmeinung, die die Aussagen selbst und Angaben über die Bandbreite vorhandener Meinungen enthält.

Was versteht man unter der Szenario-Technik?

Die Szenario-Technik ist eine Planungsmethode, die mögliche zukünftige Entwicklungen untersucht. Zunächst erstellt man eine eingehende Beschreibung der Ausgangslage und listet Einflussfaktoren auf, etwa die Wachstumsrate, die Arbeitslosenzahl oder die Häufigkeit von Stürmen. Dann wird untersucht, wie sich diese Faktoren gegenseitig beeinflussen und welche Folgen sich daraus ergeben. Schließlich wird die Wahrscheinlichkeit der interessantesten und der extremen Szenarien berechnet. Aus deren Chancen und Risiken leitet man dann Empfehlungen ab, wie die Menschheit sich für ihre mögliche Zukunft rüsten kann.

Wussten Sie, dass …

einer der einflussreichsten Futurologen, Herman Kahn (1922–1983), auch ein Vordenker des präventiven atomaren Erstschlags war?

das volkswirtschaftliche Szenario über die »Grenzen des Wachstums« für den Club of Rome (1972) vor allem deshalb nicht eingetreten ist, weil man den Einfluss von Energie- und Materialeinsparungen unterschätzt hat?

auch die regelmäßig wiederholte Shell-Studie zur Verkehrsentwicklung auf Szenarien beruht? Bis jetzt wurden aber die Ergebnisse der Negativszenarien von der Realität immer übertroffen.

noch immer v. a. technische Mammutprojekte unser Bild der Zukunft prägen? Beispiele sind Turmhochhäuser mit 800 m Höhe wie der geplante Millennium Tower bei Hongkong oder die Hängebrücke zwischen Spanien und Afrika, deren 14 km lange Fahrbahn an zwei 1200 m hohen Stützpfeilern hängen soll.

Das könnte Sie auch interessieren