Nanotechnologie

 

(mit Inhalten aus dem Buch:

"Geheimtechnologien", Bohmeier Verlag, Lübeck, von Dr. Carlos Calvet)

 

 

Dr. Carlos Calvet                                         Neue Physik und -Technologien

Francisco Corbera, 15

E-08360 Canet de Mar (Barcelona)                          [email protected]

Spanien                                                   www.alien.de/hyperspace/home.htm

                                                                             www.telefonica.net/web/planckworld

 

 

Zwar wurde der Begriff „Nanotechnologie“ erst vor Kurzem von Eric Drexler in den 60-er Jahren, in seinem Buch „Engines of Creation” geprägt, doch täuscht uns das, eine nicht reale Wirklichkeit vor.

 

Nanotechnologie gibt es schon seit Anbeginn des Lebens. Das bedeutet: auf der Erde, seit circa 3,5 Milliarden Jahre.

 

Was aber hat es mit diesem Begriff auf sich? Warum scheint uns allen, dieser Begriff so vertraut, doch, wenn wir genau hinschauen, verstehen wir ihn doch nicht?

 

Manche würden sagen: er steckt in uns allen als Erinnerung an längst vergangene Zeiten. Und vielleicht ist das gar nicht mal so falsch, denn: „„...Die Molekulartechnik ist dabei der Versuch des Menschen, die oben [im Buch] geschilderte Biomaschinerie nachzuahmen. Diese Technik nennt sich auch Nanotechnologie, weil der Nanometer (ein Millionstel Millimeter) das Maß der Moleküle ist. Beim Mikrometer (ein Tausendstel Millimeter) angelangt, befinden wir uns bereits im Reich der Bakterien und der kleinen Zellen. Dieses Reich ist jedoch noch (etwa 1000 mal) zu groß für die Manipulation von Molekülen. Und anders herum, wenn wir uns ins Reich des Picometers begeben (das ist ein Milliardstel Millimeter), befinden wir uns bereits im Reich der Atome. Und das ist schon zu klein um noch Moleküle handhaben zu können. Aus diesem Grund müssen wir uns im Nanobereich aufhalten – daher auch der geheimnisvolle Name, „Nanotechnologie“.““

 

Der Nanobereich umfasst also alles, was sich zwischen der Größe eines Atoms und einer Stecknadelspitze befindet – prinzipiell also Moleküle, und je größer, desto besser, da sie leichter zu handhaben sind.

 

Man sagt weiterhin, der Mensch würde mit seiner Technologie die Natur nachahmen - so z. B. die Tätigkeiten im Inneren von lebenden Zellen. Doch auch hier begehen wir wahrscheinlich wieder den selben Fehler und behaupten quasi, dass Technologie und Natur nichts gemeinsam haben.

 

Doch es gibt auch Forscher, die begriffen haben, worum es hier eigentlich wirklich geht: sie teilen die Technologie nämlich in „trockene“- und „feuchte“ Technologie ein. Das bedeutet, die Natur entwickelte anhand dessen, was wir „Evolution“ nennen (und prinzipiell nur von „außen“ – also vom äußeren Aussehen der Lebewesen - her kennen), eine Technologie, die nur funktioniert, wenn sie in einer wässrigen Flüssigkeit eingetaucht ist. 3,5 Milliarden Jahre später entwickelte der Mensch – der selber eine natürliche Technologie in diesem Sinn ist – die trockene Technologie, die prinzipiell mit der feuchten Technologie nicht kompatibel ist, denn jeder von uns weiß, dass man elektrische Kabel nicht ins Wasser stecken darf!

 

Nun ahnen Sie sicherlich schon, was „Nanotechnologie“ in Wirklichkeit bedeutet: nämlich die perfekte Nachahmung biologischer Zellprozesse. In meinem Buch wird darüber u. A., folgendes berichtet: „„...Die Molekulartechnik geht wie oben erwähnt davon aus, dass die gesamte Biomaschinerie an Enzymen und Informationsträgern in den Zellen nachgebaut und perfektioniert werden kann.

 

Eigentlich ist der Grundsatz der Molekulartechnik nicht neu. Wir benutzen schon seit längerem Antibiotika, die in den Augen der Molekulartechniker nichts weiter als kleine Maschinen sind, die sich u. A. auf die Zellmembrane von Bakterien setzen und sie zum platzen bringen, indem sie ein Loch in der Zellwand öffnen. Die makroskopischen Muskeln aller lebenden Tiere funktionieren ihrerseits anhand eines ähnlichen Prinzips, wie die mikroskopisch kleinen Mikrotuben, die es Bakterien erlauben, Kontraktionen durchzuführen, und Urtierchen, mit ihren Wimpern zu schlagen.

 

Es handelt sich bei Mikrotuben um Fasern eines Proteins, auf denen sich ein zweites Protein sozusagen „festklammert“. Indem es sich festklammert, bleibt ein primitiver Muskel oder die jeweilige Wimper regungslos. Wenn aber eine Ziehbewegung auf den feststehenden Fasern erfolgt, wird der Muskel oder die Wimper nach vorne oder nach hinten oder zur Seite hin bewegt. So in etwa entstehen alle Bewegungen, von Bakterien bis zu höheren Tieren und sogar dem Menschen.

 

Während aber eine Nachahmung der Muskeln eher die Aufgabe der Biomechanik ist (z. B., zur zukünftigen Herstellung von Kampfanzügen, die unsere Stärke um ein Tausendfaches erhöhen können), ist es Aufgabe der Molekulartechnik diejenigen Zellmechanismen zu imitieren, die es uns erlauben, neue molekulare Einheiten herzustellen. Man unterscheidet dabei zwischen Replikatoren (Moleküle, die andere Moleküle oder sich selbst vervielfachen – z. B. die DNS-Polymerase, die neues DNS herstellt), Assembler (Moleküle bzw. Strukturen, die gewisse Moleküle oder Strukturen zusammenbauen – z. B. Ribosome, die Eiweißstoffe zusammenbauen), und Deassembler (Moleküle bzw. Strukturen, die gewisse Moleküle oder Strukturen auseinanderbauen – z. B. Ribonuklease, ein Enzym, das Nukleinsäuren zerschneidet).

 

Replikatoren, Assembler und Deassembler funktionieren in lebendigen Zellen auf Grund von Anweisungen, die letztendlich alle von Nukleinsäuren vorgegeben werden. So stellen etwa Ribosome nur Proteine oder Eiweißstoffe her, wenn sie gleichzeitig einen gültigen DNS-Strang lesen können. Dabei werden die Purinebasenpaare aus Adenin, Guanin, Cytosin und Tyamin abgetastet, die pro Paar eine Aminosäure kodieren. Und auf der anderen Seite werden parallel dazu Aminosäuren aus dem Zellplasma zu Proteinen zusammengekoppelt. Wenn einmal ein Protein ausgedient hat, wird es von Enzymen (so ähnlich wie in unserem Magen) auseinander genommen und die alten Aminosäuren können so wieder für neue Proteine verwendet werden, die wiederum völlig neuartige Funktionen ausführen können. Es handelt sich dabei also um eine absolut perfekte biologische Recyclingmaschine.

 

Nach diesem Prinzip sollen auch zukünftig molekulare Maschinen – ja sogar ganze molekulare Fabriken – funktionieren. Dabei wird die Information, die in den Zellen im DNS enthalten ist, durch künstliche Intelligenz (bzw. ihrer Nachfolgerin) ersetzt. Somit würde für derartige „Fabriken“ ein neuer molekularer Baustein erforderlich sein, nämlich der Nanocomputer: Nanocomputer bestünden dabei aus verschieden großen Einheiten: die Kleinste davon könnte etwa 10 Millionen Kubiknanometer-, und die Größte noch unter einem Kubikmikrometer (also ein Tausendstel eines Stecknadelkopfes) groß sein.

 

Nanocomputer wären dabei im Prinzip nichts weiter als ein Molekularchip, 10- bis 100-tausend mal kleiner als ein derzeitiger Mikrochip. Dabei würde man die Informationen, das heißt die Programmierungen des Nanochips, ähnlich wie bei den derzeitigen Mikrochips, durchführen. Da Nanochips aber dreidimensional (und nicht mehr zwei-dimensional wie Mikrochips) sind, würde sich ihre Speicherkapazität zumindest auch um ein Tausendfaches erhöhen im Vergleich zu heutigen Mikrochips mit den selben Ausmaßen.

 

Wie auf einer CD-ROM, könnte man z. B. in einem Nanokubus kleine Einkerbungen erstellen, etwa indem wir hier und da Atome mit einem Nanomanipulator entnehmen, um den Kubus auf diese Weise zu programmieren. Wir könnten aber auch hier und da etwa magnetische Kristalle aus Ferrit oder anderen Materialien einsetzen, um die Programmierung eines Magnetbandes zu imitieren. Ein weiterer Fortschritt bei der Miniaturisierung der Speicherchips wäre dabei die Programmierung anhand verschiedener Atome, die in Reihen und Spalten gelesen, ein dreidimensionales Informationsmuster ergeben könnten. Auch das Einfügen von Ionen in Lösungen bzw. Suspensionen solcher Nanochips in einer Flüssigkeit könnte die Information erneut um ein Vielfaches erhöhen. Dabei könnte man, z. B., die Ladung eines Ions oder Ferritmoleküls anhand einer elektromagnetischen Vorrichtung ablesen – so ähnlich wie bei einem Magnetkopf, der ein Magnetband abliest und die Information dann in Geräusche (Musik) oder Bilder (Video) umwandelt - nur eben viel, viel schneller.

 

Die Möglichkeiten von Nanocomputern sind offensichtlich unbegrenzt. In der Praxis würden größere Nanocomputer an bestimmten Standpunkten platziert, und von dort aus könnten sie kleinere und noch kleinere Nanocomputer steuern und sogar von selber programmieren, damit sie ganz spezifische Arbeiten verrichten. Eine Lösung bzw. Suspension aus Nanocomputern könnte auch einfach anhand von elektromagnetischen Wellen programmiert werden. Dabei wäre jede Wellenlänge bzw. -frequenz der Auslöser einer ganz bestimmten elektrochemischen Reaktion im Inneren des Nanocomputer-Kubus. Anhand eines Elektrowellengenerators könnten wir ferner eine ganze Flotte von Nanocomputern programmieren, die ihrerseits ihre spezifischen Aufgaben an Nanomaschinen weitergeben können, so ähnlich, wie es weiter unten erläutert wird.

 

Dabei sind Forscher zum verblüffenden, aber offensichtlich richtigen Resultat gekommen, dass die Natur immer noch im Prinzip mit „altmodischen“ Informationsträgern arbeitet. Die DNS- bzw. RNS-Stränge erinnern nämlich an die, vor Jahrzehnten in der Computerindustrie verwendeten Lochbänder, mit denen wir einst unsere altmodischen Rechner programmierten. Jeder Strang Nukleinsäure versteht sich dabei, als wäre er ein Lochband, das die Herstellung von Eiweißstoffen und vielen anderen Molekülen überhaupt ermöglicht und steuert. Die Herstellung von Eiweißstoffen ist dabei die direkteste Umsetzung, die es von einer Nukleinsäure in ein Molekül gibt, und wird von Ribosomen vorgenommen, denn Nukleinsäuren sind der direkte Code für Aminosäuren, die ihrerseits die besagten Eiweißstoffe bilden. Dabei liest jedes Ribosom einen DNS-Strang und koppelt am anderen Ende Aminosäuren zu einem Protein zusammen.

 

Wenn die Natur, anstatt der DNS, mehr fortgeschrittne Speichermedien benutzen würde, wie Nanokuben oder ähnliches, würde die Welt sicherlich nicht so aussehen, wie sie heutzutage aussieht. Vielleicht würden wir Menschen in diesem Fall auch gar nicht mehr existieren, denn vom molekularen Sichtpunkt aus, sind wir nichts weiter als altmodische Geschöpfe.

 

Dieser Gedanke hat natürlich viele Spekulationen veranlasst. Die Natur hat aber sicherlich ihre guten Gründe gehabt, um uns derart „primitiv“ zu halten. Denn, u. A., nur ein primitives Wesen kann sich wünschen, perfekter zu werden. Auf anderen Planeten, auf denen es nach modernen Gesichtspunkten nach zu urteilen wahrscheinlich auch Leben geben könnte, ist es jedoch nicht auszuschließen, dass dort die Natur die Phase der DNS vielleicht schon überwunden, und ein Leben kreiert hat, das wir uns überhaupt nicht vorstellen können: Modulare Wesen, die sich selbst reparieren und praktisch unsterblich sind; lebende Einheiten, die sich auf Wunsch zusammenfügen können, um eine Art Kolonie zu bilden; Wesen, die im Status solcher Kolonien beschließen, sich oder ihre unmittelbare Umgebung in ein Raumschiff umzuwandeln, um uns Menschen einfach besuchen zu kommen; oder, die anhand ihrer Nano- bzw. Picomaschinen (das sind noch nicht erforschte atomare Maschinen) Zugriff auf die Struktur des Raumes haben, und uns einfach so – ohne ein Raumschiff dazu zu benötigen – besuchen kommen können. Die Möglichkeiten sind hier praktisch unbegrenzt...

 

Die Entwicklung obigen Szenarios weiter verfolgt, führt also offensichtlich zu einem Wesen, das praktisch perfekt und unsterblich ist. Man könnte es auch als „Gott“ bezeichnen. Gott (das bedeutet, das, was wir unter Gott verstehen) müsste also nicht unbedingt am Anfang des Universums stehen und es kreiert haben, sondern könnte auch im Verlauf der Jahrmilliarden entstanden sein (man sagt nämlich, unser Universum wäre ca. 12-15 Milliarden Jahre alt). Die Natur hätte in diesem Sinn im Verlauf der Äonen ein so perfektes Wesen geschaffen, das die Eigenschaften besitzt, die wir für gewöhnlich unserem gemeinsamen, irdischen Gott zuschreiben (allmächtig, unsterblich, der Schöpfer, unser aller Vater). Aber, auch wenn Gott erst am Ende bzw. im Verlauf des Universums „entstanden“ wäre, würde er dank seiner außergewöhnlichen Eigenschaften als Herrscher über Materie und Raumzeit sicherlich über die erforderlichen Mittel verfügen, um problemlos wieder zum Anfang des Universums oder nach Belieben irgendwo hin zu gelangen, um dann wiederum seinen Wünschen nach, beliebig in die Geschehnisse des Universums eingreifen zu können. Gott wäre also irgendeinmal in die „Zeitschleife“ unserer Welt eingedrungen und würde von da aus über das gesamte Universum herrschen.

 

Wir sehen also, Gott muss nicht unbedingt schon am Anfang des Universums gewesen sein, um die Bedingungen zu erfüllen, die wir an einem solchen Wesen stellen. Und zum zweiten könnte es auch nicht zwei verschiedene Götter geben, da sie sich ja gegenseitig im Weg stehen würden. Ein logischer Schritt in diesem Fall wäre die Fusion beider Götter, wieder zu einer Einheit. Und dann würde es wiederum nur noch einen einzigen Gott geben - aber das alles ist schon hohe Spekulation.

 

Wie es auch immer sei. Nanocomputer würden also geschaffen werden, um Nanomaschinen zu steuern. Diese Nanomaschinen wären dabei die erwähnten Replikatoren, Assembler, Deassembler usw. So ähnlich, wie in einer Zelle Energie in den Mitochondrien anhand von ATP (Energiemolekül) und anderen Zuckerstoffen gewonnen wird; Proteine anhand von Ribosomen und Aminosäuren, und andere chemische Substanzen anhand von Enzymen und einfachen Molekülen bzw. Ionen hergestellt werden; kann man sich auch eine ganze Nanofabrik vorstellen, die nach ähnlichen Prinzipien, wie in einer lebendigen Zelle funktioniert.

 

Nanomaschinen kann es übrigens in allen nur erdenklichen Formen und Variationen geben. Man ist, so in der Lage, selbst Nanofahrzeuge oder Nanoförderbänder herstellen, indem man  ringförmige Moleküle, wie Benzol, Cyclohexan oder andere molekulare Strukturen als Räder, und chemisch beständige Nanoplatten aus Gold- oder Platinatomen, benutzt, um Moleküle wie auf einem Förderband zu transportieren.

 

Ein fundamentaler Unterschied zwischen Nanomaschinen und Makromaschinen (gewöhnliche Maschinen) ist dabei nicht nur die Größe, sondern auch die Kräfte, die auf einer solch minimalen Ebene wirken oder, entgegen unserer Makrowelt, dort überhaupt nicht auftreten: ein Benzolrad etwa, anhand einer chemischen Verbindung an eine tragende Struktur gekoppelt, übt z. B. keine Reibungskräfte mehr aus. Das heißt, es entsteht keine Reibung mehr zwischen dem Rad und der Aufhängung (Achse). Das hier als Beispiel verwendete Benzolmolekül, kann sich dabei frei um seine eigene Achse drehen, ohne etwa Schmieröl zu benötigen! Ein Nanofenster kann sich in diesem Sinn mehrere Millionen mal öffnen und schließen, ohne dass dabei irgendwelche Scharniere anfangen zu quietschen. Und ein Nano-U-Boot kann sogar in jede beliebige Tiefe eintauchen, ohne dabei vom herrschenden Druck, wie ein gewöhnliches U-Boot,  zerquetscht zu werden.

 

Andererseits gibt es im Nanobereich auch große Nachteile gegenüber unserer Makrowelt. Der größte Nachteil ist dabei die Wärme, die erzeugt wird, wenn, sich schnell drehende und bewegende Moleküle mit Wasser oder anderen Flüssigkeiten, in denen sie gelöst sind, wechselwirken. Die Bewegungsenergie der Moleküle wird dabei auf das Lösungsmittel übertragen, das sich mit der Zeit aufwärmt.

 

Nun stellen wir uns eine konzentrierte Lösung Nanomaschinen vor, die auf Hochtouren arbeiten. Die erzeugte Wärme aus ihrer kinetischen Energie und die resultierende Wärme aus den chemischen Reaktionen, die sie in Gang setzen, würde nach einer kurzen Zeit die Lösung eventuell zum kochen bringen. Um das zu verstehen, reibe man sich einfach die Hände! Sofort wird eine starke Wärmeentwicklung spürbar. Wird diese Wärme nicht abgeführt, kann der Organismus sterben bzw. das gesamte Nanosystem zusammenbrechen. Daher müssen alle Nanosysteme mit einem durchlaufenden Strom kühler Flüssigkeit abgekühlt werden. Dass das machbar ist, beweisen ja die lebenden Organismen selber. Ihre Zellen werden anhand von Wasser gekühlt, das wir aufnehmen und später wieder auf der Haut verdampfen. Verschiedene Tiere haben verschiedene Techniken in diesem Sinn entwickelt. So verdampfen Hunde, z. B., viel mehr Wasser durch die Atmung als wir, da sie nicht so gut schwitzen können wie  Menschen. Das Prinzip der Abkühlung ist aber immer das selbe.

 

Ein Temperaturanstieg tritt auch ein, wenn wir eine infektiöse Krankheit haben und daraufhin Fieber bekommen. Das Fieber ist einerseits die Reaktion des Körpers, um den Eindringling abzutöten (z. B. einen Virus, der für gewöhnlich nicht über 40°C existieren kann und bei dieser Temperatur zerstört wird), aber andererseits rührt es auch von der überschüssigen Wärme her, die ausgestrahlt wird, weil das gesamte Immunsystem sich in Gang gesetzt hat, um die Infektion zu stoppen. Aber selbst Fieber kann einen lebenden Organismus nicht töten, es sei denn, es gibt dabei ernsthafte Komplikationen.

Wir sehen also, es wäre relativ einfach, unsere Nanofabriken mit einer simplen Kühlung zu versehen, ohne dabei gleich einen thermischen „Supergau“ befürchten zu müssen.

 

Genauso wie in der Makrowelt, werden Molekularmaschinen zukünftig auch sicherlich verschiedene Generationen durchlaufen. Zuerst müssen wir nämlich ein Interface herstellen, mit dem man die erste Generation von Nanomaschinen und -computer überhaupt herstellen kann. Dieses Interface wurde bereits entwickelt, um an einem Labortisch sitzend, direkt in die Atome und Moleküle einer Arbeitsoberfläche eingreifen zu können. Dabei bedient ein Mitarbeiter einen Joystick an seinem Arbeitstisch und verfolgt die Manipulationen einer 1 Mikrometer großen Probe auf seinem Bildschirm. Durch die Handhabung des Joysticks, wird eine nanometrische Bewegung in einem Scanning-Tunnelmikroskop oder einem Kernresonanzmikroskop ausgelöst, dessen materielle Spitze sich auf der Probe befindet. Die Spitze des Mikroskops kann dabei auf ein spezifisches Atom gesteuert werden, es eindrücken, entfernen oder ersetzen. Die bedienende Person arbeitet in diesem Fall in einem Umfeld virtueller Realität, in einem Maßstab von 1 zu einer Million, und übt dabei die verschiedensten Tätigkeiten aus. Das gesamte System ist computergesteuert und die Handhabung der Proben kann dabei sogar noch vor dem tatsächlichen Eingriff programmiert werden. Natürlich ist auch ein manueller Modus vorgesehen, bei dem der Anwender auf Wunsch in die Welt der Atome eingreifen kann (in diesem Fall hat die Realität, die Theorie bereits schon eingeholt, indem der Begriff Nanotechnologie sich zwar anfänglich nur auf Moleküle bezog, es aber nun schon möglich ist, selbst einzelne Atome zu manipulieren).

 

Der Nanomanipulator hat bereits völlig neue Erkenntnisse in der Biologie, den so genannten „neuen Materialien“, bei Kohlenstoff-Nanotuben (siehe dazu das Kapitel „Smarte Materialien“), in der Elektronik und bei Quantenaggregaten (siehe dazu das Kapitel „Quantencomputer“) gebracht. Eine letztere Version des Nanomanipulators – die Nanoarbeitsbank – erlaubt es mittlerweile, selbst Kohlenstoff-Nanotuben zu untersuchen, Nanorisse darin zu verlöten; Adenovirus-Partikel zu erforschen, um sie, z. B., als Informationsträger bei Bakterien anzuwenden; kolloidale Partikel in pure Materialien einzusetzen, um, u. A., bessere Halbleiter herstellen zu können usw.

 

Auf dem Bildschirm kann die Bedienerperson bereits 15-Nanometergroße Objekte auf einem 1-Mikrometergroßem Areal manipulieren. Dabei wurde die Höhe gegenüber der Breite des Areals um ein Fünffaches vergrößert, um die Unregelmäßigkeiten der Oberflächenstruktur besser erkennen zu können. Es können auch verschiedene Polymere in einer ganz bestimmten Reihenfolge verbunden werden, um ein Material zu schaffen, das es in der Natur so nicht gibt und das vorprogrammierte Eigenschaften besitzen kann. Was das bedeutet, kann man sich leicht vorstellen: Kunststoffe, die nicht knicken, verbrennen oder reißen, sich aber auch von selber löschen, löten oder wiederherstellen können; Viren, die einen Menschen nicht mehr infizieren können, oder solche, die eine gefährliche Bakterie praktisch auszulöschen vermögen; Materialflächen, wie, z. B., die Oberfläche eines Autos, die nicht mehr mit einer Farbschicht besprüht werden müssen, sondern winzig kleine Rillen besitzen, die das Sonnenlicht aufteilen und so, reine chromatische Farben, wie bei einem Schmetterling, hervorrufen; und noch vieles, vieles mehr.

 

Die zweite Generation von Nanomaschinen wird auf Nanosystemen beruhen, die mit dem oben erwähnten Manipulator oder ähnlichen Arbeitsbänken hergestellt werden. Stellen wir uns einmal vor, wir bauen molekulare Räder, Transportbänder, Computer, usw., und verbinden sie in der Form einer einfachen Nanofabrik – so ähnlich wie in einer lebenden Zelle. Die Fabrik wäre in diesem Fall nicht größer als ein Kubikmikrometer, hätte aber die Fähigkeiten einer ganzen Fabrikanlage. Replikatoren würden dabei verschiedene Teile replizieren, duplizieren und weitergehend vervielfältigen. Assembler würden dann all diese Teile zusammenbauen und nach, von Nanocomputern gesteuerten Modellen, geeignete Systeme zusammenstellen, die alles Mögliche verrichten können.

 

Auch die eigentliche Kontrolle solcher Nanofabriken könnte man aus der Welt der Biologie ableiten. Bei lebenden Zellen , wird das DNS anhand von Polymerasen vervielfältigt. Es gibt aber auch Restriktionsenzyme, welche die, so erzeugten DNS-Stränge, untersuchen und falsche Nukleotide (das sind Bausteine der DNS) ausschneiden, um den Strang dann wieder korrekt zusammenfügen, nachdem die falschen Bausteine ersetzt worden sind. Wir könnten also auch Enzyme oder andere Moleküle herstellen, die gewisse Sequenzen der Programmierung von Nanocomputern erkennen, und falsche Sequenzen durch korrekte ersetzen. Dadurch könnte die Anzahl an Fehlern in einer so erstellten Nanosoftware drastisch reduziert werden.

 

Eine dritte Generation von Nanomaschinen wäre dann imstande, sich selbst zu replizieren, zu programmieren und gewisse vorbestimmte Funktionen auszuführen. So könnten wir z. B. Nanofabriken zum Mars schicken und sie dort aussetzen, damit sie für uns in relativ kurzer Zeit (vielleicht ein paar Jahrzehnte), ein, so genanntes „Terraforming“ oder andere schwierige Funktionen durchführen.

 

Beim Terraforming würden die vorprogrammierten Nanomaschinen zuerst das Kohlendioxyd anhand von Katalysatoren und Wasserstoff (dem häufigsten Element im Universum) wieder in Kohlenstoff und Wasser aufspalten, das seinerseits elektrolytisch wiederum in Wasserstoff und Sauerstoff gespalten werden kann. Der Wasserstoff würde dann wieder für die Reduktion des Kohlendioxyds benutzt, so dass die Häufigkeit des Wasserstoffs immer weiter abnehmen, und die des Sauerstoffs immer weiter zunehmen würde.

 

Wenn die Zusammensetzung der Gase dann im Laufe der Zeit irdische Werte angenommen hat, löst sich unter den Nanomaschinen der Befehl aus, sich selbst zu zerstören oder sich zu einem großen reglosen Klumpen zusammenzufinden, um das Ende der diesbezüglichen Prozesse einzuleiten. Menschen würden dann auf dem Mars landen und die restliche Arbeit erledigen. Es müsste sicherlich vieles aufgeräumt werden, aber die Luft wäre für den Menschen wieder atembar. Wir könnten daraufhin auf dem Mars Gemüse anbauen, Tiere züchten, aber auch archäologische bzw. paläontologische Ausgrabungen durchführen – zum ersten Mal in der Geschichte der Menschheit, außerhalb der Erde. Und vielleicht würden wir ja dabei sogar etwas sehr interessantes entdecken...““

 

In meinem letzten Buch „Die Physik Gottes“, das voraussichtlich 1993 im Bohmeier Verlag, Lübeck, erscheinen wird, habe ich einige interessante Neuheiten der letzten Jahre in der Nanotechnologie zusammengefasst:

 

„„Monomolekulare Maschinen

Die Nanotechnologie ist der Versuch des Menschen, die „Technologie“ der lebenden Zellen nachzuahmen. In lebenden Zellen gibt es Moleküle, die chemische Energie aus anderen Molekülen – und zwar Molekül um Molekül - nutzen können, was mit der gewöhnlichen Technik noch nicht möglich ist. Ein Beispiel an energetischen Molekülen ist das ziemlich bekannte Adenosin-Triphosphat oder kurz ATP genannt. Es durchflutet alle aktiven Zellen und wird von aktiven Molekülen, wie Aktin und Kinesin, zur Erzeugung kinetischer Energie verwendet (bzw. sozusagen „verbrannt“).

 

Das Kinesin, ein 12 Nanometer großes Zelleiweiß, ist ca. 50 mal kleiner als die kleinsten Transistoren überhaupt und transportiert Zellmaterialien von einem Ort der Zelle zu einem anderen. Ein anderes Beispiel ist das Myosin, ein Protein, das sich im Muskel an Aktinfilamenten (ein anderes strukturelles Protein des Muskels) regelrecht festklammert, und so die Muskelbewegungen in Gang setzt.

 

Marcelo Magnasco von der Rockefeller University und dem NEC Research Institute hat 1994 die Grundlagen für eine solche monomolekulare Maschinerie geschaffen, mit der Proteinmotoren hergestellt und ihre Physik verstanden werden könnte. Ferner würden monomolekulare Maschinen die Nanotechnologie in Gang setzen und mit ihr wären viele neuartige Anwendungen möglich, von der absoluten Wetterkontrolle bis zur Herstellung von superdichten Materialien (eine eingehende Beschreibung der Nanotechnologie finden Sie in meinem Buch „Geheimtechnologien“).

 

 

Der Elektron-Magnetfeld-Komplex

1994 gelang es J.K. Jain ein praktisch zweidimensionales Fragment einer Elektronenwolke zwischen zwei superkalten Halbleitern unter einem starken Magnetfeld zu stabilisieren. Dabei wurde der sogenannte „Quanten-Halleffekt“ beobachtet, bei dem der Widerstand der Halbleiter nicht linear mit der magnetischen Feldstärke steigt, sondern sprunghaft in diskreten Mengen, wie wir es von Quantenräumen gewohnt sind.

 

Wenn die Feldstärke hoch genug ist, tendieren die Elektronen sich gegenseitig näher zu kommen, aber ihre gegenseitige elektrische Abstoßung kann das nicht hinnehmen und verleitet die Elektronen dazu, sich mit den virtuellen Photonen des Magnetfeldes zu verbinden. Es bilden sich auf diesem Wege sogenannte „zusammengesetzte Fermionen“, wo jedes Elektron sich mit einer geraden Zahl an virtuellen Photonen verbindet, die wie gewöhnlich in ihren Magnetlinien gefangen sind. Die Elektronen schaffen es auf diese Weise im Raum fixiert zu werden, und widerstehen somit jeglichem Versuch sie weiter zu nähern. Es ist so, als ob die Elektronen „wüssten“, wir würden sie zusammenpressen wollen bzw. als ob sie dazu vorprogrammiert wurden sich auf diese Weise zu verhalten oder gar einigermaßen „intelligent“ wären. Auf diesem Wege kann u. U. das gesamte Manetfeld deaktiviert werden - es bleibt an den Elektronen wirkungslos haften und übt keinen magnetischen Effekt mehr auf andere Körper aus, die wir dem Feld nähern.

 

Derartige zusammengesetzte Fermionen haben Teilcheneigenschaften wie Masse, bewegen sich im magnetischen Restfeld herum und verfügen über konkrete Energieniveaus, haben aber eine sehr geringe Wechselwirkung untereinander. Man könnte fast sagen, derartig modifizierte Teilchen würden sich gegenseitig „ignorieren“. Eine Erklärung für dieses Phänomen ist, dass das elektrische Feld der Elektronen (und nicht die Elektronen selber) mit dem Magnetfeld wechselwirken und ein neues Feld aufbauen, das neutral ist. Das wiederum könnte bedeuten, dass virtuelle Teilchen bei Mikrokelvin sich im Quantenvakuum verbinden und reale Vakuumteilchen bilden, die aus der Raumzeit verschwinden. Den Elektronen wird sozusagen ihr elektrisches Feld ausgeschaltet und sie wandern nun als „Geisterteilchen“ umher – der materielle Teil in der Raumzeit und das Feld im Vakuum, wo es in den Augen eines Hyperraumbeobachters als reale Teilchen materialisiert. In unseren Augen bleibt aber nur noch ein „totes“ Elektron übrig.

 

Zusammengesetzte Fermionen sind aus guten Gründen ein guter Startpunkt für zukünftige Supertechnologien von noch unbekanntem Ausmaß. So könnte man z. B. in relativ harmlosen Teilchen eine enorme Energie hineinversetzen. Antimaterie könnte u. U. auf diese Weise stabilisiert und transportiert werden - alles natürlich supergekühlt. Mit solch zusammengesetzten Teilchen könnte man auch eine ganze Armee von Nanopartikeln herstellen, mit einer Programmierung, um etwa in feindlichen Stellungen die Technik zu infiltrieren und sie durch Absorption der dort existierenden Magnetfelder (z. B. innerhalb von Apparaten, Motoren etc.) zum Stillstand zu bringen und die Armee zur Aufgabe zu zwingen.

 

Man stelle sich auch vor, etwa lose Protonen in einem Koffer mit sich zu tragen. Wenn der Koffer aufgeht, kommt nur ein wenig Staub heraus, aber wenn wir das Magnetfeld im Koffer ausschalten, reagiert alles wie in einer atemberaubenden Atomexplosion und die Protonen jagen in allen Richtungen davon, sobald sie ihre Ladungen wiedererlangt haben. Oder aber wir tragen sogar lose Elektronen in unserem Koffer. Noch nie zuvor war es gelungen Elektronen als Pulver herzustellen. Nun ist es möglich!

 

Viele Forschungsfelder werden in den kommenden Jahren sicherlich mit der Nanotechnologie verbunden werden, um solche oder ähnlich spektakuläre Erzeugnisse zu erwirken. Die Welt von morgen wird sicherlich einen Quantensprung machen, sobald all diese neuartigen Quantentechnologien zur Anwendung kommen. Man glaubt, dieser Zeitpunkt liegt um das Jahr 2025 herum, wo verschiedene Technologien - dem amerikanischen Militär nach zu urteilen - zusammentreffen werden.

 

 

Elektronen-Protonen-Falle

Zum ersten mal in der Geschichte ist es 1995 Forschern vom Max Planck Institut und der Universität in München unter der Leitung von Theodor Hansch gelungen, Elektronen und Protonen in der selben Magnetfalle einzufangen und zu stabilisieren. Normalerweise werden Elektronen und Protonen wegen ihrer entgegengesetzten Ladungen und den daraus resultierenden Wechselwirkungen nicht zusammen geladen, sondern separat.

 

Mit einem zusammengesetzten Apparat, bestehend aus einer elektromagnetischen Penningfalle (Kombination aus einem einheitlich statischen Magnetfeld und einem statischen, vierpoligen elektrischen Feld) um Potonen und andere Ionen einzufangen, sowie aus einer elektromagnetischen Paulfalle (zusammengesetzt aus einem statischen, vierpoligen elektrischen Feld und einem oszillierenden vierpoligen elektrischen Feld), um Elektronen einzufangen, wurde ein kombiniertes elektromagnetisches Feld erzeugt, dass imstande war Protonen und Elektronen in einem kleinen Raum voneinander fernzuhalten und zu stabilisieren.

 

Mit einem Kohlendioxydlaser können die Ladungen in der Falle somit angeregt und zur Bildung von Wasserstoff verwendet werden. Zwar ist dieser Weg zur Wasserstoffherstellung sehr umständlich, aber wenn wir z. B. Protonen und Elektronen durch Antiprotonen und Positronen ersetzen, verfügen wir mit dieser zusammengesetzten Technologie über einen Weg, um Antiwasserstoff herzustellen. Mit der Erschaffung der ersten Antimateriemoleküle im Labor, könnten wir dann die Physik dieser neuartigen Molekularform erforschen und u. U. bisher noch unbekannte Tatsachen über das Universum und die Raumzeit erfahren, die uns wegen der Polarisierung von Bestandteilen gewöhnlicher Materie bisher verborgen blieben.

 

Zukünftig wird es nicht nur möglich sein, Protonen und Elektronen auf diese Weise zusammen zu stabilisieren, sondern auch Ionen jeglicher Art. Somit wäre die Grundlage einer völlig neuen Chemie geschaffen, nämlich der Nanochemie, wo gezielt Ionen zusammengestellt werden, um sie so auf engstem Raum miteinander reagieren zu lassen und nach Belieben neuartige Moleküle zu kreieren. Aber auch andere Elementarteilchen können somit zur Reaktion gebracht werden, ohne dabei auf großartige Energiequellen wie Teilchenbeschleuniger zurückgreifen zu müssen. Analog zur Kalten Fusion (eine ausführliche Beschreibung findet sich in meinem Buch „Geheimtechnologien“), wo auf einer Metalloberfläche Moleküle so eng zusammengeführt werden, dass sie miteinander bei Raumtemperatur verschmelzen, könnten in einem zusammengesetzten Magnetfeld auch Elementarteilchen miteinander verschmelzen. Da die dabei erzeugte Energie reine Wärme und keine Atomenergie ist, könnten somit ganze Kraftwerke angetrieben werden.““

 

Wir sehen also, die Nanotechnologie ist ein sehr weites Feld, das nicht nur den ehemaligen Postulaten ihres Erfinders - Eric Drexler – folgt, sondern bereits auch tief in die Quantenphysik eingetaucht ist.

 

Ein weiterer Schritt in diese Richtung – wenn nicht schon irgendwo insgeheim getan – wäre die von mir benannte „Picotechnologie“ – das ist, die technisch-mechanische Nutzung von Atomen und Elementarteilchen. Wenn wir in diesem Sinn alles, was wir oben über Moleküle gelesen haben, auf Elementarteilchen übertragen, kommen wir zu einer Welt, wo Picofabriken nur noch die Größe eines Atoms haben und in denen z. B. einzelne Elektronen in winzigen Fässern gelagert, oder aber Protonen, mit Magnetphotonen verbunden, in atomaren Regalen aufgestapelt werden.

 

Diese Picowelt unterscheidet sich jedoch fundamental von der Nanowelt, da hier bereits Quantenphänomene im Spiel sind, die meinen Forschungen nach, ein unkmittelbares Resultat der Nähe der Planck’schen Welt ist, wo der Hyperraum auf die Raumzeit trifft und Teilchen durch den Hyperraum in Nullzeit an einer anderen Stelle der Raumzeit wieder auftauchen, da die Zeit im Hyperraum für uns keine Bedeutung hat. (Weiteres dazu erfahren Sie auch in meinem Buch „Hyperraum“, Argo Verlag, Marktoberdorf, das gerade auf den Markt erschienen ist und wo wir verblüffend feststellen, dass Albert Einstein offensichtlich unbewusst einem Plan Dritter folgte!)