Nanotechnik

Sie ist die Technologie für ein neues Zeitalter: Die Nanotechnik führt uns in eine Welt, die mit optischen Instrumenten nicht zu erfassen ist, weil ihre Strukturen kleiner sind als die Wellenlänge des sichtbaren Lichts. Die Welt des Unsichtbaren liegt vor uns. Willkommen im Nanokosmos.

Wenn Sie als Kind einmal Zwiebelhäutchen, Blütenteile oder Haare unter dem Mikroskop untersucht haben, erinnern Sie sich bestimmt noch an die seltsamen und faszinierenden Bilder, die inmitten von flimmernden Lichtbrechungseffekten im Okular erschienen. Das Lichtmikroskop ist inzwischen eher in Schulen als in Forschungslabors zu Hause. Obwohl es für manche Forschungsarbeiten noch nützlich ist, sind viele Wissenschaftler darum bemüht, ihr Blickfeld in den Bereich jenseits der mikroskopischen Welt auszudehnen.

Dort gibt es eine neue, noch fremdartigere Welt, die grundsätzlich nicht mit optischen Instrumenten erfassbar ist, weil ihre Strukturen kleiner sind als die Wellenlängen des sichtbaren Lichts. Da wir die Größen und Entfernungen in Nanometern (Millionstel Millimetern) angeben, nennen wir dieses Reich des Unsichtbaren den Nanokosmos. Grob gesprochen enthält der Nanokosmos Objekte, die größer sind als Atome und kleiner als eine Zelle. Es handelt sich um die Welt der Moleküle, von den kleinen (wie Traubenzucker) bis hin zu den vergleichsweise gigantischen Kettenmolekülen der lebenden Zelle, etwa den Proteinen und den Nucleinsäuren.

Wir sollten lernen im Kleinen zu denken, denn es gibt mindestens drei gute Gründe, warum wir die Nanowelt erforschen sollten: Klein ist effizient (Miniaturisierung der Schaltkreise), Klein ist spezifisch (Moleküle sind Individuen), Klein ist intelligent. Einzelmoleküle, etwa ein DNA-Strang, können zum Beispiel Information tragen. Eine Milliarde identischer DNA-Stränge hat nicht mehr Information als ein einzelnes Molekül – aber bisher benötigen wir noch Milliarden Moleküle, um die Information zu lesen. Wenn wir erst einmal einzelne Moleküle entziffern können, dann könnten wir in einem winzigen Tropfen Milliarden verschiedener DNA-Sequenzen behandeln und damit möglicherweise einen leistungsstarken DNA-Computer betreiben.

Solche und ähnliche Überlegungen haben Wissenschaftler dazu angeregt, neue Technologien in dem kleinsten Größenmaßstab zu entwickeln, der noch zuverlässig Informationen speichern und verarbeiten und mechanische, chemische und elektronische Funktionen ausführen kann. Dieser kleinstmögliche Maßstab, der für viele Anwendungen und insbesondere auch für die Datenverarbeitung ein Optimum darstellt, ist der molekulare Maßstab, der Nanokosmos.

Dies ist auch der Maßstab, in dem die Zelle alle ihre mechanischen, chemischen und informationsverarbeitenden Prozesse abwickelt. Die grundsätzliche Unsichtbarkeit des Nanokosmos ist einer der Gründe, warum die Biochemie praktisch das gesamte 20. Jahrhundert dazu benötigte, um zumindest im Groben herauszufinden, wie die lebende Zelle funktioniert. Die molekulare Einrichtung der Zelle, welche die Strukturforscher in den vergangenen fünf Jahrzehnten in mühevoller Anwendung indirekter Methoden für uns „sichtbar“ gemacht haben, ist eine faszinierende und vielfältige Ansammlung von nanometergroßen Wunderwerken, die oft ganz anders funktionieren als die Maschinen, die menschliche Ingenieure in der sichtbaren Welt entwerfen.

Deshalb greifen Forscher, die versuchen, den Nanokosmos zu erobern, oft Anregungen aus dem Inventar der Zelle auf. Obwohl die Evolution bisweilen verschwenderisch und ineffizient ist und existierende Strukturen hinbiegt, um neue Funktionen zu erfüllen, gibt es dennoch einige Lektionen, die wir von der „Nanotechnologie der Natur“ lernen können. Diese Prinzipien mögen einfach erscheinen, doch sie sind in den vergangenen dreieinhalb Milliarden Jahren so erfolgreich gewesen, dass wir keine Lebensform kennen, die ohne sie auskommt.

 

Der diskrete Charme des Kleinen

Als das Wort „Nanotechnologie“ in den 1980er Jahren seinen Siegeszug antrat, waren die damit verbundenen Vorstellungen vor allem von den entschieden spekulativen Büchern Eric Drexlers geprägt, in denen das Platzieren einzelner Atome als der Kernpunkt der neuen Technologie dargestellt wird. Die Natur selbst verabscheut einzelne Atome. Einfache chemische Reaktionen, bei denen im Prinzip nur zwei Kohlenstoffatome miteinander verknüpft werden (um letztendlich Zucker und andere Kohlenhydrate herzustellen), sind in der Zelle in komplizierte Netzwerke von gekomolekuleppelten Reaktionen eingebettet, bei denen jeder Teilnehmer mindestens drei Kohlenstoffatome besitzt.

Solche Moleküle sind einfacher zu handhaben als Atome, ihre chemische Reaktionsfreudigkeit kann auf subtile Weise variiert werden, und die Katalysatoren der Natur, die Enzyme, können sie mit hoher Spezifität erkennen und von anderen, ähnlichen Molekülen unterscheiden. Heute sind sich die meisten Forscher einig, dass die kommende Epoche der Nanotechnologie eine molekulare Technologie sein wird und keine atomare.

Bauen mit Molekülen

In einer molekularen Struktur muss jedes Atom an seinem Platz sein. Solange es sich um kleine Moleküle (wie Traubenzucker) handelt, können Synthesechemiker diese zusammenfügen, indem sie die Atome einzeln aneinander hängen. Doch diese Vorgehensweise könnte niemals zum Aufbau komplizierter Makromoleküle wie etwa der Proteine führen. Stattdessen geht die Zelle in mehreren Stufen vor. Sie ordnet die Atome zu molekularen Bausteinen, etwa den Aminosäuren. Im zweiten Schritt verknüpft sie dann die Aminosäuren zu einem langen Kettenmolekül, das sich dann zu einer dreidimensionalen Struktur auffaltet. Diese kann sich weiterhin mit anderen Proteinmolekülen zu hochgradig komplizierten Maschinen zusammenlagern. Dank dieses Baukastenprinzips kann die Zelle einen Grad von Komplexität erzeugen, der unserer Technologie nicht zugänglich ist.

Die ersten beiden Schritte auf dem natürlichen Weg zu komplexen molekularen Strukturen beinhalten die traditionelle Chemie. Kovalente Bindungen zwischen Kohlenstoffatomen ermöglichen die Herstellung der Aminosäuren und der Polypeptidkette. Doch dann, bei der Faltung und beim Assemblieren dieser Ketten, greift die Natur auf Methoden zurück, die erst vor wenigen Jahrzehnten Eingang in die Chemie gefunden haben. Statt weniger kovalenter Bindungen sind es zahlreiche schwache Wechselwirkungen, welche die dreidimensionale Struktur eines Proteins aufrechterhalten. Anstatt diese Bindungen durch Einwirkung von außen zu erzeugen, legt die Natur die Biopolymere so an, dass sie ihre Bestimmung in sich tragen. Proteine falten spontan, und selbst die kompliziertesten molekularen Maschinen der Zelle, wie etwa das Ribosom mit mehr als 50 makromolekularen Bausteinen, assemblieren sich dabei selbstständig und spontan.

 

Wege in die Nanowelt

Da wir wissen, wie lebende Zellen ihre Operationen im Nanometermaßstab ausführen, sollten wir im Stande sein, zumindest auf einem einfachen Niveau, Ähnliches zu vollbringen. Aber wie fangen wir es am besten an?

Man kann im Wesentlichen zwei verschiedene Vorgehensweisen unterscheiden: den „Top-down“-Ansatz, bei dem man aus der Mikrowelt kommend, die fortschreitende Miniaturisierung existierender Technologien dazu nutzt, weiter in den Nanokosmos vorzustoßen; und umgekehrt, den „Bottom-up“-Ansatz, bei dem man mit den Methoden der Chemie und Biochemie komplexe molekulare Strukturen aus kleinen Molekülen aufbaut.

Der Top-down-Ansatz ist von der Idee her relativ einfach, wird aber in der Praxis immer schwieriger, je weiter man in den Nanokosmos vorstößt. Diesem Ansatz verdanken wir die seit Jahrzehnten anhaltende Computerrevolution. Weil die Funktionselemente in integrierten Schaltkreisen immer kleiner wurden, konnte die Leistung eines Standard-Chips in den vergangenen zwei Jahrzehnten alle 18 Monate verdoppelt werden. Dieses Phänomen wurde zuerst von Gordon Moore, einem der Mitbegründer des Chip-Herstellers Intel, erkannt und wird deshalb das Moore’sche Gesetz genannt.

Da die Chip-Produzenten den Größenbereich des sichtbaren Lichts bereits hinter sich gelassen haben, sind sie gezwungen, Ultraviolettstrahlung zu benutzen, und werden eines Tages sogar auf die viel schwieriger zu handhabende Röntgenstrahlung umsteigen müssen, um immer kleinere Strukturen erzeugen zu können. Somit wird jeder neue Verkleinerungsschritt eine größere Herausforderung als der vorige, doch bis heute hat das Moore’sche Gesetz sich bestätigt, und es wird wohl auch noch für einige Jahre weiterhin gelten.

Obwohl die Computerhersteller die größten Kunden für Produkte im Nanometermaßstab sind, und damit die wichtigste Triebkraft hinter dem unvermindert anhaltenden Trend zur weitergehenden Miniaturisierung, gibt es auch andere Gebiete, in denen dieselben Herstellungsverfahren ebenso nützlich werden können. Kleine mechanisch bewegliche Elemente, die nach den Methoden der Chip-Fabrikation hergestellt werden, nennt man MEMS (micro-electromechanical Systems), und demnächst werden sie wohl als so genannte NEMS in den Nanokosmos vorstoßen.

 

Erfolgsgeschichte MEMS

Die klassische Erfolgsgeschichte aus dem MEMS-Bereich ist die des Airbag-Sensors im Auto. Der Beschleunigungsmesser auf MEMS-Basis hat sich nicht nur als kleiner und besser, sondern überdies als wesentlich billiger als das konventionelle Vorläuferprodukt erwiesen. Demzufolge eroberte er den Weltmarkt innerhalb weniger Monate. Zu MEMS-Produkten, die möglicherweise in der Zukunft ähnlich revolutionär wirken könnten, zählt auch ein Medikamenten-Chip, der zum Beispiel bei einer Operation eingepflanzt werden kann, um dann den Patienten dauerhaft mit den nach der Operation erforderlichen Arzneistoffen zu versorgen.

Auch in der Sensorik könnten die MEMS eine durchschlagende Veränderung bewirken. Erst kürzlich haben Wissenschaftler mittels der Mikrofabrikationstechniken eine „künstliche Nase“ entwickelt, die flüchtige Substanzen in komplexen Gemischen mit einer bisher unerreichten Empfindlichkeit identifizieren kann, wie etwa die Geruchsstoffe eines Weins. In der Sensorik kann es womöglich sogar passieren, dass die beiden Ansätze (Bottom-up, Top-down) letztendlich gegeneinander konkurrieren werden – schließlich enthalten unsere Geschmacks- und Geruchsorgane ebenso hoch sensitive molekulare Sensoren.

Der Bottom-up-Ansatz wiederum orientiert sich wesentlich stärker an der Nanotechnologie der Natur, geht von kleinen Molekülen aus und benutzt dann das Baukastenprinzip, schwache Wechselwirkungen und Selbstassemblierung, um daraus komplexe Systeme zu erzeugen. Innerhalb dieses Ansatzes gibt es verschiedene Strategien, die sich darin unterscheiden, wie viel oder wie wenig man von der Natur abgucken will.