Technologie des 21. Jahrhunderts.

Perspektiven der Technikphilosophie

(Revidierter Nachdruck aus Deutsche Zeitschrift für Philosophie, 6 / 2008, S. 935-956).

 Teil 1: In: tu. Zeitschrift für Technik im Unterricht, 191, 1. Quartal 2024, S. 5-19.

Teil 2: In: tu. Zeitschrift für Technik im Unterricht, 192, 2. Quartal 2024, S. 14-19.

Abstract

Haben wir die Technikphilosophie, die wir brauchen? Können wir auf theoretische Konzepte zurückgreifen, die uns helfen, jüngste Entwicklungen im Bereich der Technologien zu verstehen und einzuschätzen? Die Fragestellung impliziert, dass Technikphilosophie nicht nur ethisch relevante Folgeerscheinungen – und auch nicht nur generelle Ansichten bezüglich des Technischen überhaupt – zum Gegenstand haben soll, sondern konkrete Technologien in ihren Strukturen und Wirkungszusammenhängen in den Blick zu nehmen hat.

Ich möchte im Folgenden zunächst eine Grundtendenz in der jüngsten technologischen Entwicklung skizzieren und andeuten, inwiefern das gegenwärtig vorherrschende Informationsparadigma der Technikdeutung ungeeignet sein könnte, die wesentlichen Züge dieser Entwicklung angemessen zu begreifen. Anschließend gebe ich eine Umschau über zeitgenössische Ansätze der Techniktheorie, und zwar immer mit dem Fokus der Frage, ob und inwiefern diese Ansätze uns Perspektiven bieten, mutmaßlich neuartige technische Phänomene zu verstehen und kritisch einzuschätzen.

„Werner Kogge diskutiert in diesem Heft Perspektiven der Technikphilosophie darauf hin, inwieweit sie uns helfen, sowohl diejenige Technik treffend zu deuten, die wir schon haben, als auch die, die uns für die nahe Zukunft versprochen wird. Unter anderem macht er in der Deutung von Technik eine Ablösung der Zwecke durch ’Möglichkeitsräume’ kenntlich: Kaum ist ein neuer Wirkmechanismus entdeckt, werden bereits gesellschaftsverändernde Anwendungen ’gesehen’. Sie werden uns so wirklich geschildert, dass man meint, Sinnfragen gar nicht mehr stellen zu können. Oder wissen Sie sicher, ob es künstliche DNA-Maschinen oder dreidimensionale molekulare Computer schon gibt oder noch nicht? Weil das Differenzierung und Raum braucht, haben wir seinen interessanten Beitrag auf dieses und das folgende Heft aufteilen müssen.“

Martin Binder: Editorial

Leseprobe

  1. Entwicklungstendenzen jüngster Technologien

Sehen wir uns einige Beschreibungen jüngster technischer Entwicklungen an – und zwar mit größtmöglichem Abstand vom Jargon der Technikvisionäre und -apokalyptiker und mit größtmöglicher Nähe zu Forschung und Entwicklung (so weit dies in der Kürze möglich ist).

Die Rastertunnelmikroskopie hat ermöglicht, im Größenordnungsbereich von Molekülen und Atomen einzelne Atome zu bewegen und zu arrangieren. Allerdings ist die Verwirklichung der Idee eines molekularen Engineering jenseits dessen, was „unter extremen Bedingungen und unter Ausschaltung vieler Kräfte auf einer ebenen Fläche gelang, … Lichtjahre entfernt von der Konstruktion eines dreidimensionalen Moleküls.“ Und Alfred Nordmann führt weiter aus: „Für diese Vision der Nanotechnologie gilt, dass offiziell kein besonnener Forscher daran glaubt“. Sie ist unglaubwürdig, „weil es außerordentlich schwierig und auch nicht sonderlich effizient wäre, erst Moleküle und dann eine ganze Welt Atom für Atom zusammenzusetzen.“[1] Anders sieht die Lage eventuell beim Umgang mit vorhandenen Molekülen aus. Die Biotechnologie beherrscht seit langem das Zerschneiden und Montieren von DNA-Ketten. Diese ’Grundbausteine’ des Lebens spielen nun seit Kurzem auch eine technische Rolle außerhalb der Biologie. Künstliche DNA wird eingesetzt, um die Eigenschaften von Materialien und technischen Artefakten im Nanogrößenbereich zu definieren. Ziel ist zum einen die Herstellung von „Werkstoffe(n), deren molekulare Verknüpfungen wir präzise einstellen können“, und von kristallinen Gittern, die es ermöglichen, weniger leicht faßbare Moleküle (wie etwa Proteine) zu fixieren. Zum anderen entstehen durch die hohe strukturelle Bestimmtheit von DNA-Molekülen Möglichkeiten für mechanische Operationen im Nanogrößenbereich. Konstruiert wurde z.B. aus „drei DNA-Strängen eine nanoskopische Pinzette. Schaltstränge […] öffneten und schlossen die Greifer.“ Durch Anordnung solcher Operatoren auf einem dreidimensionalen DNA-Gitter „wäre der erste Schritt zu einer Nanofabrik getan, mit einer Vielzahl struktureller Zustände, die eine Art Fließband realisieren können.“[2] DNA-Gebilde und DNA-‚Maschinen‘ eignen sich aber nicht nur zu Operationen mit biologischen Molekülen, sondern auch zur Verknüpfung von und mit elektronischen, photovoltaischen, magnetischen und fluoreszierenden Materialien.[3] Ein Hauptpunkt für den Einsatz organischer Materialien ist deren hohes Potenzial, sich selbst zu komplexen Strukturen zu organisieren. Sehr spezifische materiale Konfigurationen lassen sich z.B. durch Viren herstellen, die sich jeweils unterschiedlich an Materialien wie Metalle und Halbleiter binden und sich zu Formen von Elektroden, Drähten und Filmen ausbilden, was in der Herstellung winziger Batterien und rollbarer Displays zum Einsatz kommen könnte. Solche biophysischen Aktanten könnten außerdem, in Kombination mit „chemisch empfindlichen Rezeptoren“ oder einer „fluoreszierende(n) Markierung“ auch dazu dienen, „giftige oder biologisch gefährliche Wirkstoffe“ ebenso wir Fehler in Mikrochips oder in hoch beanspruchten Teilen wie Flugzeugtragflächen aufzuspüren.[4]

Die Einsatzmöglichkeiten solcher biophysischer Aktanten reicht bis in den Kernbereich der Informationstechniken. In der Weiterentwicklung der KI-Forschung und Robotik trat das Problem auf, wie komplexe, anpassungsfähige und zugleich robuste Informationsverarbeitungssysteme zu konstruieren wären. Ein Lösungsansatz verwendet die Interaktion organischer Systeme mit ihrer Umgebung als Modell informatischer Netzwerke, ein anderer versucht, organisches Material selbst zum Einsatz zu bringen.[5] Unter dem Titel Synthetische Biologie arbeiten seit einigen Jahre eine Reihe von molekularbiologischen Laboren daran, kleinste Lebenseinheiten wie Zellen, Bakterien und Viren so einzurichten, dass ihre Stoffwechsel bestimmte, zuvor ’einprogrammierte’ Aktionen in Bezug auf ihre Umwelt ausführen. Aus DNA und Proteinen lassen sich Computer bauen, die zwar voraussichtlich nicht in puncto Rechengeschwindigkeit zu herkömmlichen Computern in Konkurrenz treten, aber durch ihre biochemische Materialität ganz neue Einsatzmöglichkeiten bieten könnten: „Ein Computer aus Biomolekülen wäre in einer Zelle gleichsam zu Hause. Er würde mit ihr in Wechselwirkung treten, indem er Moleküle erkennt (Input) oder produziert (Output), die dort ohnehin natürlich vorkommen. So könnte er seine Wirtszelle als autonomer automatischer ’Hausarzt’ unterstützen, indem er Signale aus der Umgebung registriert, die auf eine Krankheit hindeuten, diese mit Hilfe des vorprogrammierten medizinischen Wissens verarbeitet und als Output ein Signal liefert oder ein Medikament verabreicht.“[6] Strukturell ähnlich aufgebaut würden auch Neurochips im Gehirn arbeiten. Sie wären eine technische Weiterentwicklung der gegenwärtig bereits bei Parkinson-Erkrankungen eingesetzten Tiefenhirnstimulation durch Elektroden.[7] Doch es gibt auch Forschung, die weit darüber hinaus zielt: das US-Militär fördert Programme, die auf eine „Verschmelzung von Mensch und Computer“[8] zielen. Emotionale Zustände und kognitive Fähigkeiten ließen sich so zielgerichtet manipulieren und in Bezug auf situative Erfordernisse optimieren.

In einem gewissen Zusammenhang mit diesem Typ von Technologien stehen auch staubkorngroße Chips, die mit winzigen Funkantennen versehen sind und Signale mit einer Identifikationsnummer versehen zurücksenden. Damit lassen sich Waren- und Verkehrsströme registrieren, Ausweise und Banknoten identifizieren, und eventuell auch militärische und polizeiliche Operationen durchführen: „Die winzige Größe des Pulver-Chips macht noch weit bedrohlichere Szenarien denkbar. Vielleicht würde die Polizei das Pulver auf eine Menge von Randalierern sprühen und sie danach mit Sicherheitsscannern, die überall in Straßen und öffentlichen Verkehrsmitteln verteilt sind, dingfest machen.“[9]

Betrachten wir solche technischen Phänomene und fragen wir nach allgemeineren Charakteristika, die in ihrer Realisation zum Vorschein kämen, so ist zuvorderst die Tendenz festzustellen, die Technologien in die elementaren Strukturen physischer, organischer und neuronal-kognitiver Prozesse einzusenken. Dabei wird systematisch daran gearbeitet, die Grenzen zwischen physikalischem Material, biologischen Organismen, neuronal-kognitiven und informatischen Vorgängen zu überwinden. Als Zielvorstellung stehen immer wieder technische Artefakte im Fokus des Interesses, die sich dadurch auszeichnen sollen, dass sie sich in ihre Umgebung integrieren, sich an wechselnde situative Begebenheiten anpassen und mit anderen Agenzien interagieren.

Zu fragen ist aber, wie diese sich bislang abzeichnenden Züge der neuen Technologien näherhin zu verstehen sind. Sind sie kontinuierliche Weiterentwicklungen von Technologien, die wir bereits kennen und von denen wir im großen und ganzen wissen, mit welchen Problemen sie verknüpft sind? Oder kommt hier ein neuartiger Typ von Technik auf uns zu, ähnlich wie sich durch die Maschinisierung, die Elektrifizierung und die Computerisierung jeweils fundamental neue technische Grundkonfigurationen durchsetzten?

Das Deutungsparadigma, in dessen Rahmen gegenwärtig Techniken zumeist verstanden werden, ist das Informationsparadigma. Ray Kurzweil, einer der Apologeten der neuen Technologien, liefert ein typisches Beispiel einer Interpretation neuer Technologien in diesem Paradigma. Er prognostiziert die Entwicklung „des sechsten Rechnerparadigmas, das uns dreidimensionale molekulare Computer bescheren wird – etwa Nanoröhrchen aus Kohlenstoff.“[10] Er nimmt an, dass die technische Entwicklung insgesamt in derselben exponentiellen Weise anwachsen wird, in der die Rechenleistung von Computern ansteigt. Die Voraussetzung für den Schluß von letzterer auf erstere ist, dass die technische Entwicklung unter die Entwicklung der Informationstechnologie fällt. Und genau dies formuliert Kurzweil auch: „Bei jeder Art von Informationstechnologie verläuft der Fortschritt exponentiell. Außerdem werden praktisch alle Technologien zu Informationstechnologien.“ Die Verwandlung aller Technologien in Informationstechnologien hätte massive Konsequenzen. Kurzweil schreibt: „Wir werden in der Lage sein, unsere Biologie umzuprogrammieren – und sie schließlich transzendieren.“ Und: „Letzten Endes wird alles, was Wert hat, zur Informationstechnologie: unsere Biologie, Gedanken und Denkprozesse, Fabriken und vieles andere.“

Nun stellt sich aber die Frage, ob sich die dargelegten Beispiele neuer Technologien tatsächlich im Paradigma der Information, verstanden als Rechenoperationen digitaler Computer, deuten läßt. Von den Entwicklern in den Bereichen molekularer Computer, neuromorpher Elektronikmodule und verhaltensbasierter Robotik wird stets hervorgehoben, dass moderne Computer, selbst wenn sie in ihrer Rechenkapazität die Leistung des Gehirns und anderer organischer Systeme übertreffen sollten, dennoch an deren Potenziale in Bezug auf Wahrnehmung, flexiblem Verhalten und Lernen nicht einmal ansatzweise heranreichen.[11] Es geht also nicht um eine quantitave Steigerung, sondern um eine qualitative Andersheit; und es könnte sein, dass die Entwicklung jüngster Technologien gerade auf diese andere Qualität zielt und somit aus dem Paradigma der Informationstechnologien heraustritt. Wenn dies richtig ist, ist der gesamte Interpretationsrahmen, den Kurzweil und viele andere anlegen, verfehlt. Und betrachtet man die Entwicklung von mit Informationstechnologien eng verknüpften Wissenschaften, so deutet einiges auf ein solches Verfehlen tatsächlich hin: In den letzten beiden Jahrzehnten etablierte sich sowohl in der Molekularbiologie als auch in der Robotik neben dem informatischen ein Denkansatz, dem gemäß Körperlichkeit und Situiertheit zu den Grundeigenschaften von Leben und Intelligenz gehören. In der Robotik ging diese Einsicht mit einem Verzicht auf eine explizite interne Repräsentation der Umgebung einher[12], in der Molekularbiologie mit der Entdeckung der flexiblen Verwendung der DNA-Struktur im zellulären Stoffwechsel, die den Status der DNA als vorgegebenes und im Lebensprozess auszuführendes Programm unterminierte.[13]

Wenn nun also eine maßgebliche Tendenz der technischen Entwicklung dahin geht, technische Artefakte immer stärker so zu konstruieren, dass sie sich zu wechselhaften Umwelten zu verhalten vermögen und in diesem Sinne situiert sind, dann ist zu fragen, ob „das in technischen Artefakten inkorporierte Wissen“, die in ihrer „Binnenstruktur“[14] manifestierten Bezüge zur Umwelt, noch als Information im Sinne Kurzweils gelten können, oder ob nicht umgekehrt das Informatische hier – wie im Bereich der Computersimulation insgesamt – eine neue Erscheinungsweise annimmt, nämlich eine „performative Dimension“, in der „neue Objekte, Technologien und Realitäten“ nicht nur beschrieben, sondern hergestellt werden.[15]

Wie aber wären solche Formen umgebungsbezogener und situierter Technologien kritisch einzuschätzen?[16] Zwei Grundschemata der Technikdeutung – nämlich die des ’Kontrollparadigmas’ („Entweder kontrollieren wir die Technik oder die Technik kontrolliert uns“) und die des Auflösungsparadigmas („Die Technik verflüssigt und virtualisiert alle stabilen Identitäten“) sind nicht zufällig im Zeichen der Informationstechnologien zu voller Blüte gelangt: sowohl der Gedanke eines globalen Netzwerkes, als auch derjenige einer Virtualisierung und Verflüssigung aller stabilen Identitäten sind mit den Struktureigenschaften des Informatischen intrinsisch verbunden. Doch können diese beiden Paradigmen als begriffliche Folie für eine kritische Untersuchung von Technologien noch angemessen sein, wenn eine komplexe Distribution von Steuerungs- und Kontrollfunktionen und die Schaffung ’autonomer’ technischer Agenzien geradezu als Grundeigenschaften der aktuellen Technologien erscheinen?

Vor dem so problematisierten Hintergrund soll nun eine Umschau in der techniktheoretischen Literatur daraufhin vorgenommen werden, ob und inwiefern die unterschiedlichen Denktraditionen und Denkfiguren Ansatzpunkte liefern für eine phänomenangemessene Analyse und eine kritische Einschätzung jüngster technologischer Entwicklungen.

[1] Nordmann, A. (2006): Denkmuster hinter der Nanotechnologie. Die Welt als Baukastensystem, in: politische ökologie 101, S. 20-24, hier 21f.

[2] Die vorangegangenen drei Zitate: Seeman, Nadrian C.: Karriere für die Doppelhelix. In: Spektrum der Wissenschaft 1/ 2005, S. 82-90, hier 84, 88, 90.

[3] Vgl. Spektrum der Wissenschaft 2/2006, S. 13; Einen Überblick über aktuelle Forschungsaktivitäten in diesem Feld, auch über das Zusammenspiel von universitärer und industrieller Forschung, läßt sich gewinnen unter: http://www.websitewiki.de/Ennab.de (12. 8. 2008).

[4] Ross, P.E.: Nanoelektronik mit Viren. In: Spektrum der Wissenschaft 12/2006, S. 66-69; hier 68f.

[5] Keller, E. F. (2001): Das Jahrhundert des Gens. Frankfurt am Main, S. 160ff; Beckert, B., Roloff, N., Friedewald, M. (2006): Converging technologies and their impact on the social sciences and humanities (CONTECS), Deliverable D1.1 – Part A, R&D Trends in Converging Technologies (August 2006), Karlsruhe, S. 42ff. [URL: http://www.contecs.fraunhofer.de/content/view/9/12/]

[6] Shapiro, Ehud/ Benenson, Yaakov: Computer aus Biomolekülen. In: Spektrum der Wissenschaft 3/ 2007, S. 66-73, hier 66.

[7] Vgl. zum Stand des Einsatzes neuroelektronischer Technologien: Coenen, Christopher: Konvergierende Technologien und Wissenschaften. Der Stand der Debatte und politische Aktivitäten zu ‚Converging Technologies‘. TAB-Hintergrundpapier Nr. 16, März 2008, S. 75 [URL: http://www.tab.fzk.de/de/projekt/zusammenfassung/hp16.pdf ]. Beckert, B., Roloff, N., Friedewald, M. (2006): Converging technologies and their impact on the social sciences and humanities (CONTECS), Deliverable D1.1 – Part A, R&D Trends in Converging Technologies (August 2006). Karlsruhe; [URL: http://www.contecs.fraunhofer.de/content/view/9/12/]. Aus Erfahrung am eigenen Leib berichtet: Helmut Dubiel: Tief im Hirn, München 2006.

[8] Krämer, Tanja: Kommt die gesteuerte Persönlichkeit? In: Spektrum der Wissenschaft 9/ 2007, S. 42-49, hier 48.

[9] Tim Hornyak: Funkende Stäubchen. In: Spektrum der Wissenschaft 5/2008, S. 92-95, hier 95.

[10] Dieses und die beiden folgenden Zitate: Ray Kurzweil: Der Mensch Version 2.0. In: Spektrum der Wissenschaft 1/2006, S. 100-105, hier 101f.

[11] Vgl. etwa: Brooks, R.A. (2003): Künstliche Intelligenz und Roboterentwicklung, in: Beiersdörfer, K. (Hrsg.) (2003): Was ist Denken?Paderborn: Schöning UTB S. 104-126; Ritter, Helge: Die Evolution der künstlichen Intelligenz, in: Beiersdörfer (2003), S. 127-147; Keller, E. F. (2001): Das Jahrhundert des Gens. Frankfurt am Main: Campus, S. 154ff.; Boahen, Kwabena: Künstliche Netzhaut für Mensch und Roboter, In: Spektrum der Wissenschaft 10/2005, S. 90-97. Singer, Wolf/ Andreas K. Engel: Neuronale Grundlagen des Bewußtseins. In: Beiersdörfer (2003), S. 148-170; Und als Klassiker, dessen frühe Einsichten zwar bis in einzelne Formulierungen hinein rezitiert werden, der allerdings in verblüffend durchgängiger Weise ungenannt bleibt (auch in Beiersdörfer (2003) – ein Kapitel heißt z.B. „Was Computer (noch) nicht können“, S. 84-104): Dreyfus, Hubert L. (1985; zuerst veröffentlicht 1972): What Computers Can’t Do: The Limits of Artificial Intelligence, Harper & Row, New York. Deutsch: Die Grenzen künstlicher Intelligenz: Was Computer nicht können. Königstein: Athenäum; Dreyfus, Hubert L. (1992): What Computers Still Can’t Do: A Critique of Artificial Reason. Cambridge, Mass.: MIT Press; Dreyfus, Hubert L. (1993): Was Computer noch immer nicht können, Deutsche Zeitschrift für Philosophie, No. 4 (1993).

[12] Vgl. Brooks (1986) (2003); Ritter (2003).

[13] Keller, E. F. (1998): Das Leben neu Denken. Metaphern der Biologie im 20. Jahrhundert. München: Kunstmann; Lewontin, R. (1992): The Dream of the Human Genome, in: New York Review of Books (28. Mai 1992), S. 31-40; Oyama, S. (1985): The Ontogeny of Information. Developmental Systems and Evolution, Cambridge University Press.

[14] W. Kogge: Das Maß der Technik: Lebenswelt als Kriterium technischer Angemessenheit? In: Kogge/Franz/ Möller/ Wilholt, Wissensgesellschaft: Transformationen im Verhältnis von Wissenschaft und Alltag, IWT-Paper 25, Universität Bielefeld 2001, S. 217-244, hier S. 226, 238. [URL http://bieson.ub.uni-bielefeld.de/volltexte/2002/90/html/Werner_Kogge_Wissensgesellschaft.pdf]

[15] G. Gramelsberger: Story telling with Code – Archaeology of Climate Modelling. In TeamEthno-online, Issue 2, June 2006, S. 77-84, hier S. 84 (übers. WK) [URL: http://www.teamethno-online.org.uk/Issue2/Gramelsberger.pdf]. Gabriele Gramelsberger führt aus, dass computerbasierte Simulationsmodelle nicht nur eine Theorie ihrer Objekte darstellen, sondern zugleich ein Experimentierfeld, in dem probeweise Objekte entstehen und zu Wirkungszusammenhängen korreliert werden. Der dabei zum Einsatz kommende digitale Code spiegelt die Theorie nicht nur wider, sondern muss als ein Medium sui generis betrachtet werden, das sowohl eine systemspezifische Eigenlogik als auch eine Geschichte enthält, die den simulierten Weltausschnitt mitgenerieren: „Algorithms describe and enact their objects.“ (S. 84) Die Problematik der Eigenlogik der Codes stellt sich in gesteigerter Form für neue Technologien, die ihre ’Einschreibungen’ in der Interaktion mit der Umwelt verändern.