Die Sichtbarmachung des Unsichtbaren: Mikroskopische Verfahren in der Laborpraxis
Veranstalter: Walter Hauser; Christian Kehrt; Peter Schüßler; Helmuth Trischler
Datum, Ort: 18.10.2007-19.10.2007, München
Bericht von: Fabian Ochsenfeld, Deutsches Museum, München
E-Mail:
Der von Peter Schüßler und Christian Kehrt organisierte und von der VolkswagenStiftung unterstützte zweitägige Workshop am Forschungsinstitut für Technik- und Wissenschaftsgeschichte des Deutschen Museums beleuchtete aus multidisziplinärer Perspektive die Bedeutung mikroskopischer Bilder im Erkenntnisprozess naturwissenschaftlicher Forschung. Durch Lichtmikroskopie, Elektronenmikroskopie, bis hin zur Rastersondenmikroskopie werden Bilder von Strukturen erzeugt, die ansonsten zu klein wären, um vom menschlichen Auge wahrgenommen zu werden. Gerade digitale Bilder zeichnen sich womöglich durch das gänzliche Fehlen einer Referenz in der Wirklichkeit aus. Mikroskopische Verfahren und ihre Bilder sind somit gleichermaßen an der Konstruktion naturwissenschaftlicher Erkenntnis und deren Realitäten beteiligt. Um den Stellenwert der Mikroskopie im Forschungsprozess zu bestimmen, hoben die Teilnehmer jeweils unterschiedliche Fragestellungen und Zusammenhänge hervor, in die mikroskopische Bilder immer schon eingebettet sind: Wie wirkt theoretisches und praktisches Vorwissen auf Status und Verwendung des Bildes im Erkenntnisprozess? Wie fügt sich ein mikroskopisches Bild in die Verweisungsstruktur mit weiteren im Labor erzeugten Bildern ein? Wie in kulturell geprägte Sehgewohnheiten? Und welche Faktoren haben die technologische Entwicklung der Mikroskopie entscheidend bestimmt? Das gemeinsame Interesse an dieser Einbettung mikroskopischer Methoden in inner- und außerwissenschaftliche Kontexte gab der Tagung ihren thematischen Rahmen und verband die Teilnehmer aus den Bereichen Wissenschaftsgeschichte, Philosophie und Wissenschaftssoziologie. Der Workshop gliederte sich in vier Sessions, in denen die Vortragenden ihre aktuellen Forschungsergebnisse präsentierten: „Die Sichtbarmachung von Atomen“ und „der epistemische Gehalt mikroskopischer Bilder“ waren die übergreifenden Themenstellungen des ersten Tages. Mit der „Simulation als Laborpraxis“ und der „Geschichte mikroskopischer Verfahren“ befasste man sich am folgenden Konferenztag.
Nach der Begrüßung der Teilnehmer durch die Veranstalter der Tagung, CHRISTIAN KEHRT und PETER SCHÜßLER, sowie einer Einführung durch HELMUTH TRISCHLER als Leiter der ersten Session eröffnete ARNE SCHIRRMACHER (Berlin) mit seinem Vortrag „Peter Debyes ‚Ultramikroskopie des Atominnern’ oder: Die pragmatische Adaption eines bildgeleiteten Forschungsprogramms“ den Workshop. Er befasste sich darin mit Atombildern, wie sie zu Anfang des 20. Jahrhunderts entstanden und zog das Forschungsprogramm von Peter Debye und Paul Scherrer heran, um aufzuzeigen wie deren hartnäckiger Wunsch Elektronenringe zu sehen, ihr Handeln bestimmte. Dieser Wunsch sei durch pragmatische Anpassungen der Ziele auch gegen enttäuschende Resultate in Experimenten durchgehalten worden, so Schirrmacher.
JENS SOENTGEN (Augsburg) wählte als Ausgangspunkt für seinen Vortrag „Atome hören? Überlegungen zur Rastersondenmikroskopie“ eine Publikation von Gerhard Richters Offsetdruck „Erster Blick“ in der Wissenschaftsseite der Frankfurter Allgemeinen Zeitung. Von diesem öffentlichkeitswirksamen Bild ausgehend, rekonstruierte Soentgen seine Genese Stufe um Stufe, über die wissenschaftliche Publikation, derer sich der Künstler bedient hatte, bis zu den Bildern, die unmittelbar im Labor der Wissenschaftler an der Universität Augsburg zirkulierten. Den Status als ‚Photo’, habe das Bild erst in späten Stadien der publizistischen Wertschöpfungskette erhalten. Am Anfang seiner Erzeugung durch die Forscher stand hingegen eine akustische Repräsentation, die mit der im Bild suggerierten Dinghaftigkeit kontrastiere, da sie ‚das Atom’ in die Zeitlichkeit des Messvorgangs auflöse, so Soentgen. Die Tonspuren der Abtastung der Probe durch die Spitze des Rastersondenmikroskops machte Soentgen auch den Konferenzteilnehmern als Hörerlebnis erfahrbar. Für die breite Öffentlichkeit würde ‚das Atom’ als Objekt hingegen erst vermittelbar, nachdem solche Spuren der Laborarbeit auf dem Weg zum „Photo“ getilgt würden, so Soentgen.
CHRISTIAN KEHRTs und PETER SCHÜßLERs (beide München) Vortrag ging der Frage nach, inwiefern sich das Aufkommen der Nanowissenschaften und die damit verbundene Identitätsbildung über die Entwicklung eines ihrer zentralen Instrumente, der Rastersondenmikroskopie, verstehen lässt. Es wurde die These entwickelt, das Instrument alleine sei noch nicht konstitutiv für die Nanowissenschaften, vielmehr bestehe ihre Besonderheit in der Aneignung der mikroskopischen Instrumentierung im Rahmen einer Vision des Anwendungsbezugs. Diese These plausibilisierte Kehrt am Beispiel von Forschungen im Bereich der ‚molecular machines’. Moleküle würden hier weniger zur Feststellung ihrer bloßen Eigenschaften untersucht, das Interesse der Forscher richte sich hingegen bereits im Stadium der Grundlagenforschung im Sinne eines ‚Engineering-Gedankens’ auf die Funktionalisierung der Teilchen, insbesondere ihres Potentials zur Selbstorganisation. Folglich würden Moleküle von den Forschern instrumentell, als ‚building blocks’ bezeichnet und wahrgenommen. Dieses Verständnis der Moleküle sei exemplarisch für die spezifische Kombination von manipulativer Verwendung der Rastersondenmikroskopie als ‚Werkzeug’ und den Anwendungsvisionen, welche diese Aneignung grundieren.
Vor der Eröffnung der zweiten Session besuchten die Konferenzteilnehmer in einer kurzen Führung die mit dem Tagungsthema verwandte Sonderausstellung „Atombilder. Strategien der Sichtbarmachung im 20. Jahrhundert“ in den Ausstellungsräumen des Deutschen Museums.
Einer Erkenntniskritik unterzog JOACHIM SCHUMMER (Darmstadt) sodann das mikroskopische Bild in seinem Vortrag „Erkenntnistheoretische Grenzen mikroskopischer Genauigkeit“. Nach Schummer fallen diese Bilder unter die Bildklasse der ‚visuellen Dokumentation’. Im Gegensatz zu anderen Bildklassen, die in der Wissenschaft ebenfalls vorkommen, insbesondere zu erklärenden theoretischen Darstellungen, besäßen visuelle Dokumentationen keinen wissenschaftlichen Gehalt. Ihre Funktion liege vielmehr darin, Glaubwürdigkeit für die Existenz des abgebildeten Objekts zu generieren. Mit diesem Mangel in besonderer Weise behaftet seien die extrem kleinskaligen Bilder der Nanowissenschaften. Aufgrund des winzigen Ausschnittes, den sie von einer Materialoberfläche nur abbilden, stelle sich mit besonderer Dringlichkeit die Frage, nach welchen Kriterien entschieden wird, welcher Ausschnitt vom Objekt denn abgebildet werden solle. Solcher Kriterien mangele es jedoch. Es herrsche bei der Auswahl somit faktisch Willkür vor, wodurch der Erkenntniswert gerade sehr genauer Dokumentationen, wie sie in fast allen Publikationen im Bereich der Nanowissenschaften erscheinen, kritisch zu betrachten sei, so Schummer.
Unter der Fragestellung der experimentellen Voraussetzungen der ‚Laue-Diagramme’ referierte ANA OFAK (Berlin) die Entwicklung von der Aufdeckung der Kathodenstrahlung durch Röntgen bis zu den Arbeiten Max von Laues in München. Sie ging dabei insbesondere auf den fragilen epistemischen Status der Bilder zwischen Diagramm und Photographie ein.
SEBASTIAN SCHOLZ (Bochum) hielt mit seinem Vortrag „(Un-)Sichtbarkeitsproduktionen. Das „epistemische Bild“ an der Schnittstelle von Medien und Wissenschaftsgeschichte“ ein Plädoyer für eine Anwendung von Medientheorie die in der Wissenschaftsgeschichte. Schließlich, so Scholz, würde in modernen Laboratorien das wissenschaftliche Bild selbst zum Gegenstand, auf den sich das Erkenntnisinteresse der Forscher richtet. Das Bild trete somit oftmals an die Stelle seines materiellen Referenten.
Der Simulation als eine spezielle Visualisierungstechnik, die etwa in den Nanowissenschaften die Mikroskopie ergänzt, widmete JOHANNES LENHARD (Bielefeld) seinen Vortrag „Simulation, Repräsentation und Kartographie. Die Erstellung eines virtuellen Atlas des NanoRaums“. Darin argumentierte Lenhard, Simulationsbilder seien das Ergebnis eines längeren Modellierungsprozesses, in dem zahlreiche unbekannte Parameter stufenweise variiert und auf ihre Auswirkungen auf das Gesamtmodell hin beobachtet würden. Dieser Prozess des pragmatisch-tastenden Ausprobierens könne als eine Art der Orientierung der Wissenschaftler in einem noch weitgehend unbekannten Parameterraum verstanden werden, über den man noch keinen umfassenden Überblick hat. In Analogie dazu stellte Lenhard kartographische Projekte, durch welche sich britische Kolonialisten im 18. Jahrhundert den indischen Subkontinent erschlossen hatten. In beiden Fällen sei das Resultat nicht das Ergebnis einer eineindeutigen Abbildung des tatsächlichen Raumes nach strikten mathematischen Regeln, sondern vielmehr eine Zusammenstellung von Karten. Darin habe es Ähnlichkeit mit Atlanten, die ebenfalls das Ergebnis zahlreicher lokaler Aushandlungen seien und als Werkzeuge für pragmatisch motivierte Eingriffe entworfen würden, so Lenhard. Ferner dienten diese ‚Karten’ dazu, Anhaltspunkte zur theoretischen Interpretation der riesigen Datenmengen bereitzustellen, mit denen Forscher etwa durch die Rasterkraftmikroskopie konfrontiert sind, indem sie Vorannahmen bereitstellten, welche die Datenanalyse vorstrukturieren.
Die Klimaforschung teilt mit den Nanowissenschaften zwei Eigenschaften: Einerseits die herausragende Bedeutung, die sie Simulationen zukommen lässt, andererseits die Tendenz zu den immer höheren Auflösungen ihrer visuellen Modelle. An diese Analogie knüpfte GABRIELE GRAMELSBERGER (Berlin) ihren Vortrag „Semiotische Objekte im digitalen Labor“ an. Darin skizzierte sie zunächst die Entwicklung der Wetter- und Klimasimulationen von ihren Anfängen bis zum aktuellen Stand als eine fortwährende Komplexitätszunahme. Gramelsberger hob hervor, dass die quantitativ stetig wachsende Datenfülle der Simulationen zu qualitativen Neuerungen führe. So können Wolken als abgrenzbare Objekte in den Simulationen erst emergieren seitdem die gestiegene Leistungsfähigkeit es erlaubt, Annahmen über wolken-intern ablaufende Dynamiken zu fassen und zu visualisieren. Damit ersetzten sie als bildhafte Gegenstände die vorherigen schematischen Kurvendarstellungen. Der Darstellung lag Gramelsbergers tiefenscharfe Unterscheidung der Bereiche mathematischer Modellierung einerseits, der Visualisierung andererseits und drittens der Programmierung der Simulationsalgorithmen zugrunde. Das zwischen der mathematischen Theorieebene und der Visualisierung des Experiments liegende Simulationsprogramm stelle eine besondere Konstruktionsbedingung der Sichtbarkeit dar, da es im eigenen semiotischen Medium des Computers operiere. Die parallel verlaufenden Entwicklungen dieser drei Bereiche seien somit als ein fortwährender Ästhetisierungsprozess zu verstehen, in dem Schrift Realität konstituiere und das Verhältnis zwischen Konstruktion und Referenz entkoppelt und geradezu aufgelöst würde.
ANGELA FISCHEL (Berlin) verband in Ihrem Vortrag „Instrumentelle Bilder – Aspekte mikroskopischer Praxis im 18. Jahrhundert“ einen historischen Zugang zum Thema mit einer bildwissenschaftlichen Analyse. Die Mikroskopie entziehe sich im 18. Jahrhundert einer eindeutigen Zuordnung zu einer technischen ebenso wie zur allgemein gängigen Bildkultur. Aus der Verortung der Mikroskopie zwischen einem fachlichen, naturphilosophisch ausgerichteten Diskurs, der den mikroskopischen Bildern oftmals erkenntniskritisch begegnete, und einer popurlärwissenschaftlichen Literatur und Salonkultur, die mikroskopische Aufnahmen mithin begeistert rezipierte, habe sich eine Übernahme von ästhetischen Bildstereotypen in die spezielle Bildkultur der Mikroskopie ergeben. Wechselseitig habe diese mikroskopische Bildkultur dabei zugleich die visuelle Naturerfahrung ihres bürgerlichen Laienpublikums mitgeprägt, so Fischel.
ERIK LETTKEMANN (Berlin) problematisierte in seinem Vortrag die Phasen des Übergangs von einer Gerätegeneration zur nächsten, die den Fortschritt der Elektronenmikroskopie zu immer höheren Auflösungen durchweg begleiten. Anhand innovationsbiografischer Fallstudien suchte Lettkemann zu erklären, welche Problemlösungsmuster es den Forschern erlauben das notwendige Vertrauen aufzubringen, um eine Instrumentengeneration durch eine neue zu ersetzen. Diese Funktion übernähme, so Lettkemann, einerseits Erfahrungswissen, das über Vergleichsbilder die Akzeptanz neuer Geräte sichere, das andererseits, im Gerätedesign verfestigt, den Übergang bewerkstellige und die Integration neuer Instrumente in bestehende Laborroutinen ermögliche.
An den auch in Angela Fischels Vortrag angesprochenen Antoni van Leeuwenhoek knüpfte eine kleine Führung durch die Mikroskopieausstellung des Deutschen Museums an. KLAUS MACKNAPP stellte seltene Modelle früher optischer Mikroskope van Leeuwenhoeks vor und veranschaulichte für die Konferenzteilnehmer an einem Transmissionselektronenmikroskop die Möglichkeiten moderner Mikroskopie.
ANDREAS JUNKs (Oldenburg) Vortrag zur „Entstehungsgeschichte des transmittierenden Röntgenmikroskops and der Universitäts-Sternwarte Göttingen“ rekonstruierte die Entwicklungsgeschichte des Instruments von seinen Ursprüngen, die in der Astronomie liegen, bis in ihre Anwendungsfelder in Materialforschung und Biologie. Den Schwerpunkt legte Junk dabei auf die Entwicklungen in den 60er- und 70er-Jahren im Spannungsfeld von Theorie, Experiment und Anwendung. Er hob Potentiale einer Nutzung der Technologie im Bereich der Lebenswissenschaften hervor, die das Instrument eröffne. Die anschließende Diskussion versuchte zu erhellen, warum es der Transmissions-Röntgenmikroskopie trotz solcher Möglichkeiten nicht gelungen sei, ihre Potentiale zu entfalten.
Der Vortrag von THOMAS STEINHAUSER (Regensburg) beleuchtete die Rolle der magnetischen Kernresonanzspektroskopie (NMR) bei der Verfestigung von ‚Molekülen’ und ‚Atomen’ zu Tatsachen. Die Strukturmodelle, die Chemiker Ende des 19. Jahrhunderts skizzierten und zu räumlich fassbaren Gebilden modellierten, verstetigten sich im 20. Jh. zu einem „mentalen Modell“, das auch über den Methodenwechsel von den Reaktionen der Chemiker hin zur physikalischen Kernresonanzspektroskopie in den 1960er-Jahren beibehalten wurde. Normierte Interpretationsregeln übersetzten die Daten des NMR in die durch das ‚mentale Modell’ geprägten Bildvorstellungen der organischen Chemie. Die Computerisierung dieser Übersetzungsvorgänge zwischen Datenquelle und Bild verfestigten diese Vorstellungswelt weiter. Darüber hinaus steigerten Innovationen in der Messtechnik, wie sie etwa durch supraleitende Magnete möglich wurden, die Leistungsfähigkeit des NMR-Verfahrens und ermöglichten damit Anwendungen über die organische Chemie hinaus – in der Biologie, der Pharmazie oder Medizin. Mit dem Eindringen der NMR-Methode in diese Disziplinen ging dabei zugleich auch die Verbreitung des mentalen Strukturmodells und die Verfestigung von Atomen und Molekülen zu ‚epistemischen Dingen’ in diesen wissenschaftlichen Gemeinschaften einher.
Die Abschlussdiskussion hob hervor, dass sich so gut wie alle Teilnehmenden in ihren Forschungen mit Problemen auseinander setzten, welche auf der Ebene der praktischen Laborforschung liegen, die der wissenschaftlichen Publikation voranstehe. Zur Annäherung an die Komplexität dieser Phase, in der Instrumentenentwicklung, Laborarbeit und die resultierenden Bilder miteinander verwoben sind, hat es sich als fruchtbar erwiesen, aus Studien zu unterschiedlichen Zeiträumen, vom 18. Jahrhundert bis hin zu aktuellen Entwicklungen in den Nanowissenschaften, schöpfen zu können. Die Tatsache, dass diese Ebene zudem auf den Grundlagen unterschiedlicher methodologischer Konzepte untersucht wird, wurde von den Teilnehmern des Workshops grundsätzlich begrüßt und die darin liegende Chance zur Entwicklung einer adäquateren Herangehensweise betont, die dem Ineinandergreifen von Erkenntnisproduktion, visueller Kultur und ihren technischen Bedingungen gerecht zu werden habe.
Konferenzübersicht:
Donnerstag, 18. Oktober 2007
Session I: Die Sichtbarmachung von Atomen
ARNE SCHIRRMACHER: Peter Debyes „Ultramikroskopie des Atominnern“ oder: Die pragmatische Adaption eines bildgeleiteten Forschungsprogramms.
JENS SOENTGEN: Atome hören? Überlegungen zur Rastersondenmikroskopie.
CHRISTIAN KEHRT und PETER SCHÜßLER: Im Legoland der Moleküle. Das STM als „Nanowerkzeug“?
Session II: Der epistemische Gehalt mikroskopischer Bilder
JOACHIM SCHUMMER: Erkenntnistheoretische Grenzen mikroskopischer Genauigkeit
ANA OFAK: Unsichtbares auf den Punkt gebracht. Bilder und Materialstudien aus dem röntgenkristallografischen Labor.
SEBASTIAN SCHOLZ: (Un-)Sichtbarkeitsproduktionen. Das „epistemische Bild“ an der Schnittstelle von Medien- und Wissenschaftsgeschichte.
Freitag, 19. Oktober 2007
Session III: Simulation als Laborpraxis
JOHANNES LENHARD: Simulation, Repräsentation und Kartographie. Die Erstellung eines virtuellen Atlas des NanoRaums.
GABRIELE GRAMELSBERGER: Semiotische Objekte im digitalen Labor.
Session IV: Zur Geschichte mikroskopischer Verfahren
ANGELA FISCHEL: Mikroskopische Untersuchungen des 17. und 18. Jahrhundert.
ERIC LETTKEMANN: Die Beobachtung des Beobachtungsinstruments. Eine Innovationsbiographische Analyse am Beispiel der Elektronenmikroskopie.
ANDREAS JUNK: Die Entstehungsgeschichte des transmittierenden Röntgenmikroskops an der Universitäts-Sternwarte Göttingen
THOMAS STEINHAUSER: Die magnetische Kernresonanzspektrometrie in der organischen Chemie von 1969 bis 1980.