Stephan ALBRECHT, Markus SCHORLING
Thema & Fragestellung:
Im März 2007 hat der Europäische Rat im Vorlauf zu der G 8-Konferenz in Heiligendamm und zur Vertragsstaatenkonferenz des Kyoto-Protokolls auf Bali das eingängige 20-20-10-Ziel (bis zum Jahr 2020 sollen 20% des Endverbrauchs von Energie in der EU aus erneuerbaren Ener¬gien gewonnen werden und 10% des Gesamtverbrauchs von Benzin und Dieselkraft¬stoff) als Rahmen für den europäischen Beitrag zum Klimaschutz beschlossen. Im Gefolge, teils auch schon vorher, waren und sind in verschiedenen Mitgliedsstaaten nationale Förder-programme für aus Pflanzen gewonnene Treibstoffe aufgelegt worden. Diese bestehen überwiegend aus zwei Komponenten: Steuerbegünstigungen resp. –befreiungen für Treib-stoffe aus Pflanzen und Darlehen und/oder steuerliche Förderung des Baus von Verar-beitungsanlagen. Bei allen diesen Beschlüssen wurde u.a. angenommen, dass der Anbau von Nutzpflanzen und deren Verar¬beitung zu flüssigen Treibstoffen (Ethanol, Diesel) einen CO2-mindernden Effekt im Vergleich zur Verwendung fossiler Energieträger haben würde.
Im Februar 2008 wird die Europäische Kommission ihren Umsetzungsplan für die 20-20-10-Zielsetzung vorlegen, in der das 10%-Ziel nach gegenwärtiger Kenntnis unverändert enthalten sein wird (CEC 2008).
Zum Zeitpunkt der politischen Entscheidungen im Frühjahr 2007 gab es bereits internationale Kenntnisse und Wissen über die CO2-Bilanzen von Treibstoffen aus Pflanzen. Diese bezogen sich naheliegenderweise vor allem auf zwei Länder, nämlich Brasilien und die USA. Brasilien hatte schon seit den 70er Jahren des 20. Jahrhunderts mit erheblicher öffent-licher Förderung in großindustriellem Maßstab Ethanol aus Zuckerrohr gewonnen und als Automobiltreibstoff verwendet (Rothman et al. 1983). In den USA ist seit einigen Jahren eine starke Zunahme des Baus und der Planung von Raffinerien auf Basis von Mais zu verzeichnen, ebenfalls aus Steuergeldern subventioniert (Pimentel et al 2006).
Die im Frühjahr 2007 schon vorhandenen Erkenntnisse (Bank Sarasin 2006) ergaben – bis auf die von den beteiligten Industrien resp. –verbänden geäußerten Verlautbarungen – eine für derartig multi¬fak¬torielle und komplexe Fragestellungen nicht überraschende Uneindeutigkeit, jedenfalls aber keineswegs die den auf nationaler und EU-Ebene vorgenommenen Ent-scheidungen zugrunde liegende Annahme einer klaren Reduktion von CO2-Äquivalenten durch die großmaßstäbliche Einführung von Pflanzen¬treibstoffen.
Der nach den EU-Beschlüssen und weiteren politischen Entscheidungen in den USA, aber auch anderen Ländern wie China, zunächst recht zögerlich entstandene Diskurs zu Prämissen und Implikationen großvolumiger Pflanzentreibstofferzeugung zeigte nach und nach, dass die Grundannahme einer CO2-Reduktion durch industriellen Anbau und Verarbeitung von Nutzpflanzen für flüssige Treibstoffe weitgehend unzutreffend ist. Gleichwohl wurden und werden die politischen Entscheidungsmechanismen an dem einmal fixierten Ziel weiterhin ausgerichtet.
Der Vortrag geht an Hand dieser Abläufe, Konstellationen und Diskurse den folgenden Fragestellungen nach:
1. Wie ist das 10%-Ziel überhaupt in die Beschlussfassung der EU aufgenommen worden?
2. Welche Rolle spielte dabei der damals bekannte Stand des Wissens über CO2-Bilanzen und weitere Implikationen?
3. Wieweit, falls überhaupt, wurden TA-Kapazitäten der EU (JRC u.a.) in Entscheidungs-vorbereitungsprozesse einbezogen?
4. Welche Rolle spielten dabei die einschlägigen Interessenverbände einschließlich landwirtschaftlicher Verbände?
5. Inwieweit wurden zwischen Sommer 2007 und Februar 2008 die publizierten und diskutierten internationalen und nationalen TA-Erkenntnisse von politischen Entscheidungs-ebenen aufgegriffen?
6. Wurden politische Initiativen zu einer Zusammenführung der diversen Wissens¬bestände ergriffen und mit welchem Ergebnis?
7. Welche Rolle spielte in diesen Prozessen das Europäische Parlament?
8. Welche Interessen resp. –koalitionen sind in diesen Diskursen und Entscheidungsfindungen erkennbar?
9. Welche Anforderungen an technology governance, die diesen Namen verdiente, lassen sich aus der Fallanalyse – in aller Vorläufigkeit – ableiten?
Methoden :
An Hand umfangreicher Dokumentenstudien und –analysen und einer Reihe von Befragungen Beteiligter auf verschiedenen Ebenen des Geschehens wird eine Rekonstruktion von Abläufen, Strukturen und Diskursen unternommen. Dabei wird u.a. auf Instrumente wie die Konstellationsanalyse rekurriert. Konzeptionelle Arbeiten zu Begriff und Strukturen einer technology governance werden einbezogen. Der Stand des Wissens zur Kernfrage einer CO2-Reduktion wird international berücksichtigt.
Mögliche Resultate:
Alexander BOGNER
Im allgegenwärtigen Governance-Begriff kondensieren Beobachtungen über einen Formwandel des Regierens, der nicht-hierarchische, netzwerkförmig organisierte und kooperative Formen des Regierens, das auch Selbststeuerung bedeuten kann, schärfer profiliert. Aufschlussreich für die Analyse neuer Formen der Gestaltung technologischen Wandels ist nicht zuletzt der weite Bereich der Biomedizin. Biomedizinische Forschung und Anwendungen sind auf vielfältige Weise zu politischen Fragen geworden. Die Politik sieht sich hier mit hoher Komplexität konfrontiert, aber auch mit neuen Legitimationserfordernissen.
Diese lassen sich mit der Tatsache in Verbindung bringen, dass die Ethik zum maßgeblichen Regulierungsdiskurs geworden ist – Kontroversen um Stammzellforschung oder PID werden in ethischen Kategorien ausgetragen, aber nicht nur diese. Diese Besonderheiten – Komplexität und „Ethisierung“ – machen das Feld der Biomedizin für die Beteiligung neuer Akteure im Prozess der Technikgestaltung anfällig. Wir beobachten hier eine Mobilisierung unterschiedlicher Formen von Expertise, wobei diese Expertise von der Politik nicht nur zur Diskussion und Aufbereitung von Wissens- oder Sachfragen mobilisiert wird, sondern zur Verhandlung von Wertfragen. Während die Mobilisierung der teilnahmslosen Öffentlichkeit in Form von Partizipationsverfahren eher experimentellen Charakter hat, sind institutionalisierte Formen der Expertenberatung, z.B. in Gestalt nationaler Ethikräte, von einer gewissen politischen Relevanz.
In meinem Beitrag geht es nicht um Vermutungen über Wirkungen von Expertise (der „Impact“ von Politikberatung ist ohnehin nicht messbar); vielmehr stehen die Interaktionsdynamiken zwischen Politik und Ethikexperten im Mittelpunkt. Anhand eines Ländervergleichs wird gezeigt, dass im politischen Rekurs auf Expertise implizite Auffassungen über gute Politik und legitimes Entscheiden zum Ausdruck kommen. Dies lässt sich über die Art und Weise der Grenzziehungen zwischen Politik und Wissenschaft rekonstruieren, die in der politischen Rezeption von Ethikexpertise implizit vorgenommen werden. Daraus lässt sich schließen, dass der Umgang der Politik mit Expertise – bei gleicher Organisationsform, Aufgabenstellung usw. – je nach spezifischen Governance-Idealen in der Praxis unterschiedlich sein wird.
Ethikexpertise ist freilich nicht nur ein passives Legitimationswerkzeug; in Bezug auf Politikgestaltung spielt sie vielmehr eine aktive Rolle: Sie repräsentiert den Rahmen, in dem Entscheidungen vorbereitet und legitimiert werden können und müssen. Derart „ethisierte“ Fragen verlangen in Bezug auf politisches Entscheiden einen Koordinierungsmodus politischer Mehrheiten, der nicht Parteizugehörigkeit zum Maßstab nimmt. In einem kurzen Ausblick wird abschließend deshalb die Rolle des „Gewissens“ bei der Entscheidung biopolitischer Fragen erläutert.
Im Wesentlichen basieren meine Überlegungen auf empirischen Forschungen, die ich im Rahmen meines an der Akademie der Wissenschaften angesiedelten Habil-Projekts durchgeführt habe. Die Fallstudien sind thematisch auf die aktuellen Biomedizin-Kontroversen (Stammzellforschung, Klonen, PID) sowie fallvergleichend auf Deutschland und Österreich bezogen. Methodisch basiert diese Mikroskopie des Zusammenwirkens von Politik und Expertise auf Dokumentenanalysen und Experteninterviews.
Stefan BÖSCHEN
Technikfolgenabschätzung (TA) ist ein Unterfangen, das in Prozessen der Governance schon immer mit einer paradoxen Verortung zu kämpfen hatte. Einerseits ist TA ein Instrument zur Demokratisierung von Technologieentwicklung. Schon die Entstehungsgeschichte zeigt, dass der politische Ort von TA im Parlament zu finden ist, um für ein Gleichgewicht der Expertisekräfte zwischen Exekutive und Legislative zu sorgen. Hier zeigt sich TA als Erfolgsgeschichte. In vielen europäischen Ländern gibt es inzwischen entsprechende Organisationen parlamentarischer TA-Expertise. Andererseits wurde das Projekt TA als expertenbasierte Politikberatung etabliert und mit dem Auftrag versehen, Kosten und Nutzen von innovativen Technologien zu bestimmen und das so erhobene Wissen für politische Entscheidungsprozesse aufzubereiten. Dabei ist es hinsichtlich seines Anspruchs im Grunde uneinlösbar. Schon im Laufe der 1980er Jahre wurde der Umfang für ein Idealkonzept von Technikfolgenabschätzung formuliert, das nicht nur eine vollständige Beschreibung der Technologie und seiner Nebenfolgen, sondern auch die Ableitung von Handlungsoptionen umfasste. Einerseits also die Förderung von Demokratisierung, andererseits die Anbindung an etablierte expertenbasierte Wissensordnungen. Pointiert: Progressive Entwicklungsstrategie versus restriktiver Bestandsschutz, in diesem Spannungsfeld bewegt sich TA bis heute.
Nun bestreit niemand, dass die Beobachtung möglicher Technikfolgen und das Markieren von Pfaden der gesellschaftlichen Einbettung innovativer Technologien spezifischer wissenschaftlicher Heuristiken bedürfen. Jedoch stellt sich die Frage, welche Art von Theorien und Heuristiken dabei sinnvoll sind. Meine Vermutung ist, dass die aufgezeigte Paradoxie letztlich dem Umstand geschuldet ist, dass TA wissenssoziologisch sehr stark in Formen der Systemanalyse wurzelt. Die Fakten sollten für sich sprechen und mögliche Technologiedebatten entschärfen oder gar entscheiden. Dadurch wurde der Beitrag der Technikfolgenabschätzung zu einer Technology Governance in ein Licht „instrumenteller Schützenhilfe“ getaucht, auch wenn bestimmte Diskursführer das Gegenteil behaupteten und Technology Assessment unter den Verdacht eines „Technology Arrestment“ stellten. TA folgte also programmatisch der Idee einer zunehmenden Kontrolle von Natur durch mehr Wissenschaft und Technik. Nur dass es in ihrem Falle eigentlich um die wissenschaftlich-technische Bewältigung von „Modernisierungsfolgen“ ging, denn nicht-intendierte Effekte von Innovationen standen zentral im Blickpunkt und nicht die Abwehr von möglichen Naturkatastrophen. Mit viel Elan wurden wissenschaftliche Instrumente bereitgestellt und parlamentarische Einrichtungen gegründet.
Die Euphorie wich zunehmend der Ernüchterung über die begrenzte Leistungsfähigkeit dieses Instruments: TA schien erst zu einem Zeitpunkt einzusetzen, zu dem die wichtigsten Implementations-Entscheidungen schon getroffen und damit ein Gegensteuern fast nicht mehr möglich war. TA kam damit im Grunde zu spät. Des Weiteren kam es zur wachsenden Betonung der Rolle von Nicht-Experten, sei es, dass zunehmend Modelle einer Beteiligung von Bürgern in TA-Verfahren erprobt werden, sei es, dass sich in der Zwischenzeit eine Diskussion um die Sichtung und Systematisierung möglicher Verfahren einer partizipativen Technikfolgenabschätzung entwickelt hat. Diese Diskussionen machen auf eine in dem TA-Projekt durchgängige Hintergrundannahme aufmerksam: den exponierten Sonderstatus des Expertenwissens. Zwar ist es nicht zu bestreiten, dass bei vielen technischen Innovationen ohne Expertenwissen keine Risikoforschung zu betreiben ist. Auf der anderen Seite ist eine solche Fokussierung insofern problematisch, weil sie die besondere Wichtigkeit von anderen Wissensformen für die Risikoerkenntnis systematisch unterschätzt und somit kein Sensorium dafür entwickelt hat. Die Kritik der Risiko- und Umweltdiskurse hat zudem deutlich gemacht, dass die „Objektivität“ des Expertenwissens und die darauf beruhende „Gewissheit“ ja gerade in Frage stehen.
Entsprechend begründet sich meine Frage, inwieweit TA sich selbst nicht stärker im Sinne einer kritischen Theorie entfalten müsste. Um diese These zu unterlegen, werden in dem vorgeschlagenen Beitrag folgende Aspekte aufgegriffen. Erstens soll die Unterscheidung zwischen analytisch-deskriptiven und relational-kritischen Theoriestrategien im Projekt der TA eingeführt werden. Diese stellen zwei wesentliche Perspektiven zur Theoretisierung von Technikfolgenabschätzung dar. Zweitens können durch die Angebote der Theorie reflexiver Modernisierung eine Selbstverortung von TA im Prozess der Modernisierung ermöglicht werden. Vor diesem Hintergrund lassen sich die Konzepte der „Gestaltungsöffentlichkeit“ und das der „hybriden Wissensregime“ einführen. Gestaltungsöffentlichkeiten verkörpern die Infrastrukturen in spezifischen Feldern der Risikopolitik, in dem sie Ausdruck jeweiliger Konstellationen von Diskursen, Institutionen und Praktiken der Technologieentwicklung und Risikokontroversen darstellen. Hybride Wissensregime müssen dahingegen als spezifische Macht-Wissens-Konstellationen begriffen werden, welche die spezifischen Zugangsregeln für Akteure und Wissen bei der Strukturierung von Gestaltungsöffentlichkeiten abbilden und dabei kritisch reflektieren. Die Analyse hybrider Wissensregime ermöglicht also den „kritischen“ Blick auf die jeweils sich historisch und themenzentriert entfaltenden Gestaltungsöffentlichkeiten. Um diese Sichtweise plastisch zu machen, wird drittens anhand einiger risikopolitischer Entwicklungen das „kritische“ Potenzial der aufgezeigten Strategie gewürdigt. Die Überlegungen schließen viertens mit einer knappen Zusammenfassung und Vorschlägen für die weitere Diskussion. Plädiert wird dafür, dass sich Technikfolgenabschätzung als Katalysator bei Prozessen gesellschaftlicher Selbstberatung versteht.
Mathias BOYSEN
Im Rahmen des BMBF-geförderten Forschungs- und Entwicklungsnetzwerkes „Napus 2000 – Gesunde Lebensmittel aus transgener Rapssaat“ (2000-2004) führte der Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt (BIOGUM) an der Universität Hamburg eine Technikfolgenabschätzung unter dem Titel „Untersuchungen zu sozioökonomischen Implikationen ernährungsphysiologisch optimierter Lebensmittel aus gentechnisch verändertem Raps“ durch. Eine Besonderheit stellte dabei die feste Einbettung in die Organisations- und Forschungsstrukturen des Netzwerkes dar, obwohl es sich als einziges Teilprojekt des Netzwerkes nicht mit naturwissenschaftlich-technischen Fragestellungen befasste.
Forschungsthema und Fragestellung:
Ziel des interdisziplinären Forschungsnetzwerkes war es, funktionelle Lebensmittel (Health Foods, Nutraceuticals) aus gentechnisch veränderten Rapspflanzen zu gewinnen; es umfasste 19 Firmen und Forschungseinrichtungen entlang der Wertschöpfungs- und Entwicklungskette. Entsprechende Lebensmittel folgen aktuellen Ernähungs- und Gesundheitstrends und sollen einen gesundheitlichem Nutzen sowohl für spezifische Bevölkerungsgruppen bieten (z.B.: für Schwangere, Herzkranken, etc.), als auch zur prophylaktischen Verbesserung des allgemeinen Gesundheitszustandes der Gesamtbevölkerung beitragen. Der verfolgte gentechnische Ansatz repräsentiert ein Beispiel für die nächste Generation der Grünen Gentechnik. Die TA- Arbeiten im Rahmen des Forschungsnetzwerkes hinterfragten inhaltlich, auf welche Weise die Gesellschaft mit funktionellen Lebensmitteln und gv-Pflanzen gegenwärtig umgeht (ex- post-Analyse) und wie die Gesellschaft mit jenen Lebensmitteln, die das Entwicklungsendziel des Forschungsverbundes darstellten, möglicherweise zukünftig umgehen könnte (ex-ante- Analyse). Generell stellen die systematische Bereitstellung von Entscheidungswissen, die Analyse, die Bewertung und die Gestaltung im Sinne einer Techniksteuerung zentrale Anliegen der TA dar. Aufgrund des co-evolutionären Prozesses von technischer Entwicklung und dem sozialen Umgang mit Technik rücken hierbei Fragen der Technikakzeptanz mit in den Fokus von TA. Aufgrund der Einbettung des TA-Teilprojektes im Gesamtnetzwerk konnte zusätzlich zu den inhaltlichen Aufgaben beobachtet und analysiert werden, in welcher Form die generellen Zielsetzung der TA im Rahmen eines konkreten Forschungsnetzwerkes Eingang fanden.
Methodische Vorgehensweise:
In der ersten Phase wurde die einschlägige Literatur (i) zur sozioökonomischen Bewertung funktioneller Lebensmittel, (ii) zum Stand des Gentechnikeinsatzes in der Landwirtschaft und bei Lebensmitteln, (iii) über die Hintergründe ihrer geringen öffentlichen Akzeptanz sowie (iv) über die einschlägigen gesetzlichen Regelungen sowohl bei funktionellen Lebensmitteln als auch beim Einsatz der Gentechnik ausgewertet. In der zweiten Phase wurden Leitfaden-gestützte Interviews mit den Projektverantwortlichen (Teilprojektleiter) des Verbundprojektes NAPUS-2000 geführt. Neben den Inhalten der Literaturrecherche wurde hierbei u.a. die Rolle der TA im Forschungsnetzwerk thematisiert. In der abschließenden dritten Phase wurde die Perspektive von Verbrauchern zu den Forschungszielen des Verbundprojektes mit Hilfe von Fokusgruppen erfasst. Um die Diskussion zu fokussieren wurde hierbei u.a. ein hypothetisches Gentechnikmodellprodukt vorgestellt, das aus Sicht der Projektverantwortlichen ein potenzielles Ergebnis des Forschungsnetzwerkes darstellte.
Die Ergebnisse aller drei Schritte wurden kontinuierlich auf jährlichen Versammlungen des Gesamtprojektes vorgestellt und erörtert. Die Diskussionen wurden zusätzlich in einem Netzwerk vertieft, das vor allem jene Projektverantwortlichen umfasste, deren Arbeiten sich stärker an möglichen Lebensmittelprodukten orientierten.
Resultate:
Auf inhaltlicher Ebene konnten die Voraussetzungen herausgearbeitet werden, unter denen Verbraucher Lebensmittel aus Pflanzen, die speziell zur Produktion funktioneller Lebensmittel gentechnisch verändert wurden, konsumieren würden. Eine wichtige Voraussetzung ist, dass das Konzept der Health Foods als Mittel zur Prophylaxe oder als Hilfe bei gesundheitlichen (ernährungsbedingten) Problemen, generell unterstützt wird. Aus dieser Teilgruppe würden einige den Einsatz der Gentechnik unterstützen und sogar einen sogar einen Preisaufschlag in Kauf nehmen, andere wiederum lehnten den Gentechnikeinsatz kategorisch ab. Insgesamt wurde deutlich, dass funktionelle Lebensmittel als Ansatz einer zweiten Generation der Gentechnik nicht bewirken, dass sich die breite Unterstützung medizinischer Ansätze der Gentechnik auf den Lebensmittelbereich überträgt.
Die Schwerpunktsetzung des TA-Teilprojektes auf sozialwissenschaftliche Fragen blieb nicht ohne Konsequenzen für die Mitarbeit in dem Forschungsnetzwerk, dessen Mitglieder ganz überwiegend einen naturwissenschaftlich-technischen Hintergrund aufwiesen. Zum Zeitpunkt der Projektkonzeption war unbekannt, inwieweit die neutrale Positionierung der TA- Arbeitsgruppe im Streit um die Grüne Gentechnik projektintern nicht als Gegnerschaft wahrgenommen werden könnte. Aus der Erfahrung der durchgeführten TA lässt sich festhalten, dass zwar gewisse Spannungen und Barrieren auf der Ebene fachspezisicher Sprachcodes existierten (z.B. bei der Nutzung des Risikobegriffes), diese aber nie zu einem konfrontativen Streit oder gar Blockaden eskalierten. Vielmehr erfolgte im Projekt eine bewusste Auseinandersetzung mit Gentechnik-kritischen Positionen in einer Form und Intensität, wie sie sehr wahrscheinlich sonst nicht erfolgt wäre. In der Möglichkeit des Einspiegelns anderer Wahrnehmungs-, Deutungs- und Bewertungsmuster lag die Stärke der strukturellen Integration des TA-Teilprojektes in das Gesamtforschungsnetzwerk. Die feste, mehrjährige Zusammenarbeit im selben Forschungszusammenhang schuf eine Vertrauensbasis und damit die Bereitschaft zum Anerkennen anderer Standpunkte. Viele Projektverantwortliche begrüßten, im Rahmen der Interviews abseits ihrer Alltagsarbeit über grundsätzliche Zusammenhänge sprechen zu können. Ohne diese Interviews wären die Arbeiten der TA weniger erfolgreich verankert gewesen. Die vom TA-Teilprojekt vorgelegten Ergebnisse wurden projektintern durchweg offen und produktiv diskutiert. Dabei brachten Projektpartner zusätzliches ihr Wissen ein (z.B. Erfahrungswissen im Umgang mit gesetzlichen Regelungen zur Grünen Gentechnik) und neue, weitergehende Fragestellungen wurden aufgeworfen und teilweise als neue Aufgaben an die TA-Arbeitsgruppe heran getragen. Dieser Dynamik musste dort eine Grenze gesetzt werden, wo die Neutralität der TA-Arbeitsgruppe im Gentechnikstreit in Gefahr geriet (z.B. bei dem Wunsch einer aktiven Öffentlichkeitsarbeit für die Ziele des Forschungsnetzwerkes). Insgesamt ist die dynamische Weiterentwicklung der Diskussion zwischen den naturwissenschaftlich-technisch fokussierten Forschern und der TA-Arbeitsgruppe als positives Resultat ihrer Integration in einem Forschungsnetzwerk zu bewerten. Dies wird u.a. dadurch belegt, dass sich die Wissensbasis über die Wahrnehmung und die Denkweisen gesellschaftlicher Teilsysteme im Gesamtprojekt fortlaufend erhöhte.
Weiter reichende Ansprüche der TA, beispielsweise alternative Entwicklungsziele zur Gentechnik in das Forschungsnetzwerk zu verankern, erscheinen bezogen auf den Anwendungsfall einer „forschungsnahen“ TA nicht realistisch; hierzu waren die naturwissenschaftlichen-technischen Arbeiten zu fest auf ein bestimmtes Ziel fixiert.
Stephan BRÖCHLER
Der Vortrag diskutiert die Frage, wie sich sozialwissenschaftliche Technikforschung und Governance-Forschung zueinander verhalten. Sozialwissenschaftliche Technikforschung interessiert sich für die Analyse der Chancen und Risiken der Einbettung technischer Innovationen in die Gesellschaft. Zwei wichtige Themen sind politische Techniksteuerung und Technikfolgenabschätzung. Governance-Forschung untersucht die Frage, wie sich im Zusammenwirken staatlicher und handlungsfähiger zivilgesellschaftlicher Akteure die Bearbeitung öffentlicher Probleme vollzieht. Aus Sicht beider Perspektiven kommt somit Fragen der Steuerung und Koordination eine wichtige Bedeutung zu. Der Beitrag argumentiert, dass Governance-Forschung ein bedeutsames analytisches Potenzial beinhaltet um zur sozialwissenschaftlichen Technikforschung beizutragen.
Kai BUCHHOLZ
Im Rahmen der Governance von Technikentstehung und -gestaltung stellt die wissenschaftliche Beratung der Politik über Fragen der Förderung neuer Techniken, der Gefahren neuer Techniken und der Regulierung ihrer Anwendung eine wichtige aber eher traditionelle Arena dar. Wissenschaftliche Beratung der Politiker/innen zu diesen Themen gibt es schon länger und ist somit im Gegensatz zu den neueren partizipativen Ansätzen der Technikbeurteilung kein neues Phänomen in der Technology Governance. Aber sie spielt immer noch eine wichtige Rolle in dem Arrangement von Einrichtungen, die die Art und Weise der Genese und Verbreitung von Techniken beeinflussen. Die Interaktionen zwischen beratenden Wissenschaftlern und ihren politischen Adressaten, die bei wissenschaftlicher Beratung stattfinden, soll in diesem Beitrag näher in den Blick genommen werden. Es wird ein Analyserahmen vorgeschlagen, der die Interaktionen der wissenschaftlichen Beratung als Beratungssysteme beschreibt, in denen eine Dienstleistung stattfindet, die sich mit den Mitteln der Professionssoziologie analysieren lässt. Die Rollenträger in diesen Interaktionen sind widersprüchlichen Anforderungen ausgesetzt, die aus der spezifischen Aufgabe entstehen, wissenschaftliches Wissen auf das politische Problem zu beziehen, zu dem beraten werden soll. Diese Anforderungen sind diejenigen, mit denen auch in der Praxis der klassischen Professionen umgegangen werden muss. Damit wird die wissenschaftliche Beratung als eine professionalisierungsbedürftige Dienstleistung identifiziert. Für erfolgreiche Politikberatung müssen diese widersprüchlichen Anforderungen ausbalanciert werden. Mit dem vorgeschlagenen Ansatz können unterschiedliche Beratungsarrangements untersucht werden. Es kann angegeben werden, auf welche Probleme diese wahrscheinlich stoßen werden und unter welchen Umständen die Anforderungen ausbalanciert werden können.
Weiterhin wird argumentiert werden, dass nicht nur die Bedingungen erfolgreicher wissenschaftlicher Politikberatung mit dem vorgeschlagenen Konzept identifiziert werden können. Es ist auch möglich zu analysieren, unter welchen Umständen wissenschaftliche Berater in dem Sinn legitimen Einfluss haben, dass ihr Rat auf Annahme bei den politischen Adressaten stößt. Wenn in der Beratung den Anforderungen des Beratungssystems angemessen Rechnung getragen wurde, ist die Annahmewahrscheinlichkeit des Rates nicht nur höher, sondern es wurde auch die Entscheidungsautonomie des Adressaten berücksichtigt, der Rat aufgrund von verlässlichem Wissen gegeben und das politische Problem angemessen erfasst. Solch ein qualitativ hochwertiger Rat verdient Beachtung durch den Adressaten. Trotz Befürchtungen, die im Lichte demokratietheoretischer Überlegungen einen zu hohen Einfluss von wissenschaftlichen Beratern sehen, kann solchem Rat legitimen Einfluss auf politische Entscheidungsfindung zugestanden werden.
Martin MEISTER (statt Hans-Liudger DIENEL)
Zeitgleich zu einer quantitativen Vermehrfachung partizipativer Verfahren und ihrer vermehrten Anwendung im Bereich der TA und darüber hinaus ist in den vergangenen Jahren die Partizipative TA in der Forschung kritischer als früher diskutiert worden. Einige Verfahren offerierten weniger tatsächliche demokratische Mitwirkungschancen in der Technikbewertung als vielmehr akzeptanzschaffende Marketingmaßnahmen.
Die kritische Neubewertung bezieht sich dabei sowohl auf Verfahrensfragen (Input), als auch auf die Qualität der Ergebnisse (Output). Partizipative Verfahren insgesamt werden kritischer als noch vor einigen Jahren diskutiert. Der Beitrag skizziert einige partizipative Verfahren, Einsätze im Bereich der TA und kritische Einwendungen in der Diskussion.
Ulrich FIEDELER, Myrtill SIMKÓ, André GAZSÓ
Die Nanotechnologie als Gegenstand der TA stellt in vielerlei Hinsicht eine Herausforderung dar, da sich unter diesem Begriff ganz verschiedene technische Konzepte versammeln. Auch wenn sie in wissenschaftlich-technischer Hinsicht noch eine gewisse Gemeinsamkeit aufweisen, so sind die aus ihnen resultierenden Anwendungen äußerst unterschiedlich. Entsprechend muss die TA je nach Anwendung jeweils anderen Fragen nachgehen und verschiedene Themenkomplexe berücksichtigen. Eine weitere Herausforderung für die TA der NT stellt ihr früher bzw. sehr diverser Entwicklungsstand dar. Einige der Anwendungen, die heute zur NT gezählt werden, gibt es schon seit Jahrzehnten, wenn nicht gar seit Jahrhunderten. Die meisten Anwendungen befinden sich aber in einem frühen Entwicklungsstadium, während viele lediglich als Konzepte diskutiert werden. In diesem Fall bedarf es zu deren Realisierung noch intensiver Grundlagenforschung.
Für die Technikfolgenabschätzung bedeutet dies, dass Nutzungskontexte und deren Auswirkungen auf Umwelt, Gesundheit und Gesellschaft eben noch nicht oder, wenn doch, dann erst in Ansätzen identifizierbar sind. Diese Ungewissheit über die möglichen Auswirkungen der NT hat in Österreich wie auch in vielen anderen hochentwickelten Industrienationen dazu geführt, dass Akteure, vor allem die politischen Entscheidungsträger verunsichert sind. Dabei bezieht sich diese Unsicherheit vor allem auf die Notwendigkeit von regulierenden Maßnahmen.
Andererseits wurde der Nanotechnologie von Beginn an eine relativ starke mediale Aufmerksamkeit zuteil. Bereits frühzeitig wurden in Berichten der NT hohe und weitreichende Erwartungen formuliert. Zunächst geschah dies in Forschungsprogrammen (Roco 1999), dann aber auch zunehmend in den Medien (Zitat: Schirrmacher). Als propagierte Schlüsseltechnologie wurde der Nanotechnologie das Potenzial zu tiefgreifenden Veränderungen zugeschrieben, die sich auf alle Bereiche der Gesellschaft erstrecken sollte.
Aus den oben geschilderten Rahmenbedingungen ergibt sich, dass Technikfolgenabschätzung der Nanotechnologie sich nicht in einem Projekt erschöpfen kann, in dem technische Möglichkeiten erfasst, bewerten und politische Handlungsoptionen formuliert werden. Will Technikfolgeabschätzung dem Gegenstand der Nanotechnologie gerecht werden, muss sie mehr denn je als ein fortlaufender Prozess verstanden werden, der viele gesellschaftliche Bereiche umfasst, in dem also viele verschiedene Akteure involviert sind. Maßnahmen zur Regulierung wie zur Förderung der NT müssen permanent den sich fortlaufenden Erkenntnissen und Entwicklungen angepasst werden.
Entsprechend dieser Voraussetzungen liegt der Schwerpunkt des NanoTrust-Projektes in der kontinuierlichen Erhebung, Aufarbeitung und Bereitstellung von vorliegenden Erkenntnissen zu möglichen Gesundheits- und Umweltrisiken nanotechnologischer Anwendungen. Im Zuge dieser Erhebung und Analyse des bestehenden Wissens werden unterschiedliche Bewertungen einander gegenüber gestellt und Forschungslücken identifiziert. Dieser so genannte "Risiko-Radar" ist die Basis für ein Clearing House für Fragen über mögliche Gesundheits- und Umweltrisiken. NanoTrust soll als Informations-Drehscheibe und Diskussionskatalysator dienen, sowohl für die allgemeine Öffentlichkeit und die Verwaltung als auch für die Nano-Forschungscommunity selbst. Weiterhin soll eine Art Servicestelle in Fragen von Sicherheitsaspekten eingerichtet werden. Diese Aktivitäten werden unter Einbeziehung der Experten aus Wissenschaft (Toxikologie, Umweltwissenschaft, Nanoscience), Politik und Verwaltung durchgeführt. Das bedeutet, dass die Experten als Quelle von Wissen und zur Validierung von Informationen herangezogen werden. Gleichzeitig dient das Projekt dazu, potenziellen Adressaten strukturiertes Wissen zur Verfügung zu stellen, was bedeutet, dass NanoTrust der Organisation, der Transformation und der Dissemination einschlägigen Wissens dient.
Torsten FLEISCHER, Peter HOCKE , Hans KASTENHOLZ , Harald F. KRUG , Christiane QUENDT, Albena SPANGENBERG
Nanotechnologie gilt in der Forschungs- und Wirtschaftspolitik als Feld mit revolutionären Möglichkeiten der Innovation in verschiedensten Anwendungsbereichen, als eine der wichtigsten emergenten Techniken des 21. Jahrhunderts. Parallel zu ihrer forschungs- politischen Konjunktur entwickelte sich in der Wissenschaft, den Medien und der interessierten Öffentlichkeit (und hier insbesondere bei den umweltorientierten und wirtschaftskritischen Nichtregierungsorganisationen) eine Debatte über die Risiken der damit verbundenen Entwicklungen (z.B. ITA 2006; Schmid et al. 2006; Fleischer und Grunwald 2008).
Aus Sicht der Technikfolgenabschätzung sind dabei drei verschiedene Diskursstränge (u.a. mit unterschiedlichen Folgendimensionen und Zeithorizonten) zu beobachten:
1. das potentielle Auftreten von „Risiken“ durch unbekannte Eigenschaften von Nanomaterialien (hier vor allem von synthetischen Nanopartikeln) und ihre Auswirkungen auf Mensch und Umwelt.
2. Folgen von „ermöglichten Innovationen“ bei Technikfeldern, die selbst der Nanotechnologie nicht zugerechnet werden, die aber ohne Beiträge aus ihr nicht oder nicht in dieser Form realisiert werden können. Dies betrifft unter anderem die Informations- und Kommunikationstechnik und dort verfolgten Visionen der Einbettung und Ubiquität, oder die Medizintechnik mit neuen Formen der technischen Nutzung von Erkenntnissen an der Schnittstelle zwischen Nano-, Bio-, Informations- und Kognitionswissenschaften.
3. NT als weiterer Repräsentant für ‘Risikotechniken’ in breiteren Debatten über grundsätzliche Fragen der gesellschaftlichen Steuerung von Wissenschaft, des Vertrauens in Wissenschaft sowie Wissenschaftler und deren Auftraggeber und des (als fehlend wahrgenommenen) Einflusses auf die Forschungs- und Technologie-Politik.
Als ein wichtiges Thema in der Diskussion um die Governance von Nanotechnologie hat sich der gesellschaftliche Umgang mit den (potentiellen) Risiken der wachsenden technischen Nutzung gezielt hergestellter synthetischer Nanopartikel herauskristallisiert (beispielhaft: Renn/Roco 2006; Meili et al 2007). Die wirtschaftliche Attraktivität dieser Partikel liegt vor allem darin begründet, dass sie Eigenschaften aufweisen, die größere Strukturen aus dem gleichen Material nicht zeigen. Wenn dies aber für die physikalisch-chemischen Eigenschaften stimmt, so die plausible Vermutung, gilt dies möglicherweise auch für ihre biologischen und toxischen Eigenschaften. Sind toxikologische Bewertungen, die für Volumenmaterial vorgenommen wurden, auch für nanoskalige Partikel gültig? Werden solche Teilchen eventuell anders („einfacher“) in den Körper aufgenommen, und welche Effekte zeigen sie dort? Wie werden sie im Körper transportiert, werden sie ausgeschieden oder akkumulieren sie? Führen sie zu gesundheitlichen Effekten? Diese Fragen bewegen nicht nur Wissenschaftler, sondern auch Politiker und Regulierungsbehörden, NGOs und Medien (Helland et al. 2006; Siegrist et al. 2007).
Dabei stehen Akteure, die sich eine begründete Position erarbeiten wollen, vor einer Reihe von Herausforderungen: Toxikologische Forschungsergebnisse zu Nanopartikeln liegen bisher zu wenige vor, zudem sind die Studien oft nicht miteinander vergleichbar oder methodisch kritikabel, woraus Validierungsprobleme entstehen. Bei der Interpretation von Forschungsergebnissen liegen die Expertenpositionen häufig weit auseinander, wobei in der Medienberichterstattung oft eher die risikobetonenden Stimmen zu Wort zu kommen scheinen. Aus der Perspektive der Werkstoffentwicklung ist bedeutsam, dass nanoskalige Partikel aus vielen verschiedenen Materialien hergestellt und eventuell auch noch mit anderen Stoffen kombiniert oder beschichtet werden können. Diese große Mannigfaltigkeit wird sich kaum „Fall für Fall“ untersuchen lassen, was die Frage nach der Übertragbarkeit von Forschungsresultaten zwischen unterschiedlichen Materialgruppen aufwirft (Krug/Fleischer 2007; Helland et al. 2007).
Entscheider wie (potentiell) Betroffene sehen sich daher mit einer unübersichtlichen wissenschaftlichen Ergebnis- und Diskurslandschaft konfrontiert, deren Kartierung durch sie selbst nur schwer zu leisten ist. Aus diesem Grunde wurde im Rahmen des Projektes NanoHealth geprüft, inwieweit die von der Programmgruppe Mensch, Umwelt, Technik (INB-MUT) des Forschungszentrums Jülich entwickelte Methode der Evidence Maps (EM) geeignet ist, Beiträge zur Strukturierung, Charakterisierung und Kommunikation von Risiken bei synthetischen Nanopartikel zu leisten. Grundüberlegung dieses Ansatzes ist, dass die Ermittlung der wissenschaftlichen Evidenz über einen (potenziellen) Hazard grundlegender Baustein jeder Risikobewertung ist. Diese wird allerdings erschwert, wenn die analytische Basis für eine Evidenzbewertung quantitativ dürftig ist oder die Evidenz auf inkonsistenten oder widersprüchlichen Ergebnissen wissenschaftlicher Studien basiert. Solche Ergebnisse mit verschiedenen Stakeholdern zu kommunizieren ist äußerst schwierig. Evidence Maps können ein geeignetes Hilfsmittel sein, um die „Logik“, die wissenschaftliche Experten zu ihren Schlussfolgerungen über einen (potenziellen) Hazard führt, nachzuvollziehen und zugleich wissenschaftliche Evidenz (beziehungsweise ihr Fehlen) in einer leichter zugänglichen Form zusammenzufassen und zu präsentieren.
Während der ursprüngliche Jülicher Ansatz (Wiedemann et al. 2005) auf die Anzahl und Qualität der publizierten Studien zu Gesundheitswirkungen von elektromagnetischen Feldern des Mobilfunks (bezogen auf spezifische Endpunkte) als wichtigen Evidenzindikator baute und für (potentielle) Hazards mit der dafür vorhandenen breiten Untersuchungsbasis auch gut umzusetzen ist, stellt sich die Situation für synthetische Nanopartikel komplexer dar. Zum einen kann noch nicht gut beurteilt werden, inwieweit die bislang toxikologisch untersuchten Partikel (aus unterschiedlichen Stoffgruppen) als ein „Agens“ gelten können, oder inwieweit Differenzierungen nach Stoffgruppe, Größe, Morphologie und anderen Merkmalen vorzunehmen sind. Zum zweiten ist die empirische Basis noch vergleichsweise schwach – es liegen bisher nur relativ wenig publizierte Studien zu den gesundheitlichen Aspekten von synthetischen Nanopartikeln vor. Die diesbezügliche Forschung wurde erst in jüngster Zeit intensiviert und mit veröffentlichten Ergebnissen in breiterem Umfang ist erst in den nächsten Jahren zu rechnen. Zum dritten ist der Zusammenhang zwischen Transport, Verteilung und Akkumulation von synthetischen Nanopartikeln im Körper und tatsächlichen Gesundheitswirkungen keineswegs geklärt.
Aus diesen Gründen wurde im Rahmen von NanoHealth der ursprüngliche EM-Ansatz an die veränderte Informationsbasis adaptiert. Eine Veränderung betrifft die Reduktion der Analyseperspektive auf fünf „biologische“ Endpunkte. Die andere Modifikation besteht in ihrer Öffnung hin zu einem mehr diskursiven Format. Im Projekt wurden der aktuelle Wissensstand zu Gesundheitswirkungen synthetischer Nanopartikel durch eine wissenschaftliche Arbeitsgruppe in Form von Evidence Maps für verschiedene Stoffe und Endpunkte aufbereitet und diese Resultate in einem zweitägigen Expertenworkshop diskutiert und modifiziert. Dies bietet mehrere Vorteile, die auch im Prozess beobachtet werden konnten: Es ermöglicht - gerade für dieses junge und hochdynamische Forschungsgebiet - eine Erweiterung der Informationsbasis um bislang nicht publiziertes, (sub-)disziplinär unterschiedlich verteiltes und tazites Expertenwissen. In der Interaktion der Experten bei der Interpretation der EM-Entwürfe wird methodische Kritik an den zugrunde liegenden Einzelstudien artikuliert, begründet und ggf. verteidigt. Zudem werden auch die einer Risikobewertung durch die Experten unterliegenden Argumente und „normativen settings“ deutlich.
In einer ersten Reflexionsdiskussion nach dem Workshop wurde der Ansatz von den beteiligten Experten als außerordentlich hilfreich sowohl für die Einordnung der eigenen Arbeit als auch für die Unterstützung ihrer Kommunikation von Forschungsergebnissen mit der Öffentlichkeit erachtet. Im weiteren Verlauf des Projektes wird zu prüfen sein, wie andere Beteiligte im Risikodiskurs (Regulatoren, Politik, NGO, Medien, interessierte Bürger) dieses Tool einschätzen. Sollte die Reaktion ähnlich zu der der Experten ausfallen, könnte es dazu geeignet sein, in den in aktuellen technology governance-Prozessen zur Nanotechnologie oft heterogenen Akteurs-, Informations- und Verfahrenskonstellationen zumindest auf der Ebene der Strukturierung und Bewertungsbasis des wissenschaftlichen Informationsstandes zu einem Teilfeld eine Unterstützung zu bieten.
Der Beitrag wird diese und weitere ausgewählte Ergebnisse der Methodenentwicklung und Umsetzung vorstellen und in ihrer Reichweite diskutieren. Des Weiteren soll erörtert werden, inwieweit das Verfahren auch Anwendung in anderen Risikodiskursen und technology governance-Prozessen finden könnte.
Susanne GIESECKE, Joachim KLERX, Thomas LÄNGER
Unsere Informationsgesellschaft ist immer mehr auf den elektronischen Austausch von Daten angewiesen und verlässt sich zusehends auf dessen Funktionieren. Doch es vergeht kaum noch eine Woche, in der nicht neue Schlagzeilen über den Verlust von Massendaten, die zweifelhafte Speicherung von privatem, behördlichen und geschäftlichen Datenverkehr oder dessen Auswertung zu Zwecken einer vermeintlichen Sicherheit die Medien beherrschen. Auch wenn diese Fehlentwicklungen auf den ersten Blick unabhängig von einander erscheinen, so kann doch die Kombination solcher auf verschiedene Weise verlorener oder unrechtmäßig veröffentlichter Daten dem Missbrauch und zur Beeinträchtigung der Privatsphäre Tor und Tür öffnen. Neue Applikationen im Internet (Google-Anwendungen wie MyLocation, Google Calendar, Picasa,YouTube, Gmail, Google Docs, Microsoft Vista, Microsoft Live Suite) und eine zunehmende Oligopolisierung von Dienste- und Softwareanbietern (z. B. durch Google, Yahoo, Microsoft, DoubleClick etc.) machen es für die einfachen Nutzer und Nutzerinnen immer schwieriger zu entscheiden, wann ihre Daten sicher sind oder wie sie einem potentiellen Datenmissbrauch entgehen.
Gesetzliche Regelungen und die Politik sind angesichts der international operierenden Internet Service Provider (ISP) und der in den meisten Ländern stark überalterten Verfahrensweisen zum Schutz der Privatsphäre hilflos. Die neuen Technologien haben längst andere Fakten geschaffen, die durch die herkömmlichen Governance-Strukturen, die die Privacy-Fragen bisher geregelt haben, nicht mehr gesteuert werden können. Prekär wird vor allem die Rolle des Staates, der eigentlich die Privatsphäre schützen soll, aber unter dem Deckmantel der nationalen Sicherheit und dem Schutz vor Terrorattacken diese Privatsphäre stark einzuschränken droht, so dass das Vertrauen der Bürgerinnen und Bürger in die Vorsorgepflicht erschüttert wird. Es stellt sich daher die Frage, welche Strukturen an die Stelle der veralteten Gesetze und Institutionen treten oder treten können bzw. wie eine Kombination aus neuen und alten Governance-Mechanismen den Schutz der Privatsphäre auch im Zeitalter von Internet und Informationsgesellschaft wieder herstellen kann.
Unser Paper widmet sich dieser Fragestellung systematisch, indem wir zunächst an Beispielen aus der jüngsten Vergangenheit, aus der Gegenwart, aber vor allem auch anhand von Szenarien über den Einsatz von zukünftigen Technologien und Applikationen Gefahren- und Missbrauchspotentiale skizzieren und mit empirischen Fakten unterlegen (IPv6, Cloud Computing, Reality Mining).
Wir werden unser Argument der veralteten Regulierungsmechanismen anhand von herkömmlichen Gesetzeslagen in Österreich, Deutschland, der EU und z. T. der USA untermauern. Neue Formen von Governance, die sich bereits abzeichnen, um die Diskrepanz zwischen Privacy und Secrecy zu überbrücken werden diskutiert. Möglichkeiten, die generelle Bedrohung der informationellen Selbstbestimmung überwinden sollen, werden in unserem Paper geschildert, indem wir vor allem auf neue Organisationsformen und Gruppierungen eingehen, die das entstehende Governance-Vakuum ausfüllen könnten (EPIC, §29 Working Group). Dabei spielen zunehmend institutionalisierte Formen von Privacy-Schutz eine Rolle in Kombination mit frei organisierten NutzerInnengruppen (Google Watch) bis zu Einzelpersonen (Schneier), die sich im Internet Gehör verschaffen.
Es zeichnet sich eine Tendenz ab, in Anbetracht der staatlichen und interstaatlichen Ohnmacht zunehmend auf Informationscampagnen für die Nutzer und auf deren Mobilisierung zu setzen und sich so ein Stück des einstmals staatlichen Hoheitsgebiets zu erobern. Dabei wird durchaus auf den Nutzen der Verbreitung des Internets gesetzt sowie auf die Einbindung von Privacy Enhancing Technologies (PET). Wir wollen ins unseren Paper vor allem die gesellschaftliche Gestaltung dieser Governanceformen diskutieren sowie die Frage aufwerfen, ob sich damit die entstandenen staatlichen und gesetzlichen Defizite ausgleichen lassen. Hier tut sich für das Technology Assessment ein viel versprechendes Tätigkeitsfeld auf, bei dem es darum geht, auf die Technologieentwicklung und auf die entstehenden Governancestrukturen proaktiv einzuwirken und diese mitzugestalten.
Weiters soll auch mit den Teilnehmenden der Konferenz diskutiert werden, welche Aktivitäten und Maßnahmen effektiv den Schutz der Privatsphäre im Internet garantieren könnten oder ob wir in Zukunft den mächtigen Strukturen von Google, Microsoft und Konsorten sowie dem Datenzugriff durch staatliche Stellen schutzlos ausgeliefert sind.
Fritz GLOEDE
Der Wandel gesellschaftlicher Rahmenbedingungen, den Technikfolgenabschätzung im Rahmen einer Governance-Perspektive zu berücksichtigen hat, schließt nicht zuletzt das gesteigerte Interesse der Öffentlichkeit an den sich beschleunigenden Innovationsprozessen ein.
Anders als in traditionell-ordnungsrechtlicher Perspektive, bei der die von Standortentscheidungen betroffene Öffentlichkeit erst am Ende von komplexen Entwicklungs-, Planungs- und Aushandlungsprozessen mit den möglichen Folgen konfrontiert der Implementation von Technik konfrontiert wird, hebt die neue Sichtweise auf eine frühzeitige Einbeziehung betroffener wie interessierter Bürgerinnen und Bürger ab - in der einen oder anderen Weise. Dabei setzt sie auf die Tugenden zivilgesellschaftlichen Engagements und etikettiert Formen wie Verfahren einer solchen Einbeziehung von Öffentlichkeit in die verschiedenen Phasen der Technikentwicklung gern auch als Demokratisierung.
„Partizipative“ Verfahren der Beteiligung von Öffentlichkeit an „Technikgestaltung“ sind dementsprechend seit geraumer Zeit in aller Munde. Es wird dabei freilich selten sauber unterschieden zwischen einer Partizipation an Entscheidungen und einer Partizipation an der (wissensgenerierenden) Vorbereitung von Entscheidungen, wie sie etwa Konzepte partizipativer Technikfolgenabschätzung kennzeichnen.
Anhand einer Diskussion exemplarischer Beteiligungsverfahren (formelle Öffentlichkeitsbeteiligungen, Diskursverfahren, Konsensuskonferenzen, Planungszellen u.a.) sowie vorliegender Untersuchungen über „partizipative Technikfolgenschätzung“ (ADAPTA, EUROpTA) in Europa soll die Erforderlichkeit einer solchen Unterscheidung ebenso wie ihr analytischer Gewinn verdeutlicht werden.
Dem sind allerdings analytische und prozessbezogene Präzisierungen vorauszuschicken, die die hier einschlägigen Schlüsselbegriffe der Governance-Perspektive ebenso betreffen (Zivilgesellschaft, Technikgestaltung, Öffentlichkeit, Demokratisierung, Antizipation/ Berücksichtigung von Entscheidungsfolgen u.a. ) wie Vorstellungen über mögliche Wirkungen von TA-Projekten.
Noch allgemeiner ist vor dem Hintergrund konzeptioneller Vorstellungen zum Prozess der Technikentwicklung zu diskutieren, in welchem Sinn und in welchem Maße „Entscheidungen“ (im Unterschied zu evolutionären Mechanismen und/oder kontingenten Marktprozessen) überhaupt Bedeutung zuzuschreiben ist.
Methodische Vorgehensweise :
Sekundärliteratur-Auswertung, theoriegeleitete Überlegungen
Erwartete Resultate:
Beitrag zur Klärung des begrifflichen Rahmens von „Technology Governance“mit besonderer Berücksichtigung von zivilgesellschaftlicher Beteiligung
Alexander GÖRSDORF
Die Nanotechnologien sind schon seit längerem ein mit hohen Erwartungen behafteter Gegenstand staatlicher und suprastaatlicher Innovationspolitik. In dem Maße in dem neue Produkte und Materialien auf den Markt kommen, werden sie auch für den behördlichen gesundheitlichen Verbraucherschutz zum Thema. Wo aber gleichzeitig die Gesundheit der Menschen, der Wille des Souveräns, Konsumwünsche der Verbraucher und der Industriestandort Deutschland ins Feld geführt werden, sind Regulierungsentscheidungen hohen Begründungsanforderungen ausgesetzt. Und es kann erwartet werden dass sie umstritten sein werden – selbst die Entscheidung, gegenwärtig nichts zu regeln, zu fordern oder zu verbieten. In Deutschland wurde diese Problemlage vom Bundesinstitut für Risikobewertung (BfR) aufgenommen. Auftrag des BfR ist das Aufspüren und wissenschaftliche Bewerten gesundheitlicher Risiken im Verbraucherbereich, die Behörde berät die zuständigen Ministerien und Bundesämter und informiert die Öffentlichkeit. Dabei hat sich das Bundesinstitut Formen partizipativer Technikgestaltung, der Stakeholderbeteiligung verschrieben.
Der vorgeschlagene Beitrag zeigt zunächst, dass dieser Ausgestaltung des Umgangs mit einer neuen Technologie eine Organisationsprogramm gewordene Überzeugung zugrunde liegt: wenn ungewiss ist, welche Risiken die neue Technik oder die damit hergestellten Produkte bedingen, sollte Risikobewertung im Vorfeld verbindlicher Entscheidungen soweit als möglich die Form eines öffentlichen Gespräches unter allen Betroffenen annehmen. Der Hauptteil des Beitrags untersucht ein im Rahmen dieses Programms im Herbst 2006 veranstaltetes methodisches Experiment, eine nach dem Vorbild der dänischen Konsensuskonferenzen modellierte „Verbraucherkonferenz“. Für das BfR war diese augenscheinlich ein Erfolg, so ist bereits die nächste Verbraucherkonferenz zu einem anderen Thema in Planung. Bei einem Nachtreffen ein Jahr später, gaben auch die Teilnehmer der Veranstaltung noch einmal zu Protokoll, sie seien mit der Veranstaltung und ihren Wirkungen zufrieden. In großen Teilen seien ihre Erwartungen sogar übertroffen worden. Grund genug, einmal genauer nachzusehen, was diese neue, sich möglicherweise etablierende Form der technology governance zwischen Verbrauchern, Sachverständigen, Moderatoren, einer Behörde mit wissenschaftlichem Mandat sowie rechtsetzender Politik prägte. Der Beitrag stellt vorläufige Ergebnisse eines laufenden Projektes dar, in dem die organisierten Interaktionsprozesse dieser Akteure rekonstruiert und analysiert werden. Herausgearbeitet wird dabei, welche Probleme sich Interaktionen unter solchen Teilnehmern in dem oben beschriebenen Erwartungsumfeld stellten und welche Strukturen sich zu ihrer Lösung bildeten. Der Beitrag schließt mit einigen empirisch begründeten Vermutungen über das Verhältnis dieser Mikrostrukturen der Innovationsgestaltung zu ihrem organisationalen und gesellschaftlichen Umfeld.
Alexander GRESSMANN
Die Zielsetzung der Europäischen Investitionsbank ist es, Projekte zu finanzieren, die zur Umsetzung vorrangiger Ziele der Europäischen Union beitragen, heute etwa den Ausbau transeuropäischer Netze. Voraussetzung ist, dass ein Projekt in ökologischer wie auch wirtschaftlicher Hinsicht nachhaltig ist. Zur Entscheidungsunterstützung für oder gegen eine Finanzierung durch die EIB wird das Instrument der Kosten-Nutzen-Analyse eingesetzt, um neben der betrieblichen auch die gesamtwirtschaftliche Rentabilität zu beurteilen. Insofern kommt gerade im Verkehrs- und Energiesektor ein im Kernbereich weitgehend standardisiertes Verfahren der Technikbewertung zur Anwendung. Allerdings gehen externe Effekte aller Art - Auswirkungen und Risiken auf Umwelt und menschliche Gesundheit - je nach Umfang und Typ des Projekts häufig nicht oder nur in Form einer qualitativen Beschreibung oder Skala in die Bewertung ein. Für eine Reihe von Auswirkungen sind zwar keine Marktpreise vorhanden, jedoch können Methoden zur monetären Bewertung angewandt werden, die auf den Präferenzen der Bevölkerung beruhen. So ist die (monetär bewertete) eingesparte Reisezeit bei Verkehrsinvestitionen meist der Hauptnutzen. Dagegen werden Unfall- und Gesundheitsrisiken nicht oder nur über pauschale Kostensätze erfasst.
Ein besonderes Augenmerk hat hier die Bewertung tödlicher Gesundheitsrisiken. So sind durch Unfälle Personen aller Altersstufen gefährdet, eine erhöhte Sterblichkeit durch Schadstoffemissionen tritt hingegen überwiegend bei älteren Personen nach einer längeren Latenzzeit auf. Als Stand der Forschung gilt heute, unterschiedliche Todesfallrisiken nicht mit durchschnittlichen „Werten eines statistischen Lebens“ zu bewerten, sondern als Maßgröße die verlorenen Lebensjahre heranzuziehen. Monetäre Werte von Todesfallrisiken sind dabei nicht als nachträgliche Kompensation konkret eingetretener Todesfälle zu verstehen, sondern als Bewertung von „ex-ante“-Risiken, denen eine große Zahl von Personen mit jeweils sehr geringer Eintrittswahrscheinlichkeit ausgesetzt ist. Implizit werden auf individueller und staatlicher Ebene stets Entscheidungen getroffen, die Gesundheitsrisiken innerhalb gewisser Grenzen beeinflussen, also eine Abwägung zwischen Geld und Risiko darstellen. Durch Contingent-Valuation-Verfahren lässt sich mit einem geeigneten Befragungsdesign explizit die individuelle Zahlungsbereitschaft für die Vermeidung solcher marginaler Risiken ermitteln. Dabei hat sich gezeigt, dass eine Fragestellung, die auf die Änderung der Lebenszeit gerichtet ist, von den Befragten einfacher zu erfassen ist als eine nach der abstrakten Änderung statistischer Eintrittswahrscheinlichkeiten. Aktuelle Werte für ein verlorenes Lebensjahr, basierend auf den Präferenzen der Bevölkerung, können zur Bewertung angewandt werden. Bei Umwelt- und Gesundheitsrisiken wird auch für eine stärkere Integration von Contin¬gent valuation in partizipative Governance-Verfahren und in die Politikberatung plädiert.
Die vorliegende Arbeit analysiert als Fallstudie die Instandsetzung und Modernisierung einer Eisenbahnstrecke für Personen- und Güterverkehr. Die Ergebnisse der Bewertung, wie sie standardisiert durch die EIB durchgeführt wurde, werden verglichen mit einer Neubewertung, bei der externe Effekte detailliert gemäß dem Wirkungspfadansatz aus den ExternE- und HEATCO-Forschungsprojekten abgeschätzt und monetär bewertet werden. Für die zukünftige Entwicklung der spezifischen Verkehrsemissionen während der Projektlaufzeit werden Szenarioanalysen aus der Datenbank TREMOVE zu Grunde gelegt. Die Hauptfragestellung besteht darin, ob unterschiedliche Bewertungsverfahren unter dem Aspekt externer Effekte einen wesentlichen Einfluss auf die Vorteilhaftigkeit einer Investition haben können und daher ein erhöhter Aufwand bei der Projektbewertung gerechtfertigt ist.
Zur besseren Aussagekraft des Ergebnisses und der Einflussfaktoren der Bewertungs¬metho-den wurde in der Fallstudie - neben dem neu ermittelten Gesamtergebnis der Vorteilhaftig¬keit der Investition – auch der Versuch unternommen, diese Investition hypothetisch in drei Einzelschritte zu unterteilen und diese nach Kosten und Nutzen getrennt zu bewerten:
Die Ergebnisse werden in Form von Kennzahlen aus der Kosten-Nutzen-Analyse wie die volkswirtschaftliche Rentabilität sowie der Nettogegenwartswert der Investitionen beziehungsweise ihrer Einzelkomponenten unter Einbeziehung der monetarisierten externen Effekte ausgewiesen und interpretiert.
Armin GRUNWALD
In der Technikfolgenabschätzung (TA) als wissenschaftlicher Politikberatung an Parlamenten wurden in den europäischen Ländern teils ganz verschiedene konzeptionelle und organisa-torische Modelle umgesetzt. Sie unterscheiden sich nach verschiedenen Freiheits- und Unabhängigkeitsgraden in Relation zum Parlament, etwa was das Recht der Themensetzung betrifft, nach verschiedenen Graden der Wissenschaftlichkeit, nach verschiedenen Einstufungen der Bedeutung von Partizipation und Öffentlichkeitswirksamkeit, sie haben teils erheblich unterschiedliche Größe und Ausstattung, sie unterscheiden sich durch ihren jeweiligen Zugang zu den parlamentarischen Beratungsprozessen und ihre organisatorische Einbettung. Diese unterschiedlichen Modelle reflektieren unter anderem unterschiedliche politische Kulturen unter den europäischen Staaten und nehmen Rücksicht auf verschiedene Governance-Modelle.
Generell ist dabei die Trennung in eine deskriptive (wertneutrale) Phase des „Erkennens“ von Technikfolgen und eine darauf folgende Phase der Bewertung, wie sie im dezisionistischen Entscheidungsmodell und älteren TA-Konzeptionen vorausgesetzt wird, als Fiktion erkannt worden: das, was erkannt werden kann, hängt von vorgängigen Entscheidungen ab. Es wird am Anfang eines TA-Projekts darüber entschieden, in welchen Hinsichten und Problemdimensionen ein Folgenwissen überhaupt erwünscht ist. Im Rahmen einer "Wissenspolitik" (Stehr) kommt der Themendefinition und Beauftragung eine besondere Bedeutung zu. Gerade diese spezifische Situation der Kombination thematischer Abhängigkeit von politischen Prozessen einerseits und der wissenschaftlichen Unabhängigkeit in der Bearbeitung der Projekte, wie sie im Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag realisiert ist, bringt besondere Herausforderungen, aber auch Möglichkeiten mit sich, die zu einer besonderen "Governance" in diesem Kontext führen.
In diesem Vortrag werden Fragen der Governance in diesem speziellen Kontext der Technikpolitik behandelt und die Möglichkeiten der parlamentarischen Technikfolgenabschätzung erörtert. Dies erfolgt vor dem Hintergrund der generellen Verschiebungen angesichts der Globalisierung und der besonderen Veränderungen in der Technikentwicklung, die die Rolle von Parlamenten generell und ihren Einfluss auf Technik im Besonderen betreffen.
Stefan KUHLMANN
Der Beitrag wird die möglichen Beiträge von Technology Assessment (TA) zur zwangsläufig eingeschränkten ‚Steuerbarkeit’ technologischer Innovation behandeln. Dazu ist ein Verständnis der de facto Governance von Innovation zu entwickeln, etwa im Rahmen der Evolution technologischer ‚Regimes’, und es sind die konzeptionellen Ansatzpunkte und strategische Reichweite verschiedener TA-Perspektiven einzuordnen. Der Beitrag wirbt für ein konstruktivistisches und reflexives TA-Konzept: TA greift auf die eine oder andere Weise immer in technologische Innovation ein und trägt damit selbst zur Governance bei.
Wolfgang LIEBERT, Jan C. SCHMIDT
1. Anliegen und Ansatz
Zumeist hat die Technikfolgenabschätzung (TA) eine Bewertung von (fertigen, halbfertigen oder möglichen) Produkten und Prozessen vorgenommen. Die wissenschaftlich-technische Entwicklungsdynamik selbst hat sie selten in den Blick genommen. Die Ambivalenzen im naturwissenschaftlich-technische geprägten Projekt der Moderne wurden nicht thematisiert. In der Regel wurde pragmatisch über sie hinweggegangen. Damit, so unsere These, wurden weitreichende Gestaltungsoptionen verspielt.
Ein neues Rahmenkonzept (prospektive TA: ProTA) wurde daher zur Ergänzung und Erweiterung bisheriger TA-Konzepte und TA-Me¬thoden vorgeschlagen (Liebert/ Schmidt/ Bender 2005). ProTA zielt nicht nur auf eine Technology Governance, sondern auf eine Science Governance. Technology Governance scheint in relevanten Anwendungskontexten nicht nur zu spät und zu wenig wirkungsvoll zu sein, um den technologischen Wandel (von wissenschaftsbasierten Inventionen über Innovationen bis hin zu Diffusionen und Folgen) beeinflussen zu können. Vielmehr ist sie – in welcher Verständnisweise auch immer – zu wenig an den Grundlagen und Grundfesten spätmoderner Wissenschaftsgesellschaften orientiert. Sie steht in der Gefahr, lediglich auf der Symptomebene gestalten und nicht zum wissenschaftlich-technologischen Kern vordringen zu können. Damit wäre sie mehr Kompensatorik als Korrektur. In diesem Papier wird der Ansatz von ProTA vorgestellt und in Bezug gesetzt zu anderen TA-Konzeptionen. Am Beispiel von aktuellen Anwendungskontexten wird das Potenzial von ProTA – im Vergleich zu anderen Ansätzen – demonstriert; damit nehmen wir Fragestellungen des Calls for Papers zur NTA 3 auf.
2. Ausgangsdignosen
Der ProTA liegen drei Ausgangsdiagnosen im Spannungsfeld Wissenschaft, Technik, Gesellschaft zugrunde, welche nicht von allen TA-Konzepten geteilt werden: (a) Ambivalenz-Diagnose: Wissenschaft und Technik haben ein immer inhärentes janusköpfiges Potenzial. Eine vollständige „Reinigung“ des Gewollten vom Ungewollten ist nicht möglich (ProTA: Ambivalenz-Wahrnehmung und -Management). (b) Technosciences-Dia¬gnose: Wissenschaft und Technik sind heute in zunehmendem Maße auf vielfältige Art und Weise eng und untrennbar miteinander verwoben. Eine Abtrennung wertfreier Wissenschaft von wertbehafteter Technik, von Grundlagen- und Anwendungsforschung ist ebenso obsolet wie die Trennung vom Gesellschaftlichen (ProTA: Vorverlagerung der Reflexion auf Technoscience und Überwindung der Innen-Außen-Dichotomie). (c) Steuerungsunmöglichkeits-Diagnose: Gesellschaftliche Komplexität und naturwissenschaftlich-technische Komplexität erschweren jede intentionale Zweck-Mittel-relationale Steuerung und jeden Steuerungszugriff auf Wissenschaft und Technik von „außen“ allein. Unsicherheiten und Nicht-Wissen treten bereits im Kern von Wissenschaft und Technik hervor (ProTA: Gestaltung statt Steuerung).
3. Anforderungskriterien: Zugang, Genese, Geltung, Umsetzung
Jedes TA-Konzept will etwas. Welche Funktionen und Kriterien gibt es für die ProTA?
Erstens die problemkonstitutive und zugangsorienierte Funktion: Problemfelder liegen nicht als solche vor, sondern sind wahrzunehmen, zu konstituieren oder gar zu konstruieren. ProTA soll diesbezüglich Sensibilität erzeugen, Aufmerksamkeiten ermöglichen, Wahrnehmungen leiten, Bewusstsein-schärfend wirken.
Zweitens die prozess-methodologische und geneseorientierte Funktion: ProTA soll beitragen zur Gegenstandskonstitution, zur Sprach- und Begriffsbildung, zur Methodenwahl, zur Wissensintegration im Prozess der Wissensproduktion.
Drittens die evaluative, ergebnis-methodologische und geltungsorientierte Funktion: ProTA soll Mechanismen der eigenen Qualitätssicherung mit sich führen. Es soll „sozial robust“ sein gegenüber äußerer Kritik und soll intersubjektive Geltung auf- und ausweisen können (u.a. Konsistenz, Transparenz, Überprüfbarkeit, Nachvollziehbarkeit).
Viertens die Umsetzungs- und Anwendungs-Funktion: ProTA zielt auf gesellschaftliche Relevanz, auf Handeln und Gestalten in Netzen der Gesellschaft und Wissenschaft, auch auf Entscheidungsunterstüzung und Beratung. Insofern muss eine entsprechende Anschlussfähigkeit methodisch vorliegen. Umsetzbarkeit basiert auf potenzieller Akzeptabilität vielfältiger Akteure sowie auf funktionaler bzw. pragmatischer Realisierbarkeit. TA-Resul¬tate, die jenseits gesellschaftlicher Umsetzbarkeiten formuliert werden, bleiben folgenlos.
ProTA weist ihre normativen Bezugspunkte aus (Erhaltungs- und Entfaltungs-Prinzip). Daraus abgeleitete Leitkriterien können zu den allgemein akzeptierten wissenschaftsinternen Kriterien hinzutreten, um eine rechtzeitige Reflexion und Revision der Richtung des Fortschritts herauszufordern. Dies berücksichtigt, dass im Zeitalter der Technoscience eine Trennung von wissenschaftsextern und wissenschaftsintern kaum durchzuhalten ist.
4. Gestaltungsaspekte
Zielsetzungen von ProTA als Weg zur Gestaltung von Wissenschaft und Technik sind vorrangig:
Auf dem Weg zur Gestaltung wird eine antizipative Analyse von Forschung, Wissenschaft und Entwicklung vorgenommen. Die prinzipiellen Potenziale von wissenschaftlich-technischen Entwicklungsprojekten öffnen sich kaum dem Blick aus gesellschaftswissenschaftlicher Perspektive; hierzu muss die “innerwissenschaftliche” Dynamik selbst analysiert werden, um Möglichkeiten der Gestaltung auffinden zu können. Zudem werden bereits erklärte oder mögliche – oder auch annehmbare – Zielsetzungen der Forschung transparent gemacht. Über intendierte oder bereits absehbare Wirkungen und über weitere Folgen der Forschung bzw. ihrer Ergebnisse kann und muss daher bereits in einer Frühphase von Forschungsprojekten oder –programmen gesprochen werden. Es ist nicht selbstverständlich, dass solche Wirkungen und Folgen allgemein akzeptiert werden können oder akzeptabel sind. Durch ProTA werden Zugangsweisen und Werthorizonte der Akteure innerhalb und außerhalb der Sphäre der Forschung zugänglich, reflektier- und revidierbar gemacht. So wird die innerwissenschaftliche Dynamik daraufhin abgeklopft, in wie fern die postulierte Erreichbarkeit erkennbarer Zielsetzungen nach dem heutigen Stand der Kenntnisse als gegeben erscheinen kann. Die Untersuchung der Sinnhaftigkeit stellt bereits die Frage nach technischen und nicht-technischen Alternativen sowie nach gesellschaftlichen Wirkungen. Dies erfordert interdisziplinär angelegte Untersuchungen. Gleiches gilt für den Versuch, inner- und außerwissenschaftliche Interessenkonstellationen, die zunehmend miteinander verzahnt sind, transparenter zu machen. Dazu gehören sicher allgemeine ökonomisch-volkswirtschaftliche, konkret betriebswirtschaftliche, staatliche oder auch gemeinwohlorientierte Interessen.
So kann das Forschungshandeln nicht nur in ihren vielfältigen Übersetzungsprozeduren als Erkenntnisprozess mit seinen Wechselwirkungen mit Gesellschaft und Natur entschlüsselt werden, wie es die moderne Wissenschaftsforschung nahelegt, sondern ein Perspektivenwechsel wird vorgenommen: die aus Erkenntnisprozessen und Nutzungshoffnungen motivierten Übersetzungsprozeduren innerhalb der wissenschaftlichen und gesellschaftlichen Akteursnetzwerke werden als Gestaltungsprozesse erkannt; sie werden so reflektier- und revidierbar.
5. ProTA und andere TA-Konzepte: Vergleich, Anknüpfungspunkte und Fallbeispiele
In den etablierten TA-Konzepten findet sich jeweils eine Spezifizität: Die partizipative TA hebt die Bürgerbeteiligung hervor und verbleibt ganz in die Gesellschaft, Öffentlichkeit, Interessensgruppen und Politik. Die Konstruktive TA und die Technikgeneseforschung stellt den Entstehungs- und Entwicklungsprozess heraus, jedoch basiert sie methodologisch ganz auf den Sozialwissenschaften und ihrer deskriptiven Orientierung. Die Technikbewertung fokussiert auch technisches Know-How und bleibt – trotz der normativen Ausrichtung – im Zuständigkeitsbereich erweiterter Ingenieurwissenschaften. Die Rationale TA setzt stark auf die wissenschaftliche Expertise. – Hier zeigt sich die Notwendigkeit der Vermittlung. Ansonsten bleiben traditionelle Dichotomien sowohl zwischen Wissenschaft und Gesellschaft als auch innerhalb der wissenschaftlichen Disziplinen erhalten. ProTA versteht sich demgegenüber im Horizonz von Inter- und Transdiziplinarität und als eine inter- und transdisziplinäre Wissenschaft. Der Begriff der Technoscience, den wir von Donna Haraway und Bruno Latour übernommen haben, soll helfen, die vielfältigen Dichotomien zu thematisieren, ohne sie einseitig zu reduzieren: ProTA setzt methodisch auf vielfältigen Übersetzungspraktiken auf.
Von den etablierten TA-Konzepten kann ProTA einiges übernehmen — deshalb ist sie als Ergänzung zu verstehen. Von der Partizipativen TA die Partizipations-, Akteurs- und Bildungsorientierung; von der Konstruktiven TA und der Technikgeneseforschung die Prozess-, Frühzeitigkeits- und Lernorientierung; von der Technikbewertung die Wert-, Ethik- und Kriterienorientierung sowie von der Rationalen TA die Wissenschafts-, Sachverstands-, Argumentations- und Diskursorientierung. – Durch diese Stichworte wird angedeutet, dass die ProTA sich nicht an ein spezifisches, in sich geschlossenes Konzept anlehnt, sondern selbst plural bleibt. Je nach Problemstellung und Gegenstandsfeld wird sie den einen Aspekt herausstellen und andere Aspekte vernachlässigen müssen. Doch werden sie alle zu berücksichtigen sein. ProTA steht selbst zwischen dem Allgemeinen und Besonderen, dem Universellen und Kontextuellen, der Abstraktion und Konkretisierung. Vermittlungen und Übersetzungspraktiken sind jeweils anzuschließen, ganz wie dies Bruno Latour für Wissenschaft allgemein beschrieben hat. Die spezifischen Potenziale der verschiedenen TA-Konzeptionen und ihre Möglichkeiten zu einer Science and Technology Governance beizutragen, werden an Hand von Fallbeispielen genauer diskutiert. Dabei sollen insbesondere die Zugangs-, Bewertungs- und Gestaltungsformen der ProTA illustriert und von anderen TA-Konzepten in inhaltlicher und methodologischer Hinsicht abgrenzbar werden. Diskutiert werden im einzelnen:
Dabei zeigt sich, dass gerade für die Gestaltung weit in die Zukunft vorgreifender Technosciences ProTA hilfreich und notwendig ist. Kurz: Je weitreichender die Zukunftshorizonte der möglichen Realisierung neuer oder veränderter technischer Artefakte, desto notwendiger ProTA.
Stephan LINGNER
Die europäische TA-Landschaft ist seit geraumer Zeit auf hohem Niveau differenziert. Diese Vielfalt institutionalisierter TA-Konzepte kann dabei als Anpassung an die unterschiedlichen, jeweils zu adressierenden Kreise und Beratungsbedarfe bzw. -kontexte verstanden werden. Die arbeitsteilige TA-Struktur erleichtert dabei auch die Kooperation insbesondere an den Rändern methodischer Kompetenzen, die nicht zuletzt auch durch die gemeinsame Organisation der TA-Einrichtungen im Netzwerk TA zum Ausdruck kommt. Der methodische Pluralismus von TA ist daher auch weniger Ursache von – als Schutz vor – etwaigen, den Beratungsaufträgen abträglichen Konkurrenzverhältnissen.
Das TA-Konzept der Europäischen Akademie repräsentiert dementsprechend ein wichtiges Element der TA-Struktur. Es ist mit seinem Rationalitätsanspruch in hohem Maße wissenschaftsgeleitet und richtet sich daher mit den Resultaten interdisziplinärer Reflexion zunächst an die Wissenschaft selbst, soweit diese gesellschaftlich relevante Fragen aufwirft. Dieser Beratungsansatz leistet damit einen wichtigen Beitrag für die Selbstorganisation und –steuerung des Wissenschaftssystems als Teil der Gesellschaft und für dessen fortlaufende Legitimation. Darüber hinaus steht die Europäische Akademie auch im Dialog mit Politik und interessierter Öffentlichkeit, mit dem Ziel, ethisch gerechtfertigte und allgemein akzeptierbare Problemlösungen für den umsichtigen Umgang mit erkenntnis- oder technikbedingten Konflikten anzubieten. An dieser Stelle bieten sich ggf. auch Kooperationsmöglichkeiten für komplementäre Ansätze, die auf die Anschlussfähigkeit der Resultate an die Praxis zielen – auch im Sinne der „Technology Governance“.
Norbert MALANOWSKI
Der englische Begriff Technology Assessment steht in der Regel für systematische Verfahren der wissenschaftlichen Untersuchung, in denen mithilfe wissenschaftlicher und kommunikativer Beiträge technikbezogene gesellschaftliche Probleme bearbeitet werden. Meist wird dieser englische Begriff im deutschen Sprachraum mit „Technikbewertung“ oder „Technikfolgenabschätzung“ übersetzt. Technikbewertung ist allerdings in den letzten Jahren seitens des Bundesministeriums für Bildung und Forschung strategisch neu ausgerichtet worden, da u. a. das „Leitbild vom Staat als Steuerungszentrum nicht mehr leitet“. Die Zielsetzungen des Konzepts der „Innovations- und Technikanalyse (ITA)“ stimmen im Wesentlichen mit denen der Technikbewertung überein. Spezifisch an dieser Neuausrichtung ist allerdings zum einen die stärkere Akzentsetzung in Bezug auf die Nutzung von ITA durch den Akteur „Wirtschaft“ (Ansatz: ITA für und mit der Wirtschaft). Zum anderen werden die Beteiligung (partizipativer Ansatz) möglichst aller relevanter Akteure sowie der Innovationsbezug, u. a. die Technologiefrüherkennung, deutlicher hervorgehoben. Gerade an diesen Punkten - so die zentrale These des Vortrags - ist ITA anschlussfähig in Bezug auf einige zentrale Ergebnisse der Governance-Forschung. So kann z. B. auch für den Bereich der Technikentwicklung konstatiert werden, dass der vermeintlich souveräne Staat vor allem im Zusammenwirken mit anderen Akteuren seinen Aufgaben nachkommen und Handlungsspielräume vor allem als Koordinator nutzen kann. Auf diese Weise werden neben den staatlichen, wirtschaftlichen und wissenschaftlichen Akteuren zunehmend auch zivilgesellschaftliche Akteure in neuartigen Verhandlungssystemen im Bereich Technikentwicklung zu relevanten Kooperationspartnern u. a. mit dem Ziel, neben wirtschaftliche auch gesellschaftliche Bedarfe und Zurückhaltungen präziser zu ermitteln.
Peter MÜNTE, Olaf BEHREND, Mirjam MÖLLMANN
Im Rahmen des Beitrags soll aus einem laufenden Forschungsvorhaben berichtet werden. Im Zentrum unserer Forschung steht die von uns vermutete Herausbildung eines neuen Typus von Berater. Kennzeichnend für ihn soll sein, daß er auf der Grundlage einer spezifischen Expertise, die sich im Kern auf die Gestaltung komplexer Kommunikationsprozesse bezieht, Politik und Verwaltung unter anderem bei der Gestaltung von Entscheidungsprozessen berät und diese Prozesse in einem oft sehr politisierten Umfeld mitorganisiert. Es sind diese unter Beteiligung entsprechender Experten geschaffenen Arrangements, die heute häufig mit dem Begriff „Governance“ belegt werden. In unseren Untersuchungen werten wir Unterlagen und Aufzeichnungen aus, in denen sich die Einrichtung solcher Arrangements sowie die in diesem Zusammenhang erfolgenden Veranstaltungen dokumentieren. In unserem Beitrag wollen wir einige Ergebnisse vorstellen. Dabei wollen wir besonderes Augenmerk darauf legen, wie die politischen Formen der Auseinandersetzung, die strittige Vorhaben wie bauliche Großvorhaben oder die Anwendung neuer Technologien normalerweise prägen, im Rahmen entsprechender Arrangements in Kommunikationsformen umgewandelt werden, die eine soziale Realität ganz eigener Art darstellen. Wir wollen weiterhin der Frage nachgehen, wie diese Kommunikationsformen soziologisch zu charakterisieren sind. Dabei gehen wir von der Annahme aus, daß dies nur auf der Grundlage einer sehr genauen sequenzanalytischen Auswertung von Interaktionsprotokollen möglich ist.
Michael ORNETZEDER, Anna SCHREUER, Harald ROHRACHER
Die hohen Erwartungen, die seit vielen Jahren in die Brennstoffzellentechnologie gesetzt werden beruhen zu einem beträchtlichen Teil auf dem ökologischen Potenzial das dieser Technologie zugeschrieben wird. Dieses Potenzial liegt zunächst einmal im Wirkungsgrad, der theoretisch sehr viel höher sein kann als etwa bei Verbrennungskraftmaschinen. Darüber hinaus kann der Einsatz von Brennstoffzellen lokal betrachtet zu deutlichen Emissionsreduktionen führen. Im Falle der Verwendung von Wasserstoff wird lokal lediglich Wasser bzw. Wasserdampf abgeschieden. Nur beim Einsatz von Methanol werden auch geringe Mengen CO2 freigesetzt. In ökologischen Zukunftsvisionen wird zudem davon ausgegangen, dass Wasserstoff mittels Elektrolyse aus erneuerbaren Energiequellen gewonnen werden wird.
Diese positiven Eigenschaften haben dazu beigetragen, dass der Brennstoffzellentechnologie in der Vergangenheit phasenweise sehr viel Aufmerksamkeit zuteil wurde. Ankündigungen seitens der Forschung und Industrie über die näher rückende breite Markteinführung mussten jedoch immer wieder revidiert werden und führten damit zu einem Wechselspiel zwischen hohen Erwartungshaltungen und enttäuschter Abwendung. Trotz des aufgrund der aktuellen Klimadebatte erneuten Interesses an der Brennstoffzellentechnologie gehen Experten heute mit Prognosen deutlich vorsichtiger um. Neben einer Reihe technischer Probleme sind es vor allem die nach wie vor sehr hohen Produktionskosten, die einer baldigen breiten Markteinführung im Wege stehen. Nach wie vor offen ist auch die Frage, auf welche Weise der Wasserstoff in größeren Mengen hergestellt werden soll.
Über das mittel- und langfristige ökologische Potential der Brennstoffzellentechnologie herrscht daher nicht immer Einigkeit. Klar ist, dass beim Einsatz von Brennstoffzellen stets im Detail abzuwägen ist, welche Form der Nutzung nach technischen, wirtschaftlichen, ökologischen und organisatorischen Gesichtspunkten sinnvoll sein kann. Für emergente Technologiefelder wird in diesem Zusammenhang vielfach die Bedeutung von Lernprozessen in Nischenbereichen hervorgehoben (Hoogma et al. 2002). Unter anderem können dabei Pilot- und Demonstrationsprojekte einen wesentlichen Beitrag dazu leisten, die technischen und regulativen Anforderungen einer Technologie in der Praxis zu testen, sowie die Abschätzung spezifischer Risiken und Potentiale zu erleichtern. So werden derzeit auch verschiedene Formen der Brennstoffzellennutzung weltweit in vielfältigen Pilot- und Demonstrationsprojekten erprobt. Am weitesten verbreitet sind dabei Projekte, in denen brennstoffzellenbetriebene Busse im öffentlichen Nahverkehr zum Einsatz kommen. Darüber hinaus werden auch brennstoffzellenbetriebene Kleintraktionsfahrzeuge in unterschiedlichen Kontexten eingesetzt. Auch die Nutzung von Brennstoffzellen zur Energieversorgung von Haushalten und öffentlichen Einrichtungen wird in einer Reihe von Projekten getestet.
Die genannten Beispiele zeigen, dass sich gerade im Bereich kommunaler Einrichtungen in mittleren und größeren Städten eine Reihe möglicher Einsatzfelder der Brennstoffzellennutzung auftun. Aber welche grundlegenden Optionen und Strategien in Bezug auf die nachhaltige Nutzung von Brennstoffzellen lassen sich für Kommunen damit formulieren? Wie kann vermieden werden, dass nur isolierte Einzelprojekte durchgeführt werden, die nicht in den Kontext gesellschaftlicher Bedürfnisse gestellt werden?
Diese Fragen bildeten den Ausgangspunkt für eine Workshopserie im Juni und Juli 2007 in Graz. Ziel war, am Beispiel der Stadt Graz die Möglichkeiten einer Kommune im Bereich der Brennstoffzellennutzung mit langfristigen Nutzungsszenarien in Verbindung zu bringen und in Bezug auf soziale, ökologische und wirtschaftliche Kriterien hin zu bewerten. An der dreiteiligen Workshopserie in Graz nahmen sowohl VertreterInnen von Firmen und Forschungseinrichtungen als auch VertreterInnen der Stadt Graz, sowie lokaler und regionaler Energieagenturen teil. Mehrere Argumente sprachen dafür, Graz als Fallstudie zu wählen und dementsprechend auch die Workshops vor Ort durchzuführen. Zum einen ist eine bemerkenswert hohe Zahl von Forschungsinstituten und Unternehmen mit F&E Aktivitäten im Bereich der Brennstoffzellentechnologie in und um Graz angesiedelt. Insbesondere befindet sich hier auch die im Jahr 2005 als Demonstrationsprojekt errichtete Wasserstofftank- und ‑prüfstelle HyCentA. Darüber hinaus ist die Feinstaubproblematik in Graz besonders stark ausgeprägt. Brennstoffzellen könnten hier in Zukunft einen möglichen Weg zur Reduktion der Feinstaubbelastung darstellen. Innerhalb von Österreich findet man in der Stadt Graz sehr gute Voraussetzungen für eine frühzeitige Implementierung von Brennstoffzellenanwendungen vor.
Das Konzept der Workshopserie orientierte sich an Grundsätzen, die im Rahmen von ‚Constructive Technology Assessment’ (CTA) entwickelt wurden. CTA wurde in den achtziger und neunziger Jahren in den Niederlanden entwickelt und hat seither in verschiedenen politischen und technologischen Kontexten Anwendung gefunden (Schot 1992; Schot, Rip 1997, Merkerk and Smits 2006). Der Kern eines CTA Verfahren besteht in der frühen Auseinandersetzung mit emergenten Technologien, um unter Einbeziehung einer breiten Basis gesellschaftlicher Akteure erstrebenswerte Entwicklungsrichtungen zu erarbeiten und zu bewerten. Im Gegensatz zur klassischen Technikfolgenabschätzung wird die Technologie dabei nicht als gegeben betrachtet sondern als gesellschaftlich zu gestaltendes Handlungsfeld verstanden.
In der Workshopreihe wurden im Rahmen eines Szenarioentwicklungsprozesses zunächst relevante Rahmenbedingungen für die globale Entwicklung der Brennstoffzellennutzung gesammelt und darauf aufbauend verschiedene Entwicklungspfade bezüglich der zukünftigen Anwendung der Brennstoffzellentechnologie diskutiert. Im zweiten Workshop stand die Bewertung verschiedener Einsatzbereiche der Brennstoffzellentechnologie auf kommunaler Ebene nach Nachhaltigkeitskriterien im Vordergrund. Im dritten und abschließenden Workshop wurden darauf aufbauend schließlich Anforderungen an kommunale Pilotprojekte im Bereich der Brennstoffzellentechnologie formuliert.
Die Fokussierung des CTA Verfahrens auf eine Technologie, die sich in einer frühen Entwicklungsphase befinden, birgt – das haben auch unsere Erfahrungen gezeigt – die Gefahr einer gewissen Asymmetrie in Bezug auf die beteiligten Akteursgruppen. Obwohl die Workshopserie durchaus einen konstruktiven Beitrag zum Austausch verschiedener Perspektiven leisten konnte, wären umfassendere Maßnahmen nötig, um eine langfristig wirksame, gemeinsame Strategieentwicklung von TechnologieentwicklerInnen und AnwenderInnen – in diesem Fall der Stadt Graz – zu erzielen. Das CTA Verfahren als zeitlich begrenztes Interventionsinstrument kann eine wichtige Grundlage für die gesellschaftliche Öffnung des technologischen Innovationsprozesses schaffen. Offen bleibt jedoch die Frage, wie die Entwicklung gesellschaftlicher Perspektiven und die Gestaltung sozialer Lernprozesse zu einem dauerhaften, integralen Bestandteil von Technologieentwicklung gemacht werden können.
Franz Josef RADERMACHER
Der Vortrag analysiert die Zukunftsperspektiven der Menschheit vor dem Hintergrund der Erfahrungen in den letzten Jahrhunderten. Im Besonderen die gigantischen Fortschritte in der Folge von Innovationen im Bereich der Technik sind die Ursache für Explosionen in der Entwicklung mit ihren Vor- und Nachteilen. Wirksam wird der sogenannte Bumerang-Effekt, der nach dem Motto „Die Geister, die ich rief, die werd´ ich nicht mehr los“ oder auch nach dem Motto „Wir siegen uns zu Tode“ die Menschheit über immer mehr Erfolge in immer schwierigere Situationen bringt.
Dies ist letztlich eine Folge fehlender Innovation in Governance, wobei Governance im Besonderen die Durchsetzung von Beschränkungen kollektiven Tuns betrifft, und zwar mit dem Ziel, nicht-ökonomische Anliegen, also insbesondere Anliegen sozialer, kultureller und ökologischer Natur gegen die Dynamik des Marktgeschehens zu behaupten. Eine vernünftige Zukunft ist insofern vor allem eine Frage einer vernünftigen Global Governance, die Grenzen setzt. Dies bedeutet insbesondere auch, der Dynamik der technischen Entwicklung da Grenzen zu setzen, wo nicht klar ist, ob Bumerang-Effekte auftreten oder nicht, ob Entwicklungen uns allen zum Vorteil gereichen oder nicht.
Manchmal ist es wichtig, eine Technik auf den Markt zu bringen, manchmal wäre es besser zu warten. Heute können wir häufig nicht warten, und zwar als Folge eines Konkurrenzsystems, das viel zu oft den belohnt, der vorprescht. Global Governance muss auch beinhalten, dass wir Moratorien weltweit durchsetzen können, um bei Bedarf Zeit zum Nachdenken zu behalten, um nicht über Marktdynamik gezwungen zu werden, auf Nachdenken zu verzichten. Technologiefolgenabschätzung kann in diesem Kontext eine große Rolle spielen. Sie ermöglicht im Rahmen einer besseren Governance vernünftigeres Entscheiden.
Ulrich RIEHM
Das vom Mitbegründer des Media Lab am MIT, Nicholas Negroponte, ins Leben gerufene Projekt „One Laptop Per Child“ (OLPC) ist ein globales, technologisches Großprojekt, dessen selbst gestecktes Ziel es ist, die Bildung von Kindern in Entwicklungsländern durch die breite Verteilung von Laptops und durch Konzepte des aktiv erkundenden Selbstlernens mit Computern entscheidend zu verbessern. OLPC hat einen Doppelcharakter: Es ist einerseits eine Technikinnovation mit dem Versuch, diese Innovation massiv zu verbreiten, andererseits ist es ein Entwicklungsprojekt mit einer äußerst anspruchsvollen Zielsetzung, nämlich die Armut in den sich entwickelnden Ländern über eine breite Bildungsoffensive zurückzudrängen. Seitdem 2005 das Projekt an die Öffentlichkeit gegangen ist, spielt es in den Diskussionen um den IKT-Einsatz für Entwicklungszwecke eine große Rolle.
Das Projekt und seine geplante Diffusions- und Implementationsstrategie werfen einige interessante Fragen zu seiner „Governance“ sowie zu einigen zentralen Aspekten der entwicklungspolitischen Diskussion auf.
Governancestruktur
Auf einer organisatorisch-institutionellen Ebene gibt es eine relativ kleine Gruppe von Entwicklern, Organisatoren und Öffentlichkeitsarbeitern mit dem öffentlichkeitswirksamen Promotor Nicholas Negroponte an der Spitze. Die „non-profit association One Laptop per Child“ ist eher eine NGO als ein IT-Unternehmen. Auch die Finanzierung folgt eher dem NGO-Modell über Spenden und Sponsoren. OLPC kooperiert mit einer Reihe großer und prominenter IT-Unternehmen für Entwicklungs-, Herstellungs- und Marketingzwecke. Für diese gehört das OLPC-Engagement eher zu einer Aktivität ihrer „Corporate Social Responsibility“ als zur normalen Geschäftstätigkeit.
Das ursprüngliche Vertriebs- oder Verbreitungsmodell des XO genannten Schüler-Laptops ist weitgehend außerhalb der ökonomischen Marktsphäre angesiedelt. Käufer sind wegen einer mangelnden kauffähigen Nachfrage nicht die Endkunden – die Schülerinnen und Schüler bzw. ihre Eltern –, sondern Regierungen der Länder des Südens. Regierungen sollten mindestens eine Million Geräte bestellen und abnehmen, um sowohl in der Produktion als auch im Vertrieb erhebliche Mengeneffekte zu erzielen. Die Einzelgeräte sollten dann von den Regierungsbehörden an die Kinder verteilt werden. Zwischenzeitlich wird dieses Vertriebsmodell nicht mehr in dieser Radikalität verfolgt.
Das Modell ähnelt in gewisser Weise dem Vertriebsmodell des französischen Minitels in den 1980er Jahren: kostenloses Verteilen von informationstechnischen Geräten durch die Regierung an die Bevölkerung. Frankreich war eines der wenigen Länder, in dem es in der Zeit vor einer massenhaften Verbreitung des Internets gelang, Onlinedienste in der Bevölkerung zu etablieren.
Unter den entwicklungspolitischen Fragestellungen, die OLPC aufwirft, sollen zwei aufgegriffen werden: die nach der angepassten Technik und die nach der Entwicklungsstrategie.
Angepasste Technik
Technologien der hochentwickelten Industrieländer taugen oft nicht für den Einsatz in Entwicklungsländern. Bekannt in der entwicklungspolitischen Debatte ist das Beispiel der Traktoren, die in den 1950er und 1960er Jahren für die „grüne Revolution“ nach Afrika geliefert wurden, und dort wegen einer fehlenden Versorgungsinfrastruktur auf den Feldern verrosteten. Auch die Einführung von IBM-Großrechnern ab 1965 in Tansania für den Einsatz in der Finanzverwaltung endete in einem politischen wie ökonomischen Fiasko und dem Beschluss, den Import von Computern zu verbieten.
Das OLPC-Projekt versucht die besonderen Einsatzbedingungen in den armen Ländern des Südens ernst zu nehmen. Die Laptops wurden speziell so konstruiert, dass sie weniger Energie verbrauchen als herkömmliche Laptops (z.B. keine Festplatte, besonders sparsame Displaytechnik) und ihre Batterien per Hand wieder aufgeladen werden können. Gegen die Einwirkung von Staub, Hitze, Feuchtigkeit und mechanische Beanspruchung sollen sie weitgehend resistent sein. Eine Vernetzung untereinander benötigt keine Kabelinfrastruktur und auch keine gesonderten Funkvermittlungsstellen, da deren Funktionen von den XO-Laptops selbst übernommen werden („Mesh-Netzwerke“). Und schließlich, was dem Projekt seinen in der Öffentlichkeit bekannten Namen gab („100-Dollar-Laptop“), sollten die Geräte so billig sein, dass die in den Entwicklungsländern vorhandenen beschränkten monetären Ressourcen nicht überfordert würden.
„Angepasste Technologien“ haben aber mit dem Problem zu kämpfen, es handle sich dabei um Technologien, die nicht den Standards der hochentwickelten, industrialisierten Länder entsprechen. Diese manchmal angemessene oft aber auch unangemessene Bewertung, kann zu erheblichen Akzeptanzproblemen führen. Der XO ist auf der einen Seite technologisch sicherlich äußerst avanciert, auf der anderen Seite aber in seinen Einsatzmöglichkeiten nicht mit herkömmlichen Computern nach dem Weltstandard zu vergleichen.
Kooperative Entwicklungsstrategie oder „Big Push“
Das OLPC-Projekt steht in der Tradition einer Entwicklungsstrategie, die dem Motto folgt, dass große globale Probleme entsprechend mächtige Programme benötigen, da nur so der notwendige „Impact“ zu erreichen sei. Diese Strategien werden in der Regel getragen von Akteuren der hochentwickelten Länder des Nordens. Oft spielen „philanthropische Entrepreneure“, wie man Negroponte auch charakterisieren könnte, eine bedeutende Rolle.
Das OLPC-Projekt reiht sich ein in zurückliegende große, globale Entwicklungsherausforderungen und Entwicklungspolitiken. Man denke an die „Grüne Revolution“ in der Landwirtschaft der 1960er und 1970er Jahre, die Privatisierungs- und Liberalisierungsreformen der 1980er und 1990er bis zu den UN-Millenniumszielen der Jahrtausendwende.
Dass diese vom Norden geprägten großen Programme nicht auf die Besonderheiten des jeweiligen Landes Rücksicht nahmen, ist eine der zentralen Kritiken. „Big-Push-Programme“ überfordern nicht selten schon die vor Ort gegebenen Möglichkeiten der sinnvollen Absorption von Geld, Nahrungshilfe, Technik oder den hier zu betrachtenden Fall Laptops. Schon allein das logistische Problem der Verteilung von einer Million Laptops an Kinder ist in einem Land südlich der Sahara nicht einfach zu lösen.
Der Paradigmenwechsel von der Entwicklungshilfe zur Entwicklungszusammenarbeit, der auch ein ganz neues Selbstbewusstsein der Länder des Südens reflektiert, implizierte, dass „Geber- und Empfängerländer“ in einem „Dialog auf Augenhöhe“ die entsprechenden Programme der Entwicklungszusammenarbeit im gegenseitigen Interesse aushandeln. Außerdem würden ohne Beteiligung der Menschen vor Ort, so die oft gehörte Botschaft in den Entwicklungsdiskursen, die auch noch so gut gemeinten Projekte der Entwicklungszusammenarbeit immer wieder scheitern.
Die stark hierarchisch ausgerichtete Governancestruktur wie auch einige entwicklungspolitische Einwände gegen das OLPC-Konzept lassen Zweifel an dessen Erfolg aufkommen. Dieser ist gegenwärtig noch völlig offen. Gleichwohl lassen sich heute bereits einige interessante und intendierte und nichtintendierte Folgen beobachten.
Das Thema des Einsatzes von Informations- und Kommunikationstechnologien in Entwicklungsländern, insbesondere im oft besonders defizitären Schulbereich, wurde auf der entwicklungspolitischen Agenda besser verankert.
Die großen IT-Konzerne fühlten sich durch OLPC herausgefordert und entwickelten eine Strategie der Umarmung sowie der Konkurrenz. So gibt es heute neben dem XO von unterschiedlichen Anbietern weitere günstige „Schulcomputer“ für den Einsatz in den wenig entwickelten, armen Ländern.
Die Regierungen dieser Länder selbst sehen sich durch die Diskussion um OLPC herausgefordert, sich mit ihren defizitären Bildungssystemen auseinanderzusetzen und Verbesserungen anzukündigen und anzustreben. Dass einige dieser Länder dabei den Weg einschlagen, das vorhandene Geld lieber in die Ausbildung von Lehrern und den Bau von Schulen zu stecken als in die Beschaffung von Schüler-Laptops muss dabei nicht der größte Schaden sein.
Janina SCHIRMER, Marc MÖLDERS
Der im Folgenden vorgeschlagene Vortrag bezieht sich auf eine der in der Ausschreibung entwickelten Fragestellungen:
Welche Rolle spielt TA bei der Beeinflussung des technologischen Wandels und wie ist die konkrete Rolle zu bewerten? Welchen Impact kann TA haben, mit welchen Mitteln kann ein solcher erreicht werden und welche Methoden zur Messung der Wirksamkeit von TA im politischen Prozess kommen zum Einsatz? Inwieweit lassen sich direkte und indi- rekte Steuerungswirkungen erfassen und verbessern?
Bereits der Titel deutet die im Vortrag zu entfaltende Antwort auf die Frage nach der mögli- chen Rolle der TA in der Gestaltung von technologischer Entwicklung an. Die Rolle von TA soll als die eines Irritators konzeptualisiert werden. Was aber kann das bedeuten? Und was kann dies zur Frage nach der möglichen Rolle von TA und vor allem den Steuerungsmöglich- keiten durch TA beitragen?
Der soziologischen Systemtheorie wird, und dies nicht zu unrecht, nachgesagt, sie sei radikal steuerungspessimistisch. Und doch möchten wir die These vertreten, dass gerade dieser Ansatz das begriffliche Potential birgt, um verstehen zu können, was TA zur Gestaltung von technologischem Wandel beitragen kann. Ein solches Verständnis, so behaupten wir, lässt sich durch eine theoretisch präzise und empirisch überprüfbare Unterscheidung von Lernen und Evolution gewinnen.
Das wesentliche Merkmal der systemtheoretischen Evolutionstheorie ist der Zufall. Zufällig abweichende Kommunikationen werden zum Strukturaufbau nutzbar. Ob diese neuen Struk- turen, also die selektierte Variation, sich restabilisieren werden, ist wiederum indeterminiert und zufällig. Planungsskepsis und Steuerungspessimismus auf die Spitze treibend formuliert Luhmann, dass Abweichungen sogar vorgeschlagen werden könnten, die Bestimmtheit der Variation aber nichts über deren Selektionschancen sage (Luhmann 1997: 463f.).
Für Lernen hat sich Luhmann nie sonderlich interessiert, roch ihm dieser Begriff doch zu sehr nach „alteuropäischer Rationalität“. Nichtsdestotrotz lässt sich ein Lernen sozialer Systeme mithilfe des systemtheoretischen Begriffsrepertoires sowohl beschreiben als auch von Evolu- tion unterscheiden. Der Lernprozess eines sozialen Systems beginnt, wenn eine Irritation dafür sorgt, dass Routinen nicht durchgeführt und daraufhin überprüft werden. Eine Irritation kann also dazu führen, dass Systeme auf Probleme bisheriger Lösungen aufmerksam ge- macht werden. Daraufhin kann ein System seine Problemlösungskapazitäten neu strukturie- ren, also der Irritation anpassen. Fortan wären Probleme dieser Art lösbar, i.e. ein System lernt.
Lernen und Evolution unterscheiden sich demzufolge also (u.a.) durch ihre Auslöser. Eine Lernen initiierende Irritation unterscheidet sich von den für Evolution konstitutiven Zufällen dadurch, dass sie als Störungen einer bestimmten Quelle lokalisierbar sind.
Was bedeutet diese Unterscheidung nun für die Rolle und Einflussmöglichkeit von TA im Pro- zess der Gestaltung technologischen Wandels? TA-Beratungsprozesse, aufgefasst als Irritationen, können den hier skizzierten Ausführungen zufolge nur dann zu Lernen führen, wenn man sie lokalisieren kann. TA muss gekoppelt sein an das zu beratende System. Ein besonders gutes Beispiel für die in dieser Rolle enthaltenen Spielräume und Beschränkungen ist der dänische Technologierat. Auf der einen Seite sind die von ihm produzierten Irritationen in Form von Berichten durch die enge institutionelle An- bindung an das Parlament von diesem nur schlecht ignorierbar. Dieser Gewinn an Einfluss wird jedoch auf der anderen Seite durch eingeschränkte Autonomie bezahlt.
Fasst man TA jedoch als Evolution, so lassen sich andere Einschränkungen, aber auch neue Möglichkeitshorizonte erschließen. Nicht nachgefragte Beratung - in unserer Terminologie eine „zufällige (Umwelt-)Störung - macht es dem zu Beratenden einfach, diese als zufälliges Rauschen zu behandeln und nicht zur Kenntnis zu nehmen. Die mangelnde Anbindung an die zu Beratenen erlaubt aber auch nahezu unbegrenzte Freiheit bei der Auswahl der Themen und fördert so die „Treffsicherheit“. Dies kann man z.B. an der massiven Reaktion in Wissen- schaft, Wirtschaft und Politik auf einen Bericht der ETC-Group über mögliche Gefahren der Nanotechnologie sehen. Dies sind nur zwei Beispiele, die illustrieren, welchen analytischen Gewinn eine so konzipierte Unterscheidung von Lernen und Evolution verspricht. Im Vortrag ist die Prüfung weiterer, in spezifischer Hinsicht abweichender Fälle anvisiert.
Bereits die hier nur skizzierte Unterscheidung von Lernen und Evolution macht schon mehre- res deutlich. Fasst man die Resultate einer TA als Variationen auf, die dann etwa der politi- schen Entscheidungsebene zur Selektion angeboten werden, lässt sich kaum noch halten, dass die Bestimmtheit dieser Variation nichts über ihre Selektionschancen aussage. Dies ist schon deshalb zu bezweifeln, weil es sich um eine fest eingerichtete Kopplung zwischen poli- tischer Entscheidungs- und TA-Beratungsebene handelt. Wo dies vorliegt, kann man nicht länger von einer rein zufällig prozessierenden Evolution ausgehen, sondern von Lernresulta- ten. Von Lernresultaten allerdings, deren Erfolg sich erst in der Durchsetzung in einer Umwelt zeigen muss, dann also Sache der soziokulturellen Evolution ist.
Dieses auf der Unterscheidung von Lernen und Evolution basierende Verständnis von TA als Irritator unterscheidet sich merklich vom üblichen systemtheoretischen Steuerungspessimis- mus, ohne dabei ihre Begrifflichkeit zu verbiegen. Wo TA ein Irritator ist, muss sie nicht darauf hoffen, dass sie zufällig gehört wird.
Aufbauend auf diesem neuen Verständnis von Steuerungsmöglichkeiten durch TA kann zu- mindest kursorisch diskutiert werden, ob und wie sich zukunftsfähigeres von weniger zu- kunftsfähigem Steuern und Beraten unterscheiden lässt. Unter Rekurs auf Bora/Huber (2008) verstehen wir unter Zukunftsfähigkeit „die Bedingungen der Möglichkeit evolutionär erfolgrei- chen Operierens sozialer Systeme in einer komplexen, durch diese Operationen selbst dauernd mit veränderten Umwelt“. Lassen sich etwa TA-Institutionen finden, die in dem sehr speziellen Sinne erfolgreich sind, dass sie erstens erfolgreicher irritieren als andere. Diese Institutionen müssten durch ihre Abschätzungsergebnisse die Adressaten regelmäßig dazu veranlassen, ihre bisherigen Lösungsansätze zu überprüfen (s.o.). Zweitens müsste sich die von diesen Institutionen angebotene Form von Beratung bewährt haben in dem Sinne, dass sie sich sowohl gegenwärtig als zukunftsfähig bezeichnen lässt als auch verspricht, sich in Zukunft unter komplexer werdenden Bedingungen zu bewähren.
Anna SCHLEISIEK, Klaus-Rainer BRÄUTIGAM, Torsten FLEISCHER, Peter HOCKE
Im Rahmen dieses Vortrags soll eine empirische Studie vorgestellt werden, die der Frage nachgeht, wie konkrete Akteure im Forschungsprozess mit institutionellen Rahmenbedingungen, politischen Vorgaben und Anforderungen ihrer industriellen Partner umgehen: Im Projekt InnoMat wird der Wissens- und Technologietransfer zwischen öffentlich finanzierten Forschungseinrichtungen und industriellen Anwendern in den Blick genommen. Neben der Vorstellung des Projekts und erster Ergebnisse sollen letztere insbesondere unter Governance-Gesichtspunkten diskutiert werden. Die Frage nach den Einflussmöglichkeiten von Akteuren auf den technischen Wandel soll hier in einem „bottom-up“ Ansatz beantwortet werden. Beginnend auf der Ebene der Akteure auf der Forschungsseite (den Materialforschern) hin zu den institutionellen Rahmenbedingungen oder politischen Vorgaben, die wiederum die Transferpraxis der Materialforscher beeinflussen.
Sowohl die Entwicklung von neuen Materialien als auch von Technologien für deren Produktion und Verarbeitung sind eine Basis für innovative technologische Entwicklungen. Ein erfolgreicher Technologietransfer in diesem Bereich ist so ein wichtiger Stimulus für innovationsorientierte Industrienationen. Der Transfer von Werkstoff-Innovationen aus öffentlich finanzierten Forschungseinrichtungen in die Wirtschaft und seine Konsequenzen für die Praxis der Materialforscher sind bisher wenig erforscht. Das Projekt InnoMat soll durch empirische Forschung zu einem besseren Verständnis solcher Transferprozesse beitragen. Ziel des aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft Deutscher Forschungszentren (HGF) finanzierten Projekts „InnoMat“ ist die Analyse der Funktionsweise von Wissens- und Technologietransfer aus dem Bereich der Materialforschung in öffentlich finanzierten Forschungseinrichtungen in die industrielle Anwendung. Ein Schwerpunkt dieser Arbeiten ist das Handeln von Materialforschern in neun ausgewählten Forschungsprojekten: Was tun sie, um den Transfer ihrer Entwicklung in die industrielle Anwendung zu gewährleisten? Wie schaffen es Materialforscher, dieser (hohen) Anforderung gerecht zu werden? Um diese Fragen zu beantworten, müssen auch die Rahmenbedingungen, die das auf den Transfer orientierte Handeln der Materialforscher beeinflussen, in den Blick genommen werden. Die Praxis der Materialforscher vollzieht sich in einem Spannungsfeld zwischen forschungspolitischen Anforderungen und Erwartungen der industriellen Partner auf der Anwenderseite. Regulierungen und Steuerungsbemühungen begegnen ihnen auf zahlreichen Ebenen: auf der Ebene ihrer institutionellen Einbindungen, ihrer scientific community und deren Anerkennungsstrukturen, durch staatliche Vorgaben und auch durch industrielle Kooperationspartner. In ihrer Praxis sind die Materialforscher von Steuerungsbemühungen verschiedener Ebenen betroffen. Diese unterschiedlichen Steuerungsvorgaben bilden Strukturen formeller und informeller Natur, in denen sich die Materialforscher bewegen.
Das Transferhandeln wird an neun konkreten Transferprojekten aus dem Bereich der Materialforschung empirisch untersucht. Diese Projekte sind in drei institutionelle Kontexte eingebunden: die Hermann-von-Helmholtz-Gemeinschaft Deutscher Forschungszentren, die Fraunhofer-Gesellschaft und Technische Universitäten. Darüber hinaus werden in einem dialogischen Forschungsprozess Fragestellungen der Technikfolgenabschätzung und Innovationsforschung mit etablierten sozialwissenschaftlichen Erhebungsmethoden kombiniert. Die Ausrichtung von InnoMat ist explorativ. Zum Einsatz kommen vor allem Leitfadeninterviews mit Materialforschern, diese werden in drei Wellen durchgeführt. So ist es möglich, das ausgewählte Projekt über einen längeren Zeitraum zu begleiten. Mit dem dialogischen Forschungsprozess soll ein Lern- und Reflektionsprozess der beteiligten Materialforscher stimuliert werden. Es werden Workshops mit Materialforschern als Dialogveranstaltungen durchgeführt, deren Ziel es ist, schon während des Forschungsprozesses empirische Ergebnisse gemeinsam mit den Materialforschern zu diskutieren und ihnen einen Raum zu bieten, in dem sie ihre Transferpraxis reflektieren können. Vorläufige empirische Ergebnisse des Projekts InnoMat zeigen auf der Mikroebene die Konsequenzen des Spannungsfelds zwischen staatlicher Steuerung einerseits und Interessen industrieller Kooperationspartner andererseits für die Praxis der Materialforscher: Die Forscher müssen in ihren Handlungen permanent auf verschiedenen Ebenen Entscheidungen treffen. Diese unterschiedlichen Anforderungen an ihre Praxis wirken dabei einerseits eingrenzend, andererseits aber auch ermöglichend.
Es ist zu erwarten, dass weitere Ergebnisse die bereits herausgearbeiteten Annahmen weiter bestätigen: Akteure der Forschungspraxis orientieren sich in spezifischer, heterogener Weise zwischen diesen verschiedenen Ebenen und bilden eigene Transferstrategien. Diese sind geprägt durch die Rahmenbedingungen ihrer Forschungsinstitution einerseits und die Bedingungen der Forschungsförderung auf der anderen Seite. So bevorzugen einige Akteure bestimmte Forschungsförderungseinrichtungen, mit denen sie wiederholt kooperieren. Auf der anderen Seite ist zu beobachten, dass sich Akteure in unterschiedlicher Weise gegenüber thematischen Forschungsförderungskonjunkturen verhalten: Einerseits wird existierende Forschung „neu etikettiert“, andererseits werden Forschungsaktivitäten aber auch auf neue Themen hin modifiziert. Es ist auch zu beobachten, dass Materialforscher strategisch mit diesen Steuerungsversuchen verschiedener Einrichtungen umgehen und einen je eigenen Weg wählen, sich diesen Vorgaben anzupassen und wiederum die Förderungsvorgaben für ihre Praxis zu interpretieren und in sie zu integrieren. Folgt aus diesen Beobachtungen, dass die Steuerungsbemühung des Staates auf der Mikro-Ebene nicht-intendierte Folgen nach sich zieht, die seiner Absicht entgegen laufen? Oder folgen die Materialforscher in ihrer Praxis (ob intendiert oder nicht) staatlichen Steuerungsbemühungen? Wie gehen Materialforscher mit dieser teils widersprüchlichen Steuerung verschiedener Ebenen um? Welche Handlungsoptionen eröffnen zum Beispiel ganz unterschiedliche Forschungsförderungsmöglichkeiten (die ja auch oft Programmen der Steuerung verschiedenster administrativer oder anderer Ebenen entstammen) für das „Überleben“ bestimmter Forschungsthemen an öffentlichen Forschungseinrichtungen? Welche Konsequenzen hat die Ausrichtung bestimmter Formen der Forschungsförderung für das „alltägliche Geschäft“ der Materialforscher? Wie wirkt sich also die „Governance“ im Bereich Forschungsförderung auf die Mikroebene aus?
Mit diesem Vortrag sollen die empirischen Befunde, die die Forschungsgruppe im Rahmen von InnoMat erarbeitet hat, vorgestellt werden. Durch die Ergebnisse im Projekt InnoMat soll ein (qualitativ) empirischer Beitrag für die Diskussion von Governance der Forschung als Komponente von technology Governance geleistet werden.
Yvonne SCHMIDT
Einleitung, Begriffsdefinition und Ausgangsposition
Das Konzept der Technology Governance beruht auf der Überlegung, dass bestimmte Perioden der ökonomischen Entwicklung von Gesellschaften durch eine Paradigmenführende Technik beherrscht werden, wobei Finanz- und Organisationsstrukturen, sowie größere Kreisläufe den ökonomischen und sozialen Bereich erheblich beeinflussen. Diese Paradigmenführende Technik ist neben der Informations- und Kommunikationstechnik (ICT) mit Sicherheit in zunehmendem Maße die Gentechnik, welche ein Teilgebiet der Biotechnologie ist und auf den Erkenntnissen von Molekularbiologie und Genetik aufbaut.
Moderne gentechnische Verfahren ermöglichen Eingriffe in das Erbmaterial (genetische Material) durch Isolierung von Genen und zur Herstellung neukombinierten Erbmaterials, vor allem zwischen nichtverwandten Arten – d.h. über die Art-Grenzen hinweg. Gentechnik ermöglicht es, dass bestimmte Eigenschaften hervorgerufen, verstärkt, vermindert oder ausgeschaltet werden. Es lassen sich grob drei Anwendungsgebiete der Gentechnik unterscheiden: „Die rote Gentechnik umfasst den medizinisch-pharmazeutischen Bereich (Entwicklung von diagnostischen und therapeutischen Verfahren und von Arzneimitteln). Die graue oder weiße Gentechnik umfasst den industriellen Bereich, die Mikrobiologie und die Umweltschutztechnik (Nutzung gentechnisch veränderter Mikroorganismen zur Herstellung von Enzymen oder Feinchemikalien). Die „Grüne“ Gentechnik umfasst den Landwirtschaftsbereich und den Lebensmittelsektor (Anwendung transgener Verfahren mit oder ohne Verletzung der Artenschranke in der Pflanzenzüchtung, und die Nutzung gentechnisch veränderter Pflanzen).
In der folgenden Darstellung wird nur der letztgenannte Bereich der „grünen“ Gentechnik behandelt, wobei mehrere aktuelle rechtlich relevante Ereignisse die Ausgangsposition bilden:
Erstens: Am 25. Jänner 2008 wurde vom deutschen Bundestag mit Stimmenmehrheit die 4. Novelle zum Gentechnikgesetz angenommen. Mitte Februar soll der Bundesrat der Novelle noch zustimmen. Die wesentlichsten rechtlichen Änderungen betreffen 1. die Koexistenz, d.h. den Mindestabstand, der zwischen konventionellen/ökologischen Maiskulturen und GV-Mais einzuhalten ist; 2. die Kennzeichnung "Ohne Gentechnik"; 3. das öffentliche Standortregister, das beibehalten und weiterentwickelt wird; und 4. die durch Verfahrenserleichterungen geänderten Forschungsbedingungen. Kritiker argumentieren einerseits, dass mit dem Gesetzesentwurf gentechnikfreie Landwirtschaft bedroht werde, weil im Wege „privater Absprachen“ Sicherheitsmaßnahmen ausgehebelt und Gentechnik-Pflanzen zu Forschungszwecken von Schutzvorschrift ausgenommen werden können. Die Biotech-Branche kritisiert die geplante Gesetzesnovelle ebenfalls, allerdings aus einem ganz anderen Grund, nämlich dass die Novelle „über die schon geltenden restriktiven Regelungen hinaus noch mehr Einschränkungen bringe und sich durch geplante steuerliche Änderungen ab 2008 die Renditen von Biotech-Firmen deutlich verschlechtern würden.“
Zweites Ereignis ist die am 19. Jänner 2008 kundgemachte und von der Europäischen Kommission gefällte Entscheidung, dass Polen den Anbau der in der EU genehmigten GMOs erlauben muss. Die Europäische Kommission hat ein Entwurfsgesetz zu GMOs, welches Anpflanzungen auf gekennzeichnete Zonen eingeschränkt und zusätzliche Anforderungen an den Gebrauch der GMO-Samen gestellt hätte, zurückgewiesen. Nach Ansicht der Kommission lieferte Polen keinen neuen wissenschaftlichen Beweis, um eine nationale Maßnahme mit Hinweis auf den Schutz des Klimas oder des Arbeitsbereichs zu rechtfertigen. Infolgedessen kann das Verbot nicht auf der "Schutzklausel" basieren, die im Art. 23 der EU-Freisetzungsrichtlinie (2001/18/EG) vorgesehen wird. Berichte polnischer Medien zeigten zuletzt die Bereitwilligkeit der Regierung, die Position hinsichtlich Biotechnologie zu erleichtern.
Drittes Ereignis ist das am 12. Jänner 2008 von der französischen Regierung unter Anwendung der vorhin genannten Schutzklausel (Art. 23 der EU-Freisetzungsrichtlinie) verhängte Anbauverbot für den gentechnisch veränderten Mais MON 810, nachdem Wissenschaftler ernste Zweifel hinsichtlich Ungefährlichkeit für die Umwelt durch den Anbau geäußert hatten.
Viertes rechtlich relevantes Ereignis ist das am 13. September 2007 vom Gerichtshof der Europäischen Gemeinschaften verkündete Urteil zum oberösterreichischen Landesgesetz über Regelungen und Maßnahmen zur Gentechnikvorsorge (Gentechnik-Verbotsgesetz). Mit dem Urteil wurde das generelle Verbot des Einsatzes von GVOs für den Agrarsektor im Land Oberösterreich aufgehoben, aber auch anerkannt, dass das Gentechnik-Verbotsgesetz dem Schutz der Umwelt dient und nur der Nachweis „neuer wissenschaftlicher Erkenntnisse“, die das Schutzbedürfnis belegen, nicht ausreichend seien.
Gegenstand, Fragestellungen und Zielsetzungen der Untersuchung
Gemäß der vom Ökonomen Johann Schumpeter entwickelten Innovationstheorie fördern Staaten nicht automatisch Schlüsseltechniken (dazu zählt die Gentechnik); vielmehr ist es notwendig, dass gewisse Akteure durch aktive Intervention die Einführung solcher Techniken steuern.
Gegenstand der folgenden Darstellung ist die Erläuterung der völkerrechtlichen, europarechtlichen und staatsrechtlichen Rahmenbedingungen der „grünen“ Gentechnik, wobei auf jüngste rechtliche Entwicklungen und Entscheidungen in verschiedenen europäischen und außereuropäischen Ländern Bezug genommen wird. Zu ergründen ist, welchen Einfluss rechtliche Rahmenbedingungen im Hinblick auf Technology Governance – verstanden als Steuerung zwischen den zentralen Akteuren Staat, Unternehmen, Wissenschaft und Zivilgesellschaft/NGOs im Bereich der Entwicklung der Gentechnik – haben. Dabei sollen die Interventionen, das Zusammenspiel und die Koordination der Akteure, die institutionellen Rahmenbedingungen und die Gestaltungsstrategien und -ziele im Hinblick auf „grüne“ Gentechnik untersucht und definiert werden. Ermittelt werden soll weiter, welche Rolle und welchen Impact die Technikfolgenabschätzung (Technology Assessment - TA), die sich mit den Folgen menschlichen Handelns hinsichtlich Entwicklung und Einsatzes neuer Technologien beschäftigt, im Gesamtprozess des technologischen Wandels hat. Dabei sollen Methoden zur Messung der Wirksamkeit von TA im politischen Prozess, sowie direkte und indirekte Steuerungswirkungen eruiert werden. Konkret geht es um die Erkundung, Beschreibung und Bewertung von Folgen der „grünen“ Gentechnik (Allergien; Krankheiten; „unacceptable threats to farmers, biodiversity and food sovereignty by "suicide seeds" and other genetically modified (GM) seed technologies“.), um Haftung, Patentrechte, Normenkonflikte und Normenwidersprüche in Mehrebenen-Systemen (UVR – WTO – IPR).
Methoden
Verwendet werden soll eine Vielfalt unterschiedlicher Methoden, nämlich: Literaturrecherche, Dokumentenanalysen, Expertenbefragung, theoretische und empirische Methodenansätze, sowie die rechtsvergleichende und historische Methode.
Rechtsgrundlagen
Den Bezugsrahmen für das Umweltvölkerrecht bilden die Konvention zur Biologischen Vielfalt (1992) und das Cartagena-Protokoll über Biologische Sicherheit (2000) das den grenzüberschreitenden Transfer von GVOs regelt, ein Kennzeichnungs- und Vorsorgeprinzip festlegt und mit dem Biosafety Clearing House ein Instrument etabliert hat, besonders sensible Ökosysteme zu berücksichtigen und bessere Regelungen zur sicheren Handhabung von GVOs zu ermöglichen. Das Cartagena-Protokoll gilt als Durchbruch gegenüber dem WTO-Liberalisierungsmodell. Das Vorsorgeprinzip ist in der Rio-Deklaration von 1992 (Prinzip 15) und in der Agenda 21 von 1992 (Kapitel 35 Absatz 3) festgelegt und findet auch in der EU-Gesetzgebung Beachtung. In der Konvention zur Biologischen Vielfalt wurde es erstmals in einem völkerrechtlich verbindlichen Vertrag verankert und im Cartagena Protokoll speziell für GVOs weiterentwickelt. Kritiker meinen, das Vorsorgeprinzip sei nicht anwendbar, da jede neue Technologie Risiken und negative Folgen mit sich bringe. Befürworter entgegnen, das Vorsorgeprinzip habe keine Allgemeingültigkeit und sei ohnedies nur Instrument zur Klärung von Auseinandersetzungen (z.B. Beweislast-Frage).
WTO-Vorschriften setzen den nationalen Regelungs- und Schutzinteressen bei GVOs zugunsten des internationalen Handels Grenzen. So wird das Vorsorgeprinzip durch das Prinzip der „wissenschaftlichen Nachweisbarkeit“ ersetzt. Weiter muss sich jede Maßnahme in Bezug auf ihre Handelsauswirkungen durch die Prinzipien der Nichtdiskriminierung und der „am wenigsten handelsrestriktiven Maßnahme“ rechtfertigen lassen. Diese Prinzipien werden am Beispiel des WTO-Handelskonflikts zwischen USA/Kanada/Argentinien und EU betreffend GVOs gezeigt.
Wichtige Rechtsgrundlagen auf europäischer Ebene sind folgende Verordnungen (VO) und Richtlinien (RL) betreffend Gentechnik: RL 90/219 betr. Anwendung gentechnisch veränderten Mikroorganismen in geschlossenen Systemen, RL 2001/18 betr. absichtliche Freisetzung GVOs in die Umwelt. Lebens- und Futtermittel-VO (EG) Nr. 1829/2003, Rückverfolgbarkeits- und Kennzeichnungs-VO (EG) Nr. 1830/2003; Verbringungs-VO (EG) Nr. 1946/2003; Erkennungsmarker-VO (EG) Nr. 65/2004; Lebens- und Futtermittel-Durchführungs-VO (EG) Nr. 641/2004.
Lösungsvorschläge
Strategien/Maßnahmen erstrecken sich auf die Analyse politischer und rechtlicher Handlungsoptionen auf internationaler, europäischer und nationaler Ebene, auf Risikominimierung, Risikobeherrschung und Risikovermeidung, sowie auf den Vorschlag der Etablierung des Verbraucherschutzes als Bürgerrecht.
Barbara SUTTER
Mit der Fokussierung sozialer Prozesse, die sich am Modell von Governance orientieren, rückt neben der Kreation von Handlungskontexten eine Funktion in den Vordergrund, die man als die Konstitution von Handlungssubjekten beschreiben kann. So wie Governance-Modelle Grundüberzeugungen über die adäquate Gestaltung gesellschaftlichen Wandels involvieren, liefern sie auch Entwürfe über die angemessene Rolle von Individuen in entsprechenden Prozessen. Die Interaktionsräume, die durch Adaption und Implementierung von Governance-Modellen geschaffen werden, bilden so auch ‚Subjektivierungsräume’. Die Gestaltung technologischen Wandels durch Governance-Prozesse erweist sich dabei selbst als eine Technologie - also als „Verfahren, die erfunden und verbessert und ständig weiterentwickelt werden“ (Foucault). Sie zielt zum einen auf die Ermöglichung von Entscheidungsfindungen, zum anderen auf die Responsibilisierung der beteiligten Akteure entlang eines bestimmten Steuerungsmodells.
Zum einen sind Governance-Prozesse darauf angewiesen, dass die Beteiligten über die Bereitschaft und Fähigkeit zur Teilnahme verfügen; zum anderen sind sie darauf ausgerichtet, diese herzustellen. Was in einem Fall zu einem Demokratie-Problem führen mag, nimmt im anderen Fall die Gestalt eines Lernproblems an. Nutzt man die Analyse von Mikrostrukturen, lassen sich Interaktionen zwischen diesen beiden Seiten untersuchen: Die Strukturierung von Governance-Prozessen und die Subjektivierung der beteiligten Individuen sind, so die These des Beitrags, ko-konstitutiv füreinander. Auf der Grundlage einer diskursanalytischen Untersuchung von Praxisleitfäden und methodischen Texten zu Technology-Governance-Prozessen (z.B. Foresight der EU) wird der Beitrag die Frage nach den subjektivierenden Effekten von Mikrostrukturen der Innovationsgestaltung in den Kontext einer solchen Ko-Konstitution stellen.
Helge TORGERSEN
TA war seit jeher geprägt vom „Collingridge-Dilemma“ – je reifer eine Technologie, desto größer die Möglichkeiten der Beurteilung, desto geringer aber die der Einflussnahme und umgekehrt. In jüngster Zeit beschäftigt sich TA zunehmend mit emerging technologies, d.h. derart neuen Technologien, dass deren Gegenstands- und Anwendungsbereich umstritten ist und sie eigentlich nur als Schlagworte existieren, dabei aber als besonders zukunftsträchtig gelten. Ein bekanntes Beispiel ist die Nanotechnologie, noch neuer die synthetische Biologie, die es erst in Ansätzen bzw. als Absichtserklärung gibt, die aber bereits mediale Resonanz findet. Es fragt sich, ob und wie eine TA derart wenig konkreter Technologien, so überhaupt möglich, tatsächlich Einfluss auf deren Gestaltung nehmen kann oder warum sonst die Beschäftigung der TA damit als wünschenswert angesehen wird.
Nanotechnologie ist derzeit ein beliebtes Thema der TA – zahlreiche Projekte der vergangenen Jahre von TA- und einschlägigen anderen Institutionen führten „Nano“ im Titel. Man beschäftigte sich intensiv mit Chancen und Risiken von nanotechnologischen Anwendungen und möglichen Governance-Konzepten in diesem Bereich. In einer Studie verglich das ITA im Jahr 2006 diesbezügliche Ansätze in verschiedenen Ländern (ITA 2006). Dabei ergaben sich verschiedene Motivationen, warum eine Beschäftigung von TA-Institutionen oder vergleichbaren Einrichtungen mit dem Thema als wünschenswert angesehen wird. In vielen Fällen wurden Parallelen zur Debatte um die Grüne Gentechnik gezogen, ohne dass beide Technologien inhaltlich etwas miteinander zu tun hätten. Die Gemeinsamkeit besteht lediglich in ihrer Kontroversialität – im einen Fall offensichtlich, im anderen befürchtet (Torgersen 2007). Man wollte aus den Erfahrungen lernen, indem eine drohende gesellschaftliche Debatte mithilfe von TA unter kontrollierten Bedingungen „gezündet“ und möglichst unschädlich abgeleitet werden sollte.
Ein ähnliches Bild ergibt die Beschäftigung mit den Motiven, warum TA sich um das Thema synthetische Biologie annehmen soll. Dabei ist dieser Wissenschafts- bzw. Technologiebereich sehr neu, insbesondere in Österreich. So konnten im Herbst 2006 lediglich etwa 10% der befragten österreichischen MolekularbiologInnen etwas mit dem Begriff „synthetische Biologie“ assoziieren – inzwischen werden auch hierzulande Kongresse darüber abgehalten. Zwar ist nicht einmal ansatzweise klar, welche Anwendungen oder Auswirkungen realistischerweise zu erwarten sind, dennoch gibt es bereits seit Anfang 2007 ein von der EU-Kommission gefördertes Projekt unter österreichischer Leitung mit dem Ziel, gesellschaftsrelevante Aspekte der synthetischen Biologie zu identifizieren und einen Dialog zu initiieren. Auch hier werden Analogieschlüsse gezogen: „Past experiences, especially in the field of GM-crops, have shown the importance of an early bio-safety and ethics debate. The community recognized this need ... Our project aims to stimulate a European debate in a proactive way.“
Diese und andere Beispiele etwa zum Thema Converging Technologies zeigen, dass antizipierte Konflikte offenbar ein starkes Motiv für „proaktive“ TA-Aktivitäten sind. Auch liegt der Schluss nahe, dass die von außen intendierte Aufgabenstellung für TA in erster Linie in der kontrollierten Vorwegnahme – und damit der Auslagerung – gesellschaftlicher Konflikte um derartige Technologien liegt (Torgersen submitted). Man könnte auch sagen, dass sich der TA angesichts schrumpfender Bedeutung als Beratungsinstrument für konkrete technologiepolitische Entscheidungen ein breiteres Geschäftsfeld eröffnet, nämlich die Unterstützung der gesellschaftlichen Absicherung von im Entstehen begriffenen Technologien durch proaktive Governance-Maßnahmen. Diese Absicherung soll, so die Intention der Auftraggeber, unter den Prämissen der Technologieorientierung einer (zumindest angestrebten) Wissensgesellschaft stehen und Hand in Hand mit entsprechenden Maßnahmen zu Public Relation und Wissensvermittlung gehen (die allerdings nicht mehr in den Arbeitsbereich der TA fallen).
Kritiker setzen eine solche Funktion dem Generalverdacht der (zu Recht verpönten) bloßen Akzeptanzbeschaffung aus. Es ist aber fraglich, ob eine solche überhaupt möglich ist angesichts der Art und Weise, wie mediale Kommunikation und öffentliche Meinungsbildung funktionieren. Diese zu untersuchen wird daher auch für eine der Sachebene verpflichteten TA zur Aufgabe, allerdings nicht um im Sinne eines besseren Public Understanding of Science aktiv einzugreifen, sondern um die Prozesse zu verstehen, die auf die Konditionen für Governance einen nicht unerheblichen Einfluss haben. Umgekehrt kann TA unter Bedingungen medialer Kommunikation als Katalysator für die Wahrnehmung von technologieinduzierten Problemen fungieren, die ansonsten im Medienhype unterzugehen drohen.
Auch wenn es (noch) keine gesellschaftliche Debatte um die jeweilige Technologie gibt, lassen sich damit die Eckpunkte für einschlägige Institutionen zur Bearbeitung solcher Probleme wie auch für die Erhöhung der Reflexivität einer Debatte bestimmen, sollte sie sich ergeben. Allerdings verändert sich die Aufgabenstellung für die TA: nicht mehr nur die Kompilation und Sichtung des Wissensbestandes mittels Sachstandsanalysen und das Sichtbar- und Wirkmächtig-Machen von Präferenzen mittels Partizipation stehen auf der Agenda, sondern vor allem die Ana- und Katalyse von Kommunikationsvorgängen. Obwohl diese Rolle so neu nicht ist, können sich doch Probleme für das Selbstverständnis von TA und deren Funktion in der Politikberatung ergeben.
Der Beitrag untersucht aus einer Innensicht, welche Rolle der TA in der Bearbeitung von emerging technologies heute zugewiesen wird, in welcher Form TA-ForscherInnen selber Teil des (übernächsten) Technologie-Spiels werden, warum diesem Spiel überhaupt so große Bedeutung beigemessen wird und warum die TA die zugedachte Rolle einerseits zum Teil erfüllen könnte, es aber unter den zuweilen intendierten Prämissen nicht sollte und andererseits wahrscheinlich scheitern muss, es aber trotzdem versucht. Trotzdem wird sie ihren grundlegenden Zielen der Gemeinwohlorientierung jenseits bloßer Standortfaktoren gerecht, wenn auch auf zuweilen paradoxe Weise.
Peter WEHLING
Die gesellschaftliche Gestaltung der Entwicklung und Nutzung von Technik (Technology Governance) stößt bei neuen, emergenten Technologien auf besondere Schwierigkeiten. Einer der wesentlichen Gründe hierfür ist darin zu sehen, dass am Beginn von Technikentwicklung häufig nicht ein – wie auch immer vorläufiges und noch unausgereiftes – technisches Artefakt steht, sondern soziale Technisierungsprojekte und -prozesse (vgl. Rammert 2007, S. 28). Im Hinblick auf Gestaltungsbemühungen ist hieran nicht nur problematisch, dass dabei Erwartungen an neue (Sach-)Techniken erzeugt werden, deren faktische Verwirklichungschancen und deren mögliche Risiken kaum seriös abgeschätzt werden können. In Rechnung zu stellen ist darüber hinaus, dass Technisierungsprojekte grundsätzlich nicht nur eine materiale Dimension (Entwurf und Stabilisierung von Artefakten), sondern zumeist auch – und nicht selten zeitlich vorgelagert – eine diskursive Dimension beinhalten. In letzterer findet häufig, sei es explizit oder implizit, eine gesellschaftliche Auseinandersetzung darüber statt, ob bestimmte soziale oder naturale Zusammenhänge überhaupt technisierbar sind und ob ihre Technisierung (d.h. die künstliche Fixierung von spezifischen Wirkungszusammenhängen) wünschenswert und vertretbar ist. Der Stellenwert solcher Technisierungs- und Technisierbarkeitsdiskurse kann kaum überschätzt werden, wenn man Technikentwicklung nicht als ein eigenlogisches Geschehen, sondern als einen kontingenten sozialen und kulturellen Prozess begreift, worüber in der sozialwissenschaftlichen Technikforschung inzwischen wohl ein weitreichender Konsens besteht. Gleichwohl hat die Technikforschung diese diskursiv-symbolische Dimension von Technisierungsprojekten bislang eher vernachlässigt und sich primär auf deren materiale Seite konzentriert, auf die soziale Prägung und Beeinflussung der konkreten Gestalt von Artefakten. Gerade im Hinblick auf aktuelle Technikvisionen und Technisierungsprojekte, die auf die Optimierung des menschlichen Körpers und seiner Funktionen über biologische Grenzen hinaus zielen (so genannte „Enhancement-Technologien“), stellt sich jedoch die Frage, ob Technikfolgenabschätzung und Technology Governance sich nicht auch mit den entsprechenden Diskursen und Debatten um die Technisierbarkeit und Technisierungsbedürftigkeit der „menschlichen Natur“ befassen müssen.
Es spricht vieles für die Annahme, dass Technisierungsdiskurse dort von besonderer Relevanz sind, wo zwei Bedingungen erfüllt sind: wo erstens neue technische Wirkungsmechanismen in Bereiche eingeführt werden, die bis dahin noch nicht technisiert waren, und wo zweitens unter politischen, kulturellen oder ethischen Perspektiven stark umstritten ist, ob diese Bereiche überhaupt technisierungsbedürftig sind und wo mögliche Grenzen ihrer Technisierung liegen oder liegen sollen. Beide Bedingungen sind bei den seit einiger Zeit projektierten Enhancement-Technologien (bspw. in Bereichen wie Psychopharmakologie, Neuroprothetik, Hirnforschung, Gentechnik, Reproduktionsmedizin u.ä.) offensichtlich in hohem Maße gegeben (vgl. hierzu u.a. Parens 1998, Council of Bioethics 2003, Ach/Pollmann 2006, Wehling et al. 2007). Von großer (technologie-)politischer Bedeutung wie von sozialwissenschaftlichem Interesse sind solche Technisierungsdiskurse darüber hinaus auch deshalb, weil sich darin Phasen der Technikgenese miteinander zu verschränken scheinen, die in der Technikforschung üblicherweise analytisch getrennt werden. Legt man etwa das von Weyer et al. (1997) entwickelte Drei-Phasen-Schema zugrunde, so zeigt sich, dass in Technisierungsdiskursen, beispielsweise in Forderungen nach der biotechnischen „Perfektionierung des Menschen“ (Gesang 2007), die „Entstehungsphase“ (Herausbildung eines sozio-technischen Kerns) und die „Durchsetzungsphase“ (Konstruktion des Bedarfs und Erzeugung gesellschaftlicher Akzeptanz) einander mehr und mehr überlagern und durchdringen.
Wie können TA und Ansätze der Technology Governance auf solche Konstellationen reagieren? Lassen sich Technisierungsdiskurse, die der Entwicklung von materialen Artefakten weit vorauseilen und zudem sozial sehr verstreut sind, gesellschaftlich gestalten und steuern sowie in produktive institutionelle Formen bringen? Die Schwierigkeiten, die jeglicher Versuch der Eingreifens in derart frühe Phasen von Technisierungsprojekten und -prozessen mit sich bringen muss, sind kaum zu übersehen. Andererseits könnte der Verzicht auf solche Interventionsbemühungen jedoch zur Folge haben, dass politisch, kulturell und normativ zentrale Fragen (z.B. nach den Grenzen einer „transhumanistischen“ Perfektionierung des Menschen) womöglich in intransparenter Weise und unter dem Einfluss von Akteursgruppen mit partikularen Interessen und selektiven Sichtweisen bereits vorentschieden worden sind, wenn technische Lösungen und Artefakte realisierbar und verfügbar sind.
Der vorgeschlagene Beitrag geht von der Vermutung aus, dass innerhalb der neueren TA-Debatte vor allem das in den USA mit Blick auf eine weitere emergente Technologie, nämlich die Nanotechnologie, formulierte Konzept des „real-time technology assessment“ (Guston/Sarewitz 2002) und der „anticipatory governance“ (Barben et al. 2008) aussichtsreiche Anknüpfungspunkte bieten, um die skizzierten Problemstellungen produktiv zu bearbeiten. Denn „(a)nticipatory governance comprises the ability of a variety of lay and expert stakeholders, both individually and through an array of feedback mechanisms, to collectively imagine, critique, and thereby shape the issues presented by emerging technologies before they become reified in particular ways.“ (Barben et al. 2008: 992f. – Herv. hinzugefügt) „Antizipierende Governance“ von Enhancement-Technologien würde demnach beispielsweise darauf zielen, gesellschaftliche Diskurse wie auch die dahinter liegenden Interessen und häufig implizit bleibenden Problemwahrnehmungen frühzeitig transparent zu machen, gesellschaftliche Debatten über die Wünschbarkeit und möglichen Folgen bestimmter technologischer Optionen zu initiieren und institutionell zu gestalten sowie ihre soziale, kognitive und normative Basis (im Sinne eines „capacity-building“) zu verbreitern. Dabei ist es wichtig zu verdeutlichen, dass anticipatory governance von biomedizinischen Technologien nicht identisch ist mit bioethischen Bewertungen und Auseinandersetzungen. Vielmehr wird ein sozialwissenschaftlich-analytischer Blick auch auf die Bioethik geworfen, der diese weniger als neutrale, übergeordnete Schiedsinstanz denn als „Teilnehmerin“ an Technisierungsdiskursen und -projekten erscheinen lässt.
Zusammengefasst liegt das Ziel des Beitrags darin, am Beispiel ausgewählter Enhancement-Technologien (z.B. „Neuro-Enhancement“ oder Ansätze zur drastischen Verlängerung der menschlichen Lebensspanne) erstens die besondere Bedeutung von Technisierungsdiskursen als eines integralen, jedoch häufig unterschätzten Bestandteils von Technikentwicklung zu verdeutlichen. Zweitens werden, ausgehend von den Konzepten des real-time technology assessment und der anticipatory governance, Möglichkeiten und Grenzen des Versuchs diskutiert, schon in einem frühen, noch weitgehend diskursiven Stadium gestaltend und regulierend Einfluss auf den Verlauf und die Durchsetzung eines gesellschaftlich umstrittenen und in seinen möglichen Folgen und Risiken bisher unabsehbaren Technisierungsprojekts zu nehmen. Drittens schließlich wird auch danach gefragt, inwieweit die beiden genannten, im Blick auf Nanotechnologie formulierten Konzepte möglicherweise für die Anwendung auf den Bereich der Humantechnologien modifiziert werden müssen.