Home

Gestern ist in der „Welt“ ein Artikel über Wissenschaftlerinnen und Wissenschaftler erschienen, die auf social media aktiv sind – da ist von „weißhaarige Männern mit Brille, Bart und einem älteren Handy“ einerseits, und von 27jährigen Biologinnen mit buntem Kleid andererseits die Rede. Letztere, zack, versehen Doktorandinnen und Doktoranden mit Twitter-Accounts, erstere grummeln in der letzten Reihe vor sich hin. Schon in den ersten Zeilen also alle Klischees auf den Tisch gelegt – weiter geht es dann mit dem Nutzen von social-media-Kenntnissen für die wissenschaftliche Karriere, von allerlei Blogs, lustigen Hashtags, und wie Twitter-Diskussionen über Bakterien zu gemeinsamen Studien führen. Hervorragend, da kann ich mich als Wissenschaftler mit Twitter-Account und einiges an social-media-Erfahrung ja geschmeichelt fühlen und in eine wonnige Zukunft blicken.

So ist es natürlich nicht – im Gegenteil, die zunehmende Anzahl Artikel zu Forschung&social media ist für mich vor allem ein unkritischer Hype. Erstens, effiziente Wissenschaftskommunikation, die viele Menschen auf sinnvolle Art und Weise erreicht, findet nach wie vor im realen Leben statt (und Kontakte mit anderen ForscherInnen in Seminaren und auf Konferenzen). Die Lange Nacht der Wissenschaft in Berlin hat beispielsweise mehrere zehntausend Menschen angezogen. Auch wenn beispielsweise auf Twitter unter #LNDW einiges los war, mehr als einige Dutzend Menschen haben das wohl nicht gemerkt. Auf dem Campus Buch (wo „mein“ MDC steht) waren einige Tausend Menschen, und nur eine gute Handvoll davon auch auf Twitter. Dass Twitter eine schöne Filterblase ist, in der sich wunderbar mit seinesgleichen und JournalistInnen diskutieren lässt, ist ja nichts neues. Und so zu tun als ob Twitter oder andere, auch wissenschaftsspezifische soziale Netzwerke, ein großer Schritt für die Vernetzung der Forschung seien, ist jenseits von gut und böse. E-Mail ist seit den frühen 1980ern Standardkommunikationsmittel für WissenschaftlerInnen aus aller Welt. Und, obwohl ich auch auf Twitter schon Bioinformatik-Hilfe erhalten habe und auch auf ResearchGate Fragen beantwortet werden, wichtigste Ressource sind immer noch bspw. old style 90er-Jahre-Foren wie seqanswers.com

Zweitens haben wissenschaftliche Blogs und online-Aktivitäten meines Erachtens manchmal etwas viel PR-Charakter. Das ist auch nicht verwunderlich – die eigene Internetpräsenz als Eigenwerbung für die Karriere, der Druck gut zu publizieren und Grants einzuwerben; große Wissenschaftsorganisationen und Institute die unter permanentem Zwang stehen, öffentliche und private Gelder einzuwerben und dafür „gute PR“ und ein günstiges Bild in der Öffentlichkeit brauchen: In einem solchen Umfeld hat die für gute Wissenschaft essentielle Selbstkritik und Reflexion wenig Platz.

Damit man mich nicht missversteht: Wissenschaft muss den Menschen besser nahebringen, was sie den ganzen Tag so tut. Es ist daher völlig richtig, dass beispielsweise in EU-Grants mehr „outreach“-Aktivitäten gefordert werden. Auch Grundlagenforschung hat großen Einfluss auf die Gesellschaft, und kostet nicht zuletzt eine Menge (öffentliches) Geld, das man auch anderswo verwenden könnte. Gerade deswegen muss Wissenschaftskommunikation aber immer  wissenschaftlichen Grundsätzen treu bleiben: Kritisch hinterfragen, ob die eigene Forschung in die Richtung geht. Hohe Standards, wie ein Experiment durchgeführt und wie darüber berichtet wird. Diskussionen und Widerspruch nicht aus dem Weg gehen, sondern im Gegenteil zum Bestandteil der eigenen Publikationstätigkeit machen. Ein gutes Beispiel übrigens ist für mich die lebhaft und kontrovers geführte Debatte über open access (siehe z.B. der Beitrag von Erin McKiernan).

Und vor allem: Wenn man mit den Menschen über Wissenschaft sprechen will, muss man dahin gehen wo Menschen sind. Online ist einzig Facebook sinnvoll, weil es mit Abstand das bestgenutzte soziale Netzwerk ist (auch wenn die meisten Facebook-Seiten von Forschungsinstitutionen kaum Publikum anziehen). Und sonst muss der Fokus auf vielleicht nicht so hippe, aber dafür umso effizientere Vor-Ort-Aktivitäten wie eben lange Nächte der Wissenschaft oder traditionelle Medienarbeit liegen. Denn nur so kann man einem wirklich maßgebenden Teil der Bevölkerung Wissenschaft näher bringen, statt einen neuen Elfenbeinturm zu eröffnen.

Advertisements

Kürzlich erschien in der englische Zeitung „The Guardian“ ein Bericht einer Journalistin, die ihr gesamtes Genom sequenzieren ließ (die deutsche Übersetzung war letzte Woche im „Freitag“ zu lesen und wird wohl bald auf freitag.de erscheinen ist auf freitag.de zu finden). Kurz zusammengefasst: Mit dem Abgleich von Veränderungen im Genom mit bekannten wissenschaftlichen Daten lassen sich gewisse Vorhersagen treffen wie anfällig jemand beispielsweise auf bestimmte Krankheiten ist. Berühmt geworden ist das Beispiel von Angelina Jolie, die sich ihre Brüste abnehmen ließ, nachdem ein Gentest gezeigt hat, dass sie eine höhere Wahrscheinlichkeit hat an Brustkrebs zu erkranken.*

Die Information über das eigene Genom sind höchst persönliche Daten, mit denen sensibel umzugehen ist. Und damit gehört das Thema zu den aktuellen Diskussionen um Überwachung, Datenschutz, Prism oder Vorratsdatenspeicherung. Wie weiter also in der Zeit von „Big Data“, da es möglich geworden ist, gigantische Datensätze mit persönlichen Informationen zu speichern, zu überwachen, auszuwerten? Wie umgehen mit dem „neuen Gold des Informationszeitalter“?  Klar ist: Das Unbehagen über die Datenmengen und den Umgang damit ist groß. Unklar hingegen ist, was mit solchen Daten schon geschehen ist, welche Auswertungen durch wen möglich sind, was damit erreicht werden kann. Die Bundesregierung scheint nicht einmal in der Lage zu sein, die richtigen Fragen zu stellen, wenn es um die amerikanischen oder britischen Spionageprogramme geht, geschweige denn zu verstehen was hier alles auf dem Spiel stehen könnte. Facebook führt den social graph search ein, mit der jede persönliche Information in ein allumfassendes, durchsuchbares Netzwerk fließt; während  viele Facebook-User wohl schon jetzt mit den Privatsphäreeinstellungen überfordert sind, sind die jetzt eilig herumgebotenen Erklärungen wie man sich vor dem graph search „schützen“ kann, noch komplizierter. Die englische Journalistin mit dem sequenzierten Genom fürchtet, dass ihre Erbinformation, bei Amazon in der cloud gespeichert, gehackt werden könnte. Und beschließt schlussendlich, nicht alles wissen zu wollen, was in ihrem Genom an Informationen drin ist: „It’s possible that I could look it up. But when it comes down to it, I decide not to. I’m beginning to see the point of the don’t-want-to-knows. It’s all about risk and probabilities and all the information suggests that as humans we just aren’t that good at understanding them or relating them to our own lives.“

Wissenschaftlicher und technischer Fortschritt gehen nicht selten schneller voran als die Einordnung, welche Folgen dieser Fortschritt haben könnte („Technikfolgenabschätzung“ ist als Forschungszweig eher neueren Datums). Wissenschaft und Erkenntnis wird vorangetrieben durch Enthusiasten wie den im Artikel zitierten Genetiker Ron Zimmern, der optimistisch meint: „I wish people would understand how amazing and revolutionary this science is. How exciting it is. How the NHS’s 100,000 genome project has extraordinary potential.“ – und das ist im Prinzip auch gut, denn nur so kann neue Erkenntnis gewonnen werden. Trotzdem, wenn der Fortschritt das Labor verlässt, braucht es mehr als Enthusiasmus und Optimismus. Bei gewissen Anwendungen muss die Gesellschaft wie die einzelne Person sagen – nein, obwohl Google superpraktisch ist um alle meine Daten zu organisieren, ich mache das nicht. Und nein – wir sequenzieren auch nicht alle Neugeborenen, obwohl das in wenigen Jahren für einen Apfel und ein Ei möglich sein wird. Zudem bräuchte es eine gewisse Verantwortung der Entwickler und Forscherinnen, nicht alles voranzutreiben was geht – um nicht vielleicht Jahre später ein schlechtes Gewissen zu haben wie einst Robert Oppenheimer, einer der Miterfinder der Atombombe.

Solche Einschränkungen – zur Not auch mit Gesetzen – haben nichts mit Technikfeindlichkeit oder Unfreiheit zu tun. Im Gegenteil. Rationale Verwendung von technischem Fortschritt und Freiheit äußern sich genau darin, sich einzugestehen, dass uns die selbst geschaffene Komplexität überfordert. Und dass wir daher als Individuum wie als Gesellschaft nicht alles machen können und müssen, was möglich ist. Vielleicht kann daraus ein Leitgedanke für das „Informationszeitalter“ werden?

*Auch wenn die Veränderungen im Genom von Bedeutung sind, hat die Forschung gerade in der Zeit nach der vollständigen Entschlüsselung des menschlichen Genoms vor 13 Jahren gezeigt, wie entscheidend schon auf molekularer Ebene andere Faktoren sind, nachzulesen etwa unter dem Stichwort Epigenetik.