Objektivität in Wissenschaft

Warum "Peer Reviews" problematisch sein können

Wenn Wissenschaftler neue Ideen vorlegen und andere Wissenschaftler sie vor der Veröffentlichung überprüfen, heißt das „Peer Review“. Das Verfahren soll Objektivität garantieren, hat aber seine Tücken.

Das Wort „Wissenschaft“ hat einen guten Klang. Die Menschheit weiterbringen, den Fortschritt fördern – natürlich auch öffentliche Ehrung, hübsche Preis- und Fördergelder. An diesem Kuchen wollen viele Leute teilhaben und schreiben deshalb manchmal „Wissenschaft“ auf Sachen drauf, wo keine drin ist. Chem-Trails, Astrologie, früher auch „Rassenkunde“ und solcher Kram.

Da ist es nützlich, Sicherheitsschleusen einzubauen, bevor man neues „Wissen“ auf die Welt loslässt. „Peer Review“ heißt das Prinzip (Begutachtung durch Gleichrangige): Bevor ein „wissenschaftlicher“ Text veröffentlicht wird, schauen Leute, die sich auskennen, sorgfältig drüber. Leider wirft das diverse Probleme auf.

Die erste Schwierigkeit ist die Frage, wie man mit neuen Ideen umgehen soll, die so neu sind, dass sich außer ihren Urhebern keiner mit ihnen auskennen kann. Zahlreiche Witze kursieren darüber, dass Albert Einsteins Relativitätstheorie mit ihrer sich verkürzenden Zeit und ihren gekrümmten Räumen kein Begutachtungsverfahren je überstanden hätte.

Wie kann eine Fachgemeinde objektiv prüfen, was aller Fachmeinung widerspricht? Wie können „Gleichrangige“ die Arbeit eines Genies beurteilen, wenn sie nicht gleichrangig sind?

Die Technik muss wissen, wie sie suchen muss

Der Physiker Einstein hatte Glück. Weil seine Wissenschaft sich mit echten Naturerscheinungen befasst, lassen sich auch noch so revolutionäre Theorien meist irgendwann durch simples Hinschauen beweisen. Dass große Massen im Universum das Licht ablenken – das konnten Astronomen 1919 bei einer Sonnenfinsternis tatsächlich beobachten. Und dass Gravitation als Welle durchs All schwappt: Es hat 100 Jahre gedauert, bis die Technik so weit war, aber sie hat es gesehen.

Doch auch die beste Technik geht fehl, wenn keiner ihr sagt, wie sie suchen muss. Etwa, als der Atmosphärenchemiker Joseph Farman den zunehmenden Schwund des Ozons über der Antarktis maß: Als er die Daten der Fachzeitschrift „Nature“ einreichte, waren die Peer Reviewer damit gar nicht zufrieden. Schließlich pflügten Satelliten über dem Erdball umher und hatten scheinbar nichts dergleichen festgestellt.

Immerhin: „Nature“ veröffentlichte die Daten, und die Nasa prüfte die Satelliten. Die hatten den Schwund durchaus beobachtet – waren aber so programmiert, dass sie niedrige Werte als „Messfehler“ aussortierten. Wissenschaft, die neue Fakten nicht sieht, weil sie zu wissen glaubt, dass die „gar nicht sein können“ – auch so etwas gibt es.

Noch schwieriger wird die Gutachterei in jenen geistvollen Disziplinen, wo das zu Beobachtende nur im Kopf stattfindet. Bei vielen Fragen der Mathematik etwa kann kein Computer helfen, sondern nur ein geniales Hirn – und viele von denen haben zum Nachprüfen gar nicht mehr die Zeit.

Auch viele Mathematiker sind heute Teil einer durchgetakteten Maschinerie aus Vorlesungen, Tagungen, Drittmittelanträgen, Zertifizierungen – und dem ständigen Ausstoß neuer eigener Studien, weil die Regel gilt: „publish or perish“ (Wer nichts veröffentlicht, wird vernachlässigt).

Der Fall Perelman

Das zeigte sich auch neulich wieder, als der Bonner Informatiker Norbert Blum seinen Beweisversuch zum „P-NP-Problem“ ins Netz stellte. Zeitgleich saßen Fachkollegen im Mathematikzentrum Oberwolfach bei Offenburg beisammen.

Wunderbare Voraussetzungen zur Peer Review, möchte man meinen. Irrtum. „Wir hatten ein strammes Programm“, sagte einer – es blieb bei ein paar launigen Wetten, ob Blum wohl recht habe. Er hatte nicht. Aber das hat keine Peer Review bemerkt, sondern er selbst.

Dass eine neue Idee jahrelang auf dem Tisch liegen kann, bevor die Gutachter sie durchdacht haben, kann frustrierende Folgen zeigen. Vier Jahre dauerte es zum Beispiel, bis die Gleichrangigen der Welt den enorm komplexen Beweis des russischen Mathematikers Grigorij Perelman zur „Poincaré-Vermutung“ geprüft hatten. „Ich wollte meine Arbeit nicht mit jemandem diskutieren, dem ich nicht traue“, hatte der zuvor gesagt.

Und tatsächlich: Die vier Jahre waren Zeit genug für ein paar Leute in einem fernöstlichen Land, seinen Beweis abzuschreiben und als eigenen auszugeben. Grund genug für Perelman (obwohl der Schmu rauskam), dem ganzen Betrieb angewidert den Rücken zu kehren und sich als Einsiedler in die Plattenbauwohnung seiner Mutter zurückzuziehen – ein enormer Verlust für die Mathematik.

Die ideale Peer Review erfolgt im „Doppelblind“-Verfahren: Der Gutachter kennt den Autor nicht und der nicht ihn. Ein hehres Ziel, aber kaum durchführbar. Als 2010 auch der indische Informatiker Vinay Deolalikar einen Beweis für „P-NP“ vorlegte, merkte er an, nur 21 Kollegen weltweit seien für eine Prüfung überhaupt kompetent.

In kleinen Spezialistenzirkeln, wo jeder jeden kennt; wo der eine den anderen am Schreibstil identifiziert; wo jeder weiß, woran der andere gerade forscht, lange bevor dessen Arbeit „anonym“ zur Begutachtung vorliegt – das Motto von der doppelten Blindheit zerstäubt zu einem schnöden Realismus-Wölkchen.

Wissenschaftler nehmen das Verfahren aufs Korn

Kein Wunder, dass das ganze Prinzip auch in Wissenschaftlerkreisen nicht unumstritten ist. Spötter betonen das bisweilen durch Satire-Aktionen: „Der konzeptuelle Penis als soziales Konstrukt“ hieß ein Machwerk in „Gender Studies“, das der Mathematiker James Lindsay und der Philosoph Peter Boghossian im Frühjahr erfolgreich dem Fachblatt „Cogent Social Sciences“ unterschoben.

Das Gemächt sei „Treiber für einen Großteil des Klimawandels“, schrieben die Witzbolde, und der absichtliche Blödsinn überstand alle Peer Review: Die Arbeit sei „gut fundiert“ und „herausragend in jeder Kategorie“, erklärten die Gutachter.

Lindsay und Boghossian glauben zu wissen, woran es lag: Sie hatten in wüstem Soziologensprech geschrieben und etliche Fußnoten beigefügt – dabei hatten sie „genau null Quellen gelesen“ sowie Studien und Magazine zitiert, die es nicht einmal gibt.

Dass es solche Selbstkritik aus dem System heraus gibt, lässt hoffen. Wissenschaft heißt, auch sich selbst in Frage zu stellen (und vielleicht auch manche Exzesse der „Gender Studies“ der Astrologie und der Rassenkunde beizugesellen). Auch aus Fehlleistungen lassen sich nützliche Schlüsse ziehen. So funktioniert richtige Wissenschaft.