Wissenschaft­liches Denken

Die wissen­schaft­liche Heran­gehens­weise an die Phäno­mene der Welt

Grund­lage des erfolg­reichen wissen­schaft­lichen Arbeitens ist das wissen­schaft­liche Denken. Die kognitive Fähigkeit des wissen­schaft­lichen Denkens intellektu­alisiert und strukturiert den wissen­schaft­lichen Arbeits­prozess vom ersten fragenden Gedanken bis zur Publikation.

Konkret geht es dabei um das Auffinden und Formulieren von Forschungs­fragen, das Aufstellen wissen­schaftlicher Hypothesen, die Fest­legung von Unter­suchungs­merkmalen, das Sammeln von Informationen, die Analyse der gesammelten Daten, das Ziehen von Schluss­folgerungen und die Diskussion bzw. kritische Betrachtung der eigenen Forschungs­ergebnisse.

Insgesamt kann wissen­schaft­liches Denken als eine neugierige, kritische und analytische Heran­gehens­weise an die Rätsel des Lebens und der Welt bezeichnet werden. Ziel ist, neue Erkennt­nisse zu gewinnen bzw. die Phänomene, Sach­ver­halte und Zusammen­hänge fundiert zu verstehen und die gewonnen Erkenntnisse mit anderen Interessierten zu teilen und diskutieren.

Subjektive Wahr­nehmung versus wissen­schaft­liches Denken

Vor gar nicht allzu ferner Vergangen­heit meinten die Menschen, die Sonne drehe sich um die Erde. Nikolaus Kopernikus bezweifelte dieses Annahme und stellte im Jahr 1510 die These des helio­zentrischen Modells auf, fand aller­dings keine wissen­schaft­lichen Beweise dafür, da es zu seiner Zeit die wissen­schaft­lichen Methoden und Instrumente dazu noch nicht gab.

Ende des 16. Jahrhunderts versuchten der Universal­gelehrte Galileo Galilei und der Mathematiker Johannes Kepler schlüssige Beobachtungen zu sammeln, um das helio­zentrische Modell zu beweisen.

In der Folge setzte sich trotz klerikaler Wider­stände das helio­zentrische Modell durch, weil es Kepler mathematisch schlüssig beschrieb und vor allem, weil es Anfang des 17. Jahr­hunderts von Galilei durch Beobachtungen mit einem von ihm weiter­ent­wickelten Teleskop bestätigt werden konnte.

Erst viel später brachten größere Teleskope die Erkenntnis, dass die Sonne auch nicht das Zentrum des Universums ist, bis zum jetzigen Standardmodell der Kosmologie, welches Milliarden von Galaxien in einem sich mit zunehmender Geschwindig­keit ausdehnenden Universum kennt.

Mit der Erforschung von Phänomenen aus einer Kombination von Experimenten, Messungen und mathematischen Analysen wurde Galileo Galilei zu einem der wichtigsten Begründer der neuzeitlichen exakten Natur­wissenschaften.

Das Problem bei der Aufstellung der wissen­schaft­lichen Hypothese des helio­zen­trischen Modells und der Ablehnung des geozentrischen Weltbilds war, dass es für die Menschen tatsächlich so ausschaute, als ob sich die Sonne jeden Tag um die Erde drehen würde.

Wenn dann auch noch eine Dogmatik dazukommt, welche die Erde als das Zentrum der Schöpfung und des Universums betrachtet—und diese Ideologie tief im Denken der Menschen verankert ist—kann man sich vorstellen, wie schwer es war, ein davon abweichendes Modell bzw. eine alternative Hypothese aufzustellen und diese subjektive Wahrnehmung zu korrigieren.

Wissenschaft­liches Denken und Arbeiten in der medizinischen Forschung

In der medizinischen Wissenschaft ist die Beziehung zwischen Ursache und Wirkung (Kausalität) von besonderer Bedeutung. Ein sehr einfaches Beispiel der Erforschung des Ursache-Wirkungs-Zusammen­hangs ist die Überprüfung der überlieferten bekannten Annahme über die Wirkung von Hühner­suppe bei grippalem Infekt. Die nicht-wissen­schaft­liche Betrachtungs­weise würde jetzt vorschlagen, diese Auffassung anzunehmen, wenn doch fast alle sagen, dass bei einer Erkältung eine Hühner­suppe wahre Wunder bewirkt.

Der kritische Beobachter lässt sich allerdings nicht beeinflussen oder irritieren von dem, was alle meinen und sagen, sondern zieht in Betracht, dass das subjektive Empfinden einer Wirkung auch auf psycho­somatische Effekte (z.B. von der Wirkung überzeugt sein) und anderen kausalen Effekten (z.B. Bettruhe- und Erholungs­effekte) zurück­zuführen sein könnte.

Eine erste Analyse der Zutaten findet jedoch Inhalts­stoffe, die unter Umständen das Immunsystem unterstützen, Entzündungen hemmen und die Schleimhäute abschwellen lassen. Diese erste Erkenntnis regt dazu an, die Wirkung der Suppe wissen­schaftlich auf einen Effekt bezüglich der Krank­heits­dauer durch Beobachtungen empirisch zu überprüfen.

Aus der Forschungs­frage über die Wirkung von Hühner­suppe auf die Krank­heits­dauer lassen sich folgende Hypothesen ableiten:

wobei μ₁ die Krank­heits­dauer mit der Hühner­suppe und μ₂ die Krankheitsdauer mit einer Plazebo­suppe mit Hühner­geschmack ist. Dabei wird der wahre Mittel­wert der Population (Erwartungs­wert) μ durch den berechneten Mittel­wert der Stichprobe x̄ einschließlich einer Standard­abweichung s in Abhängig­keit vom Umfang der Stichprobe n geschätzt.

Die Nullhypothese H₀  kann nur mit einer bestimmten Sicherheits­wahr­schein­lich­keit 1−α verworfen werden bzw. die Alternativ­hypothese H₁  nur mit einer bestimmen Irrtums­wahr­schein­lich­keit α angenommen werden. Meist wird eine statistische Sicher­heit von 95% gefordert.

Zu beachten ist außerdem, ob die Krankheits­dauer einer Normal­verteilung folgt, ansonsten kann der Schätzer x̄ nicht für statistische Tests herangezogen werden, sondern es wäre ein verteilungs­unab­hängiger Test (auch nicht­paratmetrische oder parameter­freie Verfahren genannt) erforderlich, z.B. der Median-Test.

Hier zeigt sich, wie wichtig in den meisten Forschungs­gebieten umfassende Kennnisse der Statistik sind. Eine gute Online-Einführung in die Wahr­schein­lich­keits­rechnung und Statistik finde Sie auf der Website www.crashkurs-statistik.de.

Psychotherapie­forschung

In der Psychotherapie geht man davon aus, dass innere Konflikte, Traumati­sierungen und falsch eingelernte Verhaltens- und Denkweisen eine psychische Problematik verursachen. Durch die Bearbeitung dieser Ursachen und Hinter­gründe unter Berück­sichtigung der Beziehungs­dynamik zu wichtigen Bezugs­personen der Kindheit wird die psychische Problematik aufgelöst. Dabei spielt vor allem die psychothera­peutische Beziehung eine wesentliche Rolle für den Therapieerfolg.

Kritsch betrachtet fragt es sich allerdings, ob es nicht bei bestimmten Störungen eine Spezialisierung und Abstimmung auf das Krank­heits­bild bräuchte, z.B. bei Ess­störungen. Bei genauerer Betrachtung von Essstörungen werden deren Komplexität und Besonderheiten offenbar. In der Folge können die spezifischen Erfordernisse einer möglichst erfolgreichen Therapie von Essstörungen bestimmt werden.

Nach dem Herausfinden und Festlegen essstörungs­spezifischer Behandlungs­strate­gien und Unter­suchungs­merkmalen soll nun die Wirksamkeit von den daraus entwickelten psychothera­peutischen Ansätzen verglichen werden. Dabei werden die Patienten nach Zufalls­prinzip folgenden Behandlungs­gruppen zugeteilt:

Die Aufteilung der Patienten zu den Behandlungs­gruppen nach dem Zufalls­prinzip ist eine grundlegende Voraussetzung für inferenz­statistische Analysen. Die Inferenz­statistik, auch induktive oder schließende Statistik genannt, beruht auf den Grund­lagen der Wahr­schein­lich­keits­theorie, die wiederum auf Zufalls­stich­proben basiert. Eine Zuordnung der Patienten z.B. nach Sympathie und Interesse oder gar nach Ausprägung des Störungs­bildes würde eine maßgebliche Verzerrung (Bias) der Ergebnisse verursachen.

Zu beachten ist auch, dass es aus ethischen Gründen keine Kontroll­gruppe gibt, die gar keine psychothera­peutische Behandlung erhält. D.h. Wissen­schaft hat immer auch ethische Aspekte abzuwägen und muss eventuell auf Erkenntnisse verzichten, wenn deren Erforschung unseren ethischen, gesellschaft­lichen und humanistischen Werten widerspricht.

Aus den Forschungs­fragen ergeben sich nun folgende wissen­schaft­liche Hypothesen:

wobei π₁ der Anteil der erfolgreich behandelten Patienten in der Behandlungsgruppe 1, π₂ der Anteil der erfolgreich behandelten Patienten in Behandlungs­gruppe 2 und π₃ der Anteil der erfolgreich behandelten Patienten in Behandlungs­gruppe 3 ist.

Der wahre Anteil π der erfolgreich behandelten Patienten wird mit dem berechneten Anteil der Stichprobe p geschätzt, wobei der Behandlungs­erfolg aus fest­ge­legten Kriterien besteht, die bereits bei der Studien­planung festgelegt werden müssen.

Im Nachhinein erstellte oder geänderte Kriterien für den Behandlungs­erfolg können offiziell nicht berück­sichtigt werden bzw. müssen in der Studie genannt und diskutiert werden, denn sie würden den Verdacht auf Manipulation der Studie hervorrufen. Z.B. nur jene Erhebungs­merkmale für den Behandlungs­erfolg heranzu­ziehen, die ein gewünschtes Ergebnis liefern.

Die einzelnen erhobenen Merkmale sowie Zusammen­hänge von Merkmalen können jedoch auch im Nachhinein deskriptiv (beschreibend mit Maßzahlen und Graphiken) sowie induktiv analysiert werden. Häufig ergeben sich später, aus der Betrachtung der Daten heraus, zusätzliche Forschungs­fragen. Z.B. ob der Behandlungs­erfolg auch vom Alter der Patienten abhängt. Eine unwissen­schaftliche und verwerfliche Vorgehens­weise ist allerdings, wenn die Daten nach Effekten durchsucht und danach erst Hypothesen aufgestellt werden.

Higgs-Boson

In der Physik dauert die Überprüfung eines theoretischen Modells manchmal sehr lange. Der britische Physiker Peter Higgs hat in den 1960er Jahren für das Standar­modell der Elementar­teilchen­physik ein Teilchen vorhergesagt, das erst 2012 mit dem Teilchen­beschleuniger in CERN nachgewiesen werden konnte.

Auch hier wurde erst das bestehende Modell kritisch betrachtet und analysiert und in der Folge mit einer Theorie erweitert, die in weiterer Folge durch Beobachtungen wissen­schaftlich überprüft werden konnte.

Hingegen wird es z.B. bei der sogenannten M-Theorie bzw. String-Theorie wahrs­chein­lich nie möglich sein, den wissen­schaftlichen Nachweis zu erbringen, weil diese Strings derart klein sind, dass die Energie für einen entsprechenden Teilchen­beschleuniger praktisch nicht aufgebracht werden kann. Hier wird man wohl in der Theorie verbleiben. Aber nichts­desto­trotz ist es spannend, sich mit diesen Theorien, die in sich stimmig und sehr elegant sind, zu befassen.

Arten der Hypothesen­bildung

In der Wissenschaft wird nach neuen Erkenntnissen gesucht, indem Phänomene und Zusammenhange von Faktoren kritisch betrachtet, analysiert und in der Folge durch Beobachtungen überprüft werden. Die Vermutung bzw. Annahme wie verschiedene Faktoren miteinander in Beziehung stehen oder Phänomene funktionieren wird in Forschungsfragen formuliert und durch wissenschaftliche Hypothesen konkretisiert.

In den meisten Fällen wissen­schaft­licher Hypothesen kann ein Sach­verhalt nur mit einer bestimmten Sicherheit angenommen werden bzw. eine Aussage nur mit einer bestimmten Wahrschein­lichkeit gemacht werden. Es gibt aber auch viele Phänomene, bei dem ein Ereignis unter bestimmten Voraus­setzungen immer eintritt.

Demzufolge können je nach Natur der Forschungs­frage folgende Arten von Hypothesen gebildet werden:

Null- und Alternativ­hypothese

Bei zwei Ereignissen, die sich gegenseitig ausschließen, also entweder gilt das eine oder das andere, bietet sich das Aufstellen einer Null- und Alternativ­hypothese an. Z.B. Hühnersuppe reduziert entweder die Krankheits­dauer statistisch signifikant oder sie hat keine statistisch signifikante Auswirkung auf die Krankheitsdauer.

In Statistik­programmen erfolgt dazu die Berechnung einer Fehler­wahr­schein­lich­keit. Wird eine statistische Sicherheit von 95% gefordert, dann kann bei einer berechneten Fehler­wahr­schein­lich­keit kleiner als 5% die Alternativ­hypothese angenommen werden.

Probabilistische Aussage

Probabilistische Hypothesen sind Wahr­schein­lich­keits­aussagen über ein Ereignis, das mit einer bestimmten Wahrschein­lichkeit eintritt bzw. über einen Sach­verhalt, der mit einer bestimmten Wahrschein­lichkeit vorher­gesagt werden kann. Man spricht hier weniger von Hypothese sondern eher von Aussage.

Besonders bekannt sind probabilistische Aussagen bei Wahl­umfragen: Partei XPÖ erhält mit 95% statistischer Sicher­heit zwischen pu und po Prozent der Stimmen. Häufiger wird folgende Aussage gemacht: Würde jetzt gewählt werden, dann würde die Partei XPÖ p Prozent der Stimmen erhalten mit einer Schwankungs­breite von ppu Prozent­punkten. Die statistische Sicherheit bzw. das Konfidenzintervall wird dabei meist mit 95% festgelegt, d.h. mit einer Irrtums­wahr­schein­lich­keit von 5% liegt der wahre Wert außerhalb des Konfidenz­intervalls.

Probabilistische Aussagen können bei Gruppen­ver­gleichen auch als Hypothesen­test genutzt werden. Im Falle des obigen Beispiels mit der Hühner­suppe würde in publizierten Studien folgende probabilistische Aussage getroffen werden: Bei den Probanden mit der Hühner­suppe wurde eine mittlere Krankheits­dauer von x̄ Stunden (95% CI) gemessen, während die Versuchs­gruppe mit der Placebo­suppe eine mittlere Krankheits­dauer von x̄PL Stunden (95% CI) aufwies. Das Konfidenz­intervall wird in Klammern gesetzt zum geschätzten Wert x̄ dazu­geschrieben.

Aus den dabei angegebenen Konfidenz­intervallen CI kann dann eine Aussage über einen eventuell vorliegenden statistisch signifikanten Unter­schiend gemacht werden, also im Grunde die Null- und Alternativ­hypothese überprüft werden. Überschneiden sich die Konfidenz­intervalle, liegt kein statistisch signifikanter Unterscheid vor und die Null­hypothese kann nicht verworfen werden.

Deterministisches Modell

Wenn ein Ereignis unter bestimmten Voraus­setzungen immer eintritt, spricht man von einem deterministischen Modell. Der Sachverhalt ist also durch Natur­gesetzte vorgegeben.

Die spektakulärsten empirischen Beweise betreffen wohl die von Albert Einstein aufgestellten deterministischen Modelle der allgemeinen und speziellen Relativitäts­theorie. Mithilfe einer totalen Sonnen­finsternis konnte 1919 die durch die Allgemeine Relativitäts­theorie vorausgesagte gravitative Ablenkung des Lichts überprüft werden.

Technisch viel aufwendiger war die Überprüfung der Relativität von Raum und Zeit, die erst 1971 von Joseph C. Hafele und Richard E. Keating mit vier Cäsium-Atomuhren in einem Flugzeug und einer stationären Atomuhr bewiesen wurde.

Die Relativitäts­theorie ist auch ein Bespiel dafür, wie Ergebnisse theoretischer Grundlagen­forschung zur Alltags­anwendung werden. Z.B. wäre ohne Einsteins Gleichungen keine exakte Satelliten­navigation möglich.

Von der kritischen Betrachtung bis zur Publikation

Am Anfang steht der kritische oder fragende Gedanke, angeregt durch einen Beitrag in einem Forschungs­journal, durch eine irritierende Alltags­beobachtung, durch die Aussage eines Kollegen auf einem wissen­schaft­lichen Kongress, durch eine Frage­stellung bei der Behandlung eines Patienten, etc. Wenn ein tieferes Interesse daran besteht, kann diesem Gedanken näher nachge­gangen werden und das Phänomen sowie Zusammen­hänge eingehender betrachtet werden.

Daraus ergibt sich ein neues Modell, ein erweitertes Modell, eine Annahme, eine Vermutung. Zur Beantwortung der damit verbundenen Forschungs­frage benötigen wir ein Experiment, eine Erhebung oder eine bestätigende Beobachtung, wobei wir darauf hoffen, dass uns die daraus gewonnen Daten und deren Analyse eine Antwort auf unsere Forschungs­frage geben.

Experimentelles Design

Für die meisten Wissen­schaftler sind der kritische Gedanke und die nähere Auseinander­setzung damit eine Alltags­begegnung. Auch die dazuge­hörigen Forschungs­fragen und daraus abgeleitete Hypothesen können meist problemlos formuliert werden.

Das Experiment zur Beantwortung der Forschungs­frage kann jedoch auch für die erfahrensten Forscher ein Problem darstellen. Manche Experimente und Erhebungen sind nur mit extrem hohen finanziellen, zeitlichen und technischen Aufwand möglich, wie z.B. der Teilchen­beschleuniger in Cern. Auch eine einfache epidemiologische Erhebung über den Gesund­heits­zustand der Bevölkerung oder die Erforschung eines neuen Medikaments kann enorme Ressourcen beanspruchen. Insbesondere in der medizinischen Forschung kommen auch noch ethische Aspekte und gesund­heitliche Risiken dazu.

Zudem kann die akkurate Messung mit Schwierig­keiten verbunden sein, sogar wenn es sich um ein dichotomes (ja/nein) Merkmal handelt. Z.B. wie kann beim psychologischen Experiment der kindlichen Entwicklung zuverlässig feststellt werden, ob sich das Kleinkind im Spiegel selbst erkennt. Die Idee, man könnte dem Kind unbemerkt einen auffälligen Punkt ins Gesicht malen und in der Folge beobachten, ob das Kind bei Betrachtung im Spiegel den Punkt sich selbst zuordnen kann (Rouge Test), braucht es gewisses Maß an Kreativität. → Youtube-Video: Rouge Test.

Manchmal ist vor der eigentlichen Studie eine Pilot­studie mit wenigen Probanden erforderlich, um die Zuverlässig­keit des Experiments, des Studiendesigns oder eines Tests vorab zu prüfen.

Außerdem kann eine Studie mit gütiger Forschungs­frage und gelungenem Experiment zum Scheitern verurteilt sein, wenn nicht darauf geachtet wird, statistische Aussagen treffen zu können. Deshalb beschäftigen die meisten Forschungs­ein­richtungen Statistiker, die sich zualler­erst um das statistische experimentelle Design (auch statistische Versuchs­planung genannt) und um die Berechnung des erforderlichen Stichproben­umfangs kümmern.

Für ein gelungenes experimentelles Design ist Kreativität, Können und Erfahrung erforderlich. In den meisten Fällen braucht es dazu ein multi­disziplinäres Team. Beim Verfassen einer Diplom­arbeit mit eigenen Experimenten bzw. Daten­erhebungen sind besonders die Betreuer und andere erfahrene wissen­schaft­liche Mitarbeiter am Institut gefragt, dem Studierenden dabei zu helfen.

Reproduzierbarkeit

Die Reproduzierbar­keit eines Experiments ist eine Grundan­forderung an wissen­schaft­liche Experimente, Messungen und Analysen. Dementsprechend werden im Methodenteil einer wissen­schaft­lichen Publikation experimenteller Aufbau und Versuchs­durch­führung beschrieben.

In der Folge kann ein experimentelles Ergebnis von Forschern repliziert und überprüft werden. Als verlässlich gilt ein experimentelles Ergebnis erst dann, wenn es von anderen Forschern nachvoll­zogen worden ist.

Insbesondere in den Sozial­wissen­schaften gibt es jedoch Ausnahmen von der Reproduzier­bar­keit eines Experiments. Z.B. kann das Experiment von geburten­starken Jahrgängen in einer bestimmten Phase und unter bestimmten Umständen, wie die geburten­starken Jahrgänge in den 1960er Jahren und den Umständen des sogenannten Wirtschafts­wunders, nicht repliziert werden.

Hier handelt es sich ein einmaliges Ereignis und um ein gesellschaft­liches Experiment, welches nie geplant wurde, sondern passierte. Sehr wohl sollten aber die Datener­hebungen und Daten­analysen nachvoll­zieh­bar sein und im Daten-/Methoden­teil der wissen­schaft­lichen Arbeit beschrieben werden.

Kein Ergebnis ist auch ein Erkenntnisgewinn

Manchmal erhalten wir trotz gültiger Forschungs­frage und akkuratem experimentellen Design keine befriedigende Antwort und viele zusätzliche offene Fragen. Aber das ist kein Grund zu verzweifeln, sondern im Gegen­teil ein wichtiger Erkenntnis­schritt, der es wert ist, publiziert bzw. als wissen­schaft­liche Arbeit einge­reicht zu werden.

Persönliches und akademisches Wachstum durch die Entwicklung der Fähigkeit des wissen­schaft­lichen Denkens

Wissenschaftliches Denken ist nicht nur eine den Wissen­schaftlern vorbehaltene Kompetenz, sondern eine nützliche Fähigkeit für alle Menschen und ein hilf­reiches Instrument für viele Lebens­lagen. Die Fähigkeit des kritischen, analytischen und forschenden Denkens