Wissenschaftliche Methode - Scientific method

Die wissenschaftliche Methode wird oft als fortlaufender Prozess dargestellt . Dieses Diagramm stellt eine Variante dar, und es gibt viele andere .

Die wissenschaftliche Methode ist eine empirische Methode der Erkenntnisgewinnung , die die Entwicklung der Wissenschaft mindestens seit dem 17. Jahrhundert (mit namhaften Praktikern in früheren Jahrhunderten) prägt . Es erfordert eine sorgfältige Beobachtung und eine strenge Skepsis gegenüber dem, was beobachtet wird, da kognitive Annahmen die Interpretation der Beobachtung verzerren können . Es beinhaltet die Formulierung von Hypothesen durch Induktion , basierend auf solchen Beobachtungen; experimentelle und messtechnische Ableitungsprüfungaus den Hypothesen gezogen; und Verfeinerung (oder Eliminierung) der Hypothesen basierend auf den experimentellen Ergebnissen. Dies sind Prinzipien der wissenschaftlichen Methode, die sich von einer definitiven Reihe von Schritten unterscheiden, die für alle wissenschaftlichen Unternehmen gelten.

Obwohl sich die Verfahren von einem Untersuchungsgebiet zum anderen unterscheiden, ist der zugrunde liegende Prozess häufig von einem Untersuchungsgebiet zum anderen gleich. Der Prozess in der wissenschaftlichen Methode besteht darin, Vermutungen (hypothetische Erklärungen) anzustellen, Vorhersagen aus den Hypothesen als logische Konsequenzen abzuleiten und dann Experimente oder empirische Beobachtungen basierend auf diesen Vorhersagen durchzuführen. Eine Hypothese ist eine Vermutung, die auf Erkenntnissen basiert, die bei der Suche nach Antworten auf die Frage gewonnen wurden. Die Hypothese kann sehr spezifisch oder weit gefasst sein. Wissenschaftler testen dann Hypothesen, indem sie Experimente oder Studien durchführen. Eine wissenschaftliche Hypothese muss falsifizierbar sein , was bedeutet, dass es möglich ist, ein mögliches Ergebnis eines Experiments oder einer Beobachtung zu identifizieren, das den aus der Hypothese abgeleiteten Vorhersagen widerspricht; andernfalls kann die Hypothese nicht sinnvoll getestet werden.

Der Zweck eines Experiments besteht darin, festzustellen, ob Beobachtungen mit den aus einer Hypothese abgeleiteten Erwartungen übereinstimmen oder diesen widersprechen . Experimente können überall stattfinden, von einer Garage bis zum Large Hadron Collider des CERN . Bei einer formelhaften Methodenangabe gibt es jedoch Schwierigkeiten. Obwohl die wissenschaftliche Methode oft als eine feste Abfolge von Schritten dargestellt wird, repräsentiert sie eher eine Reihe allgemeiner Prinzipien. Nicht alle Schritte finden bei jeder wissenschaftlichen Untersuchung (und auch nicht in gleichem Maße) statt, und sie sind nicht immer in der gleichen Reihenfolge.

Geschichte

Aristoteles (384-322 v. Chr.). "In Bezug auf seine Methode gilt Aristoteles als Erfinder der wissenschaftlichen Methode wegen seiner raffinierten Analyse der logischen Implikationen des demonstrativen Diskurses, die weit über die natürliche Logik hinausgeht und denjenigen, die vor ihm philosophierten, nichts verdankt." – Riccardo Pozzo
Ibn al-Haytham (965-1039). Ein Universalgelehrter, der von einigen als der Vater der modernen wissenschaftlichen Methodik angesehen wird , da er Wert auf experimentelle Daten und die Reproduzierbarkeit seiner Ergebnisse legt .
Johannes Kepler (1571-1630). „Kepler zeigt sein scharfes logisches Gespür, indem er den gesamten Prozess, durch den er schließlich die wahre Umlaufbahn erreicht hat, detailliert beschreibt. – C.S. Peirce , c. 1896, über Keplers Argumentation durch erklärende Hypothesen
Galileo Galilei (1564-1642). Nach Albert Einstein : „Alle Erkenntnis der Wirklichkeit beginnt mit der Erfahrung und endet in ihr. Auf rein logischem Wege gewonnene Aussagen sind in Bezug auf die Wirklichkeit völlig leer der Vater der modernen Physik – ja der modernen Wissenschaft überhaupt."

Wichtige Debatten in der Wissenschaftsgeschichte betreffen die Skepsis, dass alles mit Sicherheit bekannt sein kann (wie Ansichten von Francisco Sanches ), Rationalismus (insbesondere wie von René Descartes verfochten ), Induktivismus , Empirismus (wie von Francis Bacon argumentiert , dann zum Besonderen) Bekanntheit bei Isaac Newton und seinen Anhängern) und dem hypothetischen Deduktivismus , der im frühen 19. Jahrhundert in den Vordergrund trat.

Der Begriff "wissenschaftliche Methode" entstand im 19. Jahrhundert, als eine bedeutende institutionelle Entwicklung der Wissenschaft stattfand und Terminologien auftauchten, die klare Grenzen zwischen Wissenschaft und Nicht-Wissenschaft setzten, wie "Wissenschaftler" und "Pseudowissenschaft". Während der 1830er und 1850er Jahre, als der Baconianismus populär war, führten Naturforscher wie William Whewell, John Herschel, John Stuart Mill Debatten über "Induktion" und "Fakten" und konzentrierten sich darauf, wie man Wissen generiert. Im späten 19. und frühen 20. Jahrhundert wurde eine Debatte über Realismus vs. Antirealismus geführt, als mächtige wissenschaftliche Theorien über den Bereich des Beobachtbaren hinausgingen.

Problemlösung durch wissenschaftliche Methode
Siehe Abschnitt Anmerkungen § Problemlösung durch wissenschaftliche Methode

Der Begriff "wissenschaftliche Methode" wurde im 20. Jahrhundert populär; Dewey 1910 , How We Think inspirierte populäre Richtlinien , die in Wörterbüchern und wissenschaftlichen Lehrbüchern auftauchten, obwohl es wenig wissenschaftlichen Konsens über ihre Bedeutung gab. Obwohl es das Wachstum durch die Mitte des zwanzigsten Jahrhunderts war, die von den 1960er und 1970er Jahren zahlreiche einflussreiche Wissenschaftsphilosophen wie Thomas Kuhn und Paul Feyerabend die Universalität der „wissenschaftlichen Methode“ in Frage gestellt hatte und dabei weitgehend ersetzt den Begriff der Wissenschaft als eine homogene und universelle Methode, wobei es sich um eine heterogene und lokale Praxis handelt. Bestimmtes,Paul Feyerabend argumentierte in der Erstausgabe seines Buches Against Method von 1975 gegen universelle Regeln der Wissenschaft ; Popper 1963, Gauch 2003 und Tow 2010 widersprechen Feyerabends Behauptung; Problemlöser und Forscher müssen bei ihrer Untersuchung mit ihren Ressourcen vorsichtig umgehen.

Spätere Positionen umfassen den Aufsatz des Physikers Lee Smolin "There Is No Scientific Method" aus dem Jahr 2013, in dem er zwei ethische Prinzipien vertritt , und das Kapitel des Wissenschaftshistorikers Daniel Thurs im Buch Newton's Apple and Other Myths about Science aus dem Jahr 2015 , das zu dem Schluss kam, dass die wissenschaftliche Methode ist ein Mythos oder bestenfalls eine Idealisierung. Da Mythen Überzeugungen sind, unterliegen sie dem erzählerischen Trugschluss, wie Taleb betont. Die Philosophen Robert Nola und Howard Sankey sagten in ihrem 2007 erschienenen Buch Theories of Scientific Method , dass Debatten über wissenschaftliche Methoden andauern, und argumentierten, dass Feyerabend trotz des Titels Against Method bestimmte Methodenregeln akzeptierte und versuchte, diese Regeln mit einem Meta zu rechtfertigen Methodik. Staddon (2017) argumentiert, dass es ein Fehler ist, in Abwesenheit einer algorithmischen wissenschaftlichen Methode zu versuchen, Regeln zu befolgen; in diesem Fall "wird die Wissenschaft am besten durch Beispiele verstanden". Aber algorithmische Methoden, wie die Widerlegung bestehender Theorien durch Experimente , werden seit Alhacen (1027) Book of Optics und Galileo (1638) Two New Sciences verwendet .

Das allgegenwärtige Element der wissenschaftlichen Methode ist die Empirie . Dies steht im Gegensatz zu strengen Formen des Rationalismus : Die wissenschaftliche Methode verkörpert die Position, dass Vernunft allein ein bestimmtes wissenschaftliches Problem nicht lösen kann. Eine starke Formulierung der wissenschaftlichen Methode ist nicht immer auf eine Form der Empirie ausgerichtet, bei der die empirischen Daten in Form von Erfahrungen oder anderen abstrahierten Wissensformen vorgelegt werden; in der gegenwärtigen wissenschaftlichen Praxis wird jedoch normalerweise die Verwendung wissenschaftlicher Modellierung und das Vertrauen auf abstrakte Typologien und Theorien akzeptiert. Die wissenschaftliche Methode widerspricht Behauptungen, dass Offenbarung , politische oder religiöse Dogmen , Berufungen auf Traditionen, allgemein verbreitete Überzeugungen, gesunder Menschenverstand oder gegenwärtige Theorien die einzig möglichen Mittel darstellen, um die Wahrheit zu beweisen.

Verschiedene frühe Ausdrucksformen des Empirismus und der wissenschaftlichen Methode finden sich im Laufe der Geschichte, zum Beispiel bei den alten Stoikern , Epikur , Alhazen , Avicenna , Roger Bacon und William of Ockham . Ab dem 16. Jahrhundert wurden Experimente von Francis Bacon befürwortet und von Giambattista della Porta , Johannes Kepler und Galileo Galilei durchgeführt . Es gab eine besondere Entwicklung, die durch theoretische Arbeiten von Francisco Sanches , John Locke , George Berkeley und David Hume unterstützt wurde .

Eine Seereise von Amerika nach Europa verschaffte CS Peirce die Distanz, um seine Ideen zu klären , was allmählich zu dem hypothetisch-deduktiven Modell führte . Das im 20. Jahrhundert formulierte Modell wurde seit seinem ersten Vorschlag erheblich überarbeitet (für eine formellere Diskussion siehe § Elemente der wissenschaftlichen Methode ).

Überblick

Die wissenschaftliche Methode ist der Prozess, durch den Wissenschaft durchgeführt wird. Wie in anderen Forschungsgebieten kann die Wissenschaft (durch die wissenschaftliche Methode) auf Vorwissen aufbauen und im Laufe der Zeit ein differenzierteres Verständnis ihrer Studienthemen entwickeln. Dieses Modell liegt der wissenschaftlichen Revolution zugrunde .

Verfahren

Der Gesamtprozess umfasst das Aufstellen von Vermutungen ( Hypothesen ), das Ableiten von Vorhersagen aus ihnen als logische Konsequenzen und das anschließende Durchführen von Experimenten basierend auf diesen Vorhersagen, um festzustellen, ob die ursprüngliche Vermutung richtig war. Bei einer formelhaften Methodenangabe gibt es jedoch Schwierigkeiten. Obwohl die wissenschaftliche Methode oft als eine feste Abfolge von Schritten dargestellt wird, sind diese Maßnahmen besser als allgemeine Prinzipien zu betrachten. Nicht alle Schritte finden bei jeder wissenschaftlichen Untersuchung (und auch nicht in gleichem Maße) statt, und sie werden nicht immer in der gleichen Reihenfolge durchgeführt. Wie der Wissenschaftler und Philosoph William Whewell (1794–1866) feststellte, sind bei jedem Schritt „Erfindung, Scharfsinn [und] Genie“ erforderlich.

Formulierung einer Frage

Die Frage kann sich auf die Erklärung einer bestimmten Beobachtung beziehen , wie in "Warum ist der Himmel blau?" kann aber auch ein offenes Ende haben, wie in "Wie kann ich ein Medikament entwickeln , um diese spezielle Krankheit zu heilen?" Diese Phase beinhaltet häufig das Auffinden und Bewerten von Beweisen aus früheren Experimenten, persönlichen wissenschaftlichen Beobachtungen oder Behauptungen sowie der Arbeit anderer Wissenschaftler. Wenn die Antwort bereits bekannt ist, kann eine andere Frage gestellt werden, die auf den Beweisen aufbaut. Bei der Anwendung der wissenschaftlichen Methode auf die Forschung kann die Bestimmung einer guten Frage sehr schwierig sein und das Ergebnis der Untersuchung beeinflussen.

Hypothese

Eine Hypothese ist eine Vermutung, die auf Erkenntnissen basiert, die bei der Formulierung der Frage gewonnen wurden und die ein bestimmtes Verhalten erklären können. Die Hypothese könnte sehr spezifisch sein; zum Beispiel Einsteins Äquivalenzprinzip oder Francis Cricks "DNA macht RNA macht Protein", oder es könnte weit gefasst sein; zum Beispiel "unbekannte Lebensarten leben in den unerforschten Tiefen der Ozeane". Siehe § Hypothesenentwicklung

Eine statistische Hypothese ist eine Vermutung über eine gegebene statistische Population . Die Bevölkerung kann beispielsweise Menschen mit einer bestimmten Krankheit sein . Eine Vermutung könnte sein, dass ein neues Medikament die Krankheit bei einigen Menschen in dieser Bevölkerungsgruppe heilen wird, wie in einer klinischen Studie mit dem Medikament. Eine Nullhypothese würde vermuten, dass die statistische Hypothese falsch ist; zum Beispiel, dass das neue Medikament nichts bewirkt und dass jede Heilung in der Bevölkerung durch Zufall verursacht würde (eine Zufallsvariable ).

Eine Alternative zur Nullhypothese , falsifizierbar zu sein , muss sagen, dass ein Behandlungsprogramm mit dem Medikament besser abschneidet als der Zufall. Um die Aussage zu testen, dass ein Behandlungsprogramm mit dem Medikament besser abschneidet als der Zufall , wird ein Experiment entworfen, bei dem ein Teil der Bevölkerung(die Kontrollgruppe) unbehandelt bleiben, während ein anderer, separater Teil der Bevölkerung behandelt werden soll. t-Tests könnten dann angeben, wie groß die behandelten Gruppen und wie groß die Kontrollgruppen sein sollen, um abzuleiten, ob eine Behandlung der Bevölkerung in jeder der Gruppen zu einer Heilung einiger von ihnen geführt hat. Die Gruppen werden wiederum von den Forschern in einem Protokoll untersucht .

Starke Schlussfolgerungen könnten alternativ mehrere alternative Hypothesen vorschlagen, die in randomisierten kontrollierten Studien , Behandlungen A, B, C, ... enthalten sind (z. B. in einem verblindeten Experiment mit unterschiedlichen Dosierungen oder mit Änderungen des Lebensstils usw.), um keine Bestätigung einzuführen Bias zugunsten eines bestimmten Verlauf der Behandlung. Ethische Überlegungen könnten angestellt werden, um die Anzahl in den unbehandelten Gruppen zu minimieren, z. B. fast jede Behandlung in jeder Gruppe anwenden, jedoch A, B, C, ... jeweils als Kontrollen ausschließen.

Vorhersage

Der Vorhersageschritt leitet die logischen Konsequenzen der Hypothese ab, bevor das Ergebnis bekannt ist . Diese Vorhersagen sind Erwartungen an die Testergebnisse. Wenn das Ergebnis bereits bekannt ist, ist es ein Beweis, der bei der Annahme oder Ablehnung der Hypothese berücksichtigt werden kann. Die Evidenz ist auch stärker, wenn das tatsächliche Ergebnis des prädiktiven Tests nicht bereits bekannt ist, da eine Manipulation des Tests ausgeschlossen werden kann, ebenso wie ein Rückblick-Bias (siehe Nachdiktion ). Idealerweise muss die Vorhersage auch die Hypothese von wahrscheinlichen Alternativen unterscheiden; wenn zwei Hypothesen dieselbe Vorhersage treffen, ist die Beobachtung, dass die Vorhersage richtig ist, kein Beweis für die eine gegenüber der anderen. (Diese Aussagen über die relative Stärke von Beweisen können mathematisch mit dem Satz von Bayes abgeleitet werden ).

Die Konsequenz ist daher gleichzeitig oder kurz nach der Aufstellung der Hypothese anzugeben, jedoch bevor das Versuchsergebnis bekannt ist.

Ebenso ist das Prüfprotokoll vor Durchführung der Prüfung anzugeben. Diese Anforderungen werden zu Vorsichtsmaßnahmen gegen Manipulationen und tragen zur Reproduzierbarkeit des Experiments bei.

Testen

Geeignete Tests einer Hypothese vergleichen die erwarteten Werte aus den Tests dieser Hypothese mit den tatsächlichen Ergebnissen dieser Tests. Wissenschaftler (und andere Personen) können dann ihre Hypothesen durch geeignete Experimente sichern oder verwerfen .

Analyse

Eine Analyse bestimmt aus den Ergebnissen des Experiments die nächsten zu ergreifenden Maßnahmen. Die Erwartungswerte aus dem Test der Alternativhypothese werden mit den Erwartungswerten verglichen, die sich aus der Nullhypothese (d. h. einer Vorhersage ohne Unterschied im Status quo ) ergeben. Der Unterschied zwischen erwartet und tatsächlich zeigt an, welche Hypothese die resultierenden Daten aus dem Experiment besser erklärt. In Fällen, in denen ein Experiment viele Male wiederholt wird, kann eine statistische Analyse wie ein Chi-Quadrat-Test erforderlich sein, ob die Nullhypothese wahr ist.

Beweise von anderen Wissenschaftlern und Erfahrungen können in jeder Phase des Prozesses berücksichtigt werden . Abhängig von der Komplexität des Experiments kann eine Iteration des Prozesses erforderlich sein, um genügend Beweise zu sammeln, um die Frage sicher zu beantworten, oder um andere Antworten auf sehr spezifische Fragen aufzubauen, um eine einzige umfassendere Frage zu beantworten.

Wenn die Beweise die Alternativhypothese falsifiziert haben, ist eine neue Hypothese erforderlich; wenn die Beweise das Verwerfen der Alternativhypothese nicht schlüssig rechtfertigen, könnten andere Vorhersagen aus der Alternativhypothese in Betracht gezogen werden. Pragmatische Erwägungen, wie etwa die zur Verfügung stehenden Ressourcen, um die Ermittlungen fortzusetzen, könnten den weiteren Verlauf der Ermittlungen leiten. Wenn Beweise für eine Hypothese diese Hypothese stark unterstützen, können weitere Fragen folgen, um Einblick in die umfassendere Untersuchung zu erhalten, die untersucht wird.

DNA-Beispiel

Die Grundelemente der wissenschaftlichen Methode werden durch folgendes Beispiel (das von 1944 bis 1953 stattfand) aus der Entdeckung der DNA- Struktur veranschaulicht :

  • Frage : Frühere Untersuchungen der DNA hatten ihre chemische Zusammensetzung (die vier Nukleotide ), die Struktur jedes einzelnen Nukleotids und andere Eigenschaften bestimmt. Die DNA war1944durch das Avery-MacLeod-McCarty-Experiment als Träger der genetischen Information identifiziert worden, aber der Mechanismus, wie genetische Information in der DNA gespeichert wird, war unklar.
  • Hypothese : Linus Pauling , Francis Crick und James D. Watson stellten die Hypothese auf, dass DNA eine helikale Struktur hat.
  • Vorhersage : Wenn DNA eine helikale Struktur hätte, wäre ihr Röntgenbeugungsmuster X-förmig. Diese Vorhersage wurde unter Verwendung der Mathematik der Helixtransformation bestimmt, die von Cochran, Crick und Vand (und unabhängig von Stokes) abgeleitet wurde. Diese Vorhersage war ein mathematisches Konstrukt, das völlig unabhängig vom vorliegenden biologischen Problem war.
  • Experiment : Rosalind Franklin verwendete reine DNA, um eine Röntgenbeugung durchzuführen, um Foto 51 zu erzeugen. Die Ergebnisse zeigten eine X-Form.
  • Analyse : Als Watson das detaillierte Beugungsmuster sah, erkannte er es sofort als Helix. Er und Crick erstellten dann ihr Modell, indem sie diese Informationen zusammen mit den zuvor bekannten Informationen über die Zusammensetzung der DNA verwendeten, insbesondere Chargaffs Regeln für die Basenpaarung.

Die Entdeckung wurde zum Ausgangspunkt für viele weitere Studien zum genetischen Material, beispielsweise auf dem Gebiet der Molekulargenetik , und wurde 1962 mit dem Nobelpreis ausgezeichnet . Jeder Schritt des Beispiels wird später im Artikel genauer untersucht.

Andere Komponenten

Die wissenschaftliche Methode umfasst auch andere Komponenten, die erforderlich sind, selbst wenn alle Iterationen der obigen Schritte abgeschlossen sind:

Reproduzieren

Wenn ein Experiment nicht wiederholt werden kann , um dieselben Ergebnisse zu erzielen, bedeutet dies, dass die ursprünglichen Ergebnisse möglicherweise falsch waren. Daher ist es üblich, dass ein einzelnes Experiment mehrmals durchgeführt wird, insbesondere wenn es unkontrollierte Variablen oder andere Anzeichen für experimentelle Fehler gibt . Bei signifikanten oder überraschenden Ergebnissen können auch andere Wissenschaftler versuchen, die Ergebnisse für sich selbst zu replizieren, insbesondere wenn diese Ergebnisse für ihre eigene Arbeit wichtig wären. Die Replikation ist zu einem umstrittenen Thema in der Sozial- und Biomedizin geworden, wo Behandlungen an Gruppen von Individuen verabreicht werden. Typischerweise erhält eine Versuchsgruppe die Behandlung, beispielsweise ein Medikament, und die Kontrollgruppe ein Placebo. John Ioannidis wies 2005 darauf hin, dass die verwendete Methode zu vielen Erkenntnissen geführt hat, die nicht reproduziert werden können.

Externe Überprüfung

Das Peer-Review- Verfahren beinhaltet die Bewertung des Experiments durch Experten, die ihre Meinung in der Regel anonym äußern. Einige Zeitschriften verlangen, dass der Experimentator Listen mit möglichen Peer-Reviewern bereitstellt, insbesondere wenn das Fachgebiet hoch spezialisiert ist. Peer-Review bescheinigt nicht die Richtigkeit der Ergebnisse, sondern nur, dass die Versuche selbst nach Ansicht des Gutachters fehlerfrei waren (basierend auf der Beschreibung des Versuchsleiters). Wenn die Arbeit ein Peer-Review besteht, was gelegentlich neue Experimente erfordern kann, die von den Gutachtern angefordert werden, wird sie in einer peer-reviewed wissenschaftlichen Zeitschrift veröffentlicht . Die jeweilige Zeitschrift, die die Ergebnisse veröffentlicht, weist auf die wahrgenommene Qualität der Arbeit hin.

Datenaufzeichnung und -freigabe

Wissenschaftler sind bei der Aufzeichnung ihrer Daten typischerweise vorsichtig, eine Forderung, die von Ludwik Fleck (1896–1961) und anderen gefördert wurde. Obwohl dies normalerweise nicht erforderlich ist, werden sie möglicherweise aufgefordert, diese Daten anderen Wissenschaftlern zur Verfügung zu stellen, die ihre ursprünglichen Ergebnisse (oder Teile ihrer ursprünglichen Ergebnisse) replizieren möchten, bis hin zur gemeinsamen Nutzung von experimentellen Proben, die möglicherweise schwer zu erhalten sind. Siehe §Kommunikation und Gemeinschaft .

Instrumentierung

Siehe wissenschaftliche Gemeinschaft , große Wissenschaft .

Institutionelle Forscher können ein Instrument zur Institutionalisierung ihrer Tests erwerben . Diese Instrumente würden Beobachtungen der realen Welt verwenden, die mit ihren Vorhersagen, die aus ihrer Hypothese abgeleitet wurden , übereinstimmen oder ihnen widersprechen könnten . Diese Institutionen reduzieren dadurch die Forschungsfunktion auf Kosten/Nutzen, die in Geld ausgedrückt werden, und der Zeit- und Aufmerksamkeitsaufwand der Forscher muss im Austausch für einen Bericht an ihre Mitglieder aufgewendet werden.

Gegenwärtige Großinstrumente wie der Large Hadron Collider (LHC) oder LIGO des CERN , die National Ignition Facility (NIF) oder die Internationale Raumstation (ISS) oder das James Webb Space Telescope (JWST) verursachen erwartete Kosten in Milliardenhöhe von Dollar und Zeitrahmen, die sich über Jahrzehnte erstrecken. Diese Art von Institutionen beeinflusst die öffentliche Ordnung auf nationaler oder sogar internationaler Ebene, und die Forscher würden einen gemeinsamen Zugang zu solchen Maschinen und ihrer zugehörigen Infrastruktur benötigen . Siehe Theorie der Wahrnehmungssteuerung , §Open-Loop und Closed-Loop-Feedback

Elemente der wissenschaftlichen Methode

Es gibt verschiedene Möglichkeiten, die grundlegende Methode der wissenschaftlichen Untersuchung zu skizzieren. Die wissenschaftliche Gemeinschaft und die Wissenschaftsphilosophen sind sich im Allgemeinen über die folgende Einteilung der Methodenkomponenten einig. Diese methodischen Elemente und die Organisation von Verfahren sind eher für die experimentellen Wissenschaften als für die Sozialwissenschaften charakteristisch . Nichtsdestotrotz wird der Zyklus des Formulierens von Hypothesen, des Testens und Analysierens der Ergebnisse und des Formulierens neuer Hypothesen dem unten beschriebenen Zyklus ähneln.

Die wissenschaftliche Methode ist ein iterativer, zyklischer Prozess, bei dem Informationen ständig überarbeitet werden. Es ist allgemein anerkannt, Wissensfortschritte durch die folgenden Elemente in unterschiedlichen Kombinationen oder Beiträgen zu entwickeln:

  • Charakterisierungen (Beobachtungen, Definitionen und Messungen des Untersuchungsgegenstandes)
  • Hypothesen (theoretische, hypothetische Erklärungen von Beobachtungen und Messungen des Subjekts)
  • Vorhersagen (induktive und deduktive Schlussfolgerungen aus der Hypothese oder Theorie)
  • Experimente (Tests aller oben genannten)

Jedes Element der wissenschaftlichen Methode wird einem Peer Review auf mögliche Fehler unterzogen. Diese Aktivitäten beschreiben nicht alles, was Wissenschaftler tun, sondern beziehen sich hauptsächlich auf experimentelle Wissenschaften (zB Physik, Chemie, Biologie und Psychologie). Die oben genannten Elemente werden im Bildungssystem oft als "wissenschaftliche Methode" gelehrt .

Die wissenschaftliche Methode ist kein einzelnes Rezept: Sie erfordert Intelligenz, Vorstellungskraft und Kreativität. In diesem Sinne handelt es sich nicht um eine sinnlose Reihe von Standards und Verfahren, die zu befolgen sind, sondern um einen fortlaufenden Zyklus , in dem ständig nützlichere, genauere und umfassendere Modelle und Methoden entwickelt werden. Als Einstein beispielsweise die Spezielle und Allgemeine Relativitätstheorie entwickelte, widerlegte er Newtons Principia in keiner Weise . Im Gegenteil, wenn man das astronomisch Massive, das Federleichte und das Extrem Schnelle aus Einsteins Theorien herausnimmt – alles Phänomene, die Newton nicht hätte beobachten können – bleiben Newtons Gleichungen übrig. Einsteins Theorien sind Erweiterungen und Verfeinerungen von Newtons Theorien und erhöhen somit das Vertrauen in Newtons Arbeit.

Als Leitfaden für das Vorgehen wird manchmal ein iteratives, pragmatisches Schema der oben genannten vier Punkte angeboten:

  1. Definiere eine Frage
  2. Informationen und Ressourcen sammeln (beobachten)
  3. Bilden Sie eine erklärende Hypothese
  4. Testen Sie die Hypothese, indem Sie ein Experiment durchführen und Daten auf reproduzierbare Weise sammeln
  5. Analysieren Sie die Daten
  6. Interpretieren Sie die Daten und ziehen Sie Schlussfolgerungen, die als Ausgangspunkt für eine neue Hypothese dienen
  7. Ergebnisse veröffentlichen
  8. Wiederholungstest (wird häufig von anderen Wissenschaftlern durchgeführt)

Der iterative Zyklus, der dieser schrittweisen Methode innewohnt, geht von Punkt 3 zu Punkt 6 zurück zu Punkt 3.

Während dieses Schema eine typische Hypothesen-/Testmethode skizziert , behaupten viele Philosophen, Historiker und Wissenschaftssoziologen, einschließlich Paul Feyerabend , dass solche Beschreibungen wissenschaftlicher Methoden wenig Bezug zu der Art haben, wie Wissenschaft tatsächlich praktiziert wird.

Charakterisierungen

Die wissenschaftliche Methode hängt von immer ausgefeilteren Charakterisierungen der Untersuchungsgegenstände ab. (Die Themen können auch genannt werden , ungelöste Probleme oder die Unbekannten .) Zum Beispiel Benjamin Franklin gemutmaßt, richtig, dass Elmsfeuer war elektrisch in der Natur , aber es hat eine lange Reihe von Experimenten und theoretischen Änderungen gemacht , dies zu schaffen. Während die relevanten Eigenschaften der Themen suchen, kann sorgfältige Überlegungen auch mit sich bringen einige Definitionen und Erklärungen; die Beobachtungen erfordern oft sorgfältige Messungen und/oder Zählungen.

Die systematische, sorgfältige Erfassung von Messungen oder Zählungen relevanter Größen ist oft der entscheidende Unterschied zwischen Pseudowissenschaften wie der Alchemie und Naturwissenschaften wie Chemie oder Biologie. Wissenschaftliche Messungen werden normalerweise tabellarisch, grafisch oder kartografiert, und statistische Manipulationen wie Korrelation und Regression werden an ihnen durchgeführt. Die Messungen können in einer kontrollierten Umgebung wie einem Labor oder an mehr oder weniger unzugänglichen oder nicht manipulierbaren Objekten wie Sternen oder menschlichen Populationen durchgeführt werden. Die Messungen erfordern oft spezialisierte wissenschaftliche Instrumente wie Thermometer , Spektroskope , Teilchenbeschleuniger oder Voltmeter , und der Fortschritt eines wissenschaftlichen Gebiets ist normalerweise eng mit ihrer Erfindung und Verbesserung verbunden.

Ich bin es nicht gewohnt, schon nach ein oder zwei Beobachtungen etwas mit Sicherheit zu sagen.

—  Andreas Vesalius , (1546)

Unsicherheit

Messungen in wissenschaftlichen Arbeiten werden in der Regel auch von Schätzungen ihrer Unsicherheit begleitet . Die Unsicherheit wird oft durch wiederholte Messungen der gewünschten Größe geschätzt. Unsicherheiten können auch unter Berücksichtigung der Unsicherheiten der einzelnen zugrunde gelegten Größen berechnet werden. Die Anzahl der Dinge, wie die Anzahl der Menschen in einer Nation zu einem bestimmten Zeitpunkt, kann aufgrund von Einschränkungen bei der Datenerfassung ebenfalls eine Unsicherheit aufweisen. Oder Zählungen können eine Stichprobe gewünschter Mengen darstellen, mit einer Unsicherheit, die von der verwendeten Stichprobenmethode und der Anzahl der entnommenen Stichproben abhängt.

Definition

Messungen erfordern die Verwendung von Betriebsdefinitionen relevanter Größen. Das heißt, eine wissenschaftliche Größe wird dadurch beschrieben oder definiert, wie sie gemessen wird, im Gegensatz zu einer vageren, ungenaueren oder "idealisierten" Definition. Zum Beispiel kann elektrischer Strom , gemessen in Ampere, operativ als die Masse von Silber definiert werden, die in einer bestimmten Zeit auf einer Elektrode in einer elektrochemischen Vorrichtung abgeschieden wird, die ausführlich beschrieben wird. Die operative Definition einer Sache beruht oft auf Vergleichen mit Standards: Die operative Definition von "Masse" beruht letztendlich auf der Verwendung eines Artefakts, wie beispielsweise eines bestimmten Kilogramms Platin-Iridium, das in einem Labor in Frankreich aufbewahrt wird.

Die wissenschaftliche Definition eines Begriffs unterscheidet sich manchmal erheblich von seinem natürlichen Sprachgebrauch. Zum Beispiel überschneiden sich Masse und Gewicht in der Bedeutung im allgemeinen Diskurs, haben aber in der Mechanik unterschiedliche Bedeutungen . Wissenschaftliche Größen werden oft durch ihre Maßeinheiten charakterisiert, die später bei der Vermittlung der Arbeit mit konventionellen physikalischen Einheiten beschrieben werden können.

Neue Theorien werden manchmal entwickelt, nachdem festgestellt wurde, dass bestimmte Begriffe zuvor nicht ausreichend klar definiert wurden. Zum Beispiel beginnt Albert Einsteins erster Artikel über Relativität mit der Definition der Gleichzeitigkeit und der Mittel zur Bestimmung der Länge . Diese Ideen wurden von Isaac Newton mit "Ich definiere Zeit , Raum, Ort und Bewegung nicht als allgemein bekannt" übersprungen . Einsteins Aufsatz zeigt dann, dass sie (nämlich absolute Zeit und Länge unabhängig von der Bewegung) Annäherungen waren. Francis Crick warnt uns, dass es bei der Charakterisierung eines Themas jedoch verfrüht sein kann, etwas zu definieren, wenn es nicht verstanden wird. In Cricks Studium des Bewusstseins fand er es tatsächlich einfacher, Bewusstsein im visuellen System zu studieren , als beispielsweise den freien Willen zu studieren . Sein warnendes Beispiel war das Gen; das Gen war vor Watsons und Cricks bahnbrechender Entdeckung der DNA-Struktur viel schlechter verstanden; es wäre kontraproduktiv gewesen, vor ihnen viel Zeit mit der Definition des Gens zu verbringen.

DNA-Charakterisierungen

Die Geschichte der Entdeckung der Struktur der DNA ist ein klassisches Beispiel für die Elemente der wissenschaftlichen Methode : 1950 war bekannt, dass die genetische Vererbung eine mathematische Beschreibung hatte, beginnend mit den Studien von Gregor Mendel , und dass die DNA genetische Informationen enthielt ( Transformationsprinzip von Oswald Avery ). Aber der Mechanismus der Speicherung genetischer Informationen (dh Gene) in der DNA war unklar. Forscher in Bragg- Labor an der Universität von Cambridge gemacht Röntgenbeugungsbilder von verschiedenen Molekülen , beginnend mit Kristallen von Salz , und Fortschreiten zu komplizierteren Substanzen. Anhand von jahrzehntelang sorgfältig zusammengetragenen Hinweisen, angefangen bei der chemischen Zusammensetzung, wurde festgestellt, dass die physikalische Struktur der DNA charakterisiert werden kann und die Röntgenbilder das Vehikel sein sollten. .. 2. DNA-Hypothesen

Ein weiteres Beispiel: Präzession von Merkur

Präzession des Perihel  - im Fall von Quecksilber übertrieben, aber im Fall beobachtet S2 ‚s Apsidendrehung um Sagittarius A *

Das Charakterisierungselement kann ausgedehnte und umfangreiche Studien erfordern, sogar Jahrhunderte. Es dauerte Tausende von Jahren an Messungen von chaldäischen , indischen , persischen , griechischen , arabischen und europäischen Astronomen, um die Bewegung des Planeten Erde vollständig aufzuzeichnen . Newton konnte diese Messungen in die Konsequenzen seiner Bewegungsgesetze einbeziehen . Aber das Perihel des Planeten Merkur ‚s Umlaufbahn weist eine Präzession , die nicht vollständig erklärt Newton sein kann Gesetze der Bewegung (siehe Abbildung rechts), wie Leverrier in 1859. für den beobachteten Unterschied wies darauf hin , Mercurys Präzession zwischen der Newtonschen Theorie und Beobachtung war , Eines der Dinge, die Albert Einstein als möglichen frühen Test seiner Allgemeinen Relativitätstheorie einfielen . Seine relativistischen Berechnungen stimmten viel besser mit der Beobachtung überein als die Newtonsche Theorie. Der Unterschied beträgt ungefähr 43 Bogensekunden pro Jahrhundert.

Hypothesenentwicklung

Eine Hypothese ist eine vorgeschlagene Erklärung eines Phänomens oder alternativ ein begründeter Vorschlag, der eine mögliche Korrelation zwischen oder zwischen einer Reihe von Phänomenen vorschlägt.

Normalerweise haben Hypothesen die Form eines mathematischen Modells . Manchmal, aber nicht immer, können sie auch als existenzielle Aussagen formuliert werden , die angeben, dass ein bestimmter Fall des untersuchten Phänomens einige charakteristische und kausale Erklärungen hat, die die allgemeine Form universeller Aussagen haben , die sagen, dass jede Instanz des Phänomens eine besondere Eigenschaft.

Wissenschaftlern steht es frei, alle verfügbaren Ressourcen – ihre eigene Kreativität, Ideen aus anderen Bereichen, induktives Denken , Bayessche Schlussfolgerungen usw. – zu verwenden, um sich mögliche Erklärungen für ein zu untersuchendes Phänomen vorzustellen.Albert Einstein hat einmal festgestellt, dass "es keine logische Brücke zwischen Phänomenen und ihren theoretischen Prinzipien gibt". Charles Sanders Peirce , eine Seite von Aristoteles ( Prior Analytics , 2.25 ) entlehnt , beschrieb die beginnenden Stadien der Untersuchung , die durch die " Irritation des Zweifels " angeregt wurden , eine plausible Vermutung zu wagen , als abduktive Argumentation . Die Geschichte der Wissenschaft ist gefüllt mit Geschichten von Wissenschaftlern, die einen "Inspirationsblitz" oder eine Ahnung behaupteten, was sie dann motivierte, nach Beweisen zu suchen, um ihre Idee zu unterstützen oder zu widerlegen. Michael Polanyi hat diese Kreativität zum Kernstück seiner Methodendiskussion gemacht.

William Glen beobachtet das

Der Erfolg einer Hypothese oder ihr Dienst an der Wissenschaft liegt nicht nur in ihrer wahrgenommenen "Wahrheit" oder ihrer Fähigkeit, eine Vorgängeridee zu verdrängen, zu subsumieren oder zu reduzieren, sondern vielleicht mehr in ihrer Fähigkeit, die Forschung anzuregen, die aufschlussreiche ... kahle Vermutungen und vage Bereiche.

—  William Glen, The Mass Extinction Debates

Im Allgemeinen neigen Wissenschaftler dazu, nach Theorien zu suchen, die „ elegant “ oder „ schön “ sind. Wissenschaftler verwenden diese Begriffe oft, um sich auf eine Theorie zu beziehen, die den bekannten Tatsachen folgt, aber dennoch relativ einfach und leicht zu handhaben ist. Occams Rasiermesser dient als Faustregel für die Auswahl der wünschenswertesten unter einer Gruppe von gleichermaßen erklärenden Hypothesen.

Um den Bestätigungsfehler zu minimieren, der sich aus der Annahme einer einzelnen Hypothese ergibt, betont die starke Inferenz die Notwendigkeit, mehrere alternative Hypothesen zu unterhalten.

DNA-Hypothesen

Linus Pauling schlug vor, dass die DNA eine Tripelhelix sein könnte . Diese Hypothese wurde auch von Francis Crick und James D. Watson in Betracht gezogen, aber verworfen. Als Watson und Crick von Paulings Hypothese erfuhren, verstanden sie aus den vorhandenen Daten, dass Pauling falsch lag. und dass Pauling bald seine Schwierigkeiten mit dieser Struktur zugeben würde. Das Rennen war also im Gange , um die richtige Struktur herauszufinden (außer dass Pauling zu dem Zeitpunkt nicht bemerkte, dass er in einem Rennen war) ..3. DNA-Vorhersagen

Vorhersagen aus der Hypothese

Jede nützliche Hypothese ermöglicht Vorhersagen durch Schlussfolgerungen, einschließlich deduktiver Schlussfolgerungen . Es könnte das Ergebnis eines Experiments in einer Laborumgebung oder die Beobachtung eines Phänomens in der Natur vorhersagen. Die Vorhersage kann auch statistisch sein und nur mit Wahrscheinlichkeiten umgehen.

Es ist wichtig, dass das Ergebnis der Prüfung einer solchen Vorhersage derzeit nicht bekannt ist. Nur in diesem Fall erhöht ein erfolgreiches Ergebnis die Wahrscheinlichkeit, dass die Hypothese wahr ist. Wenn das Ergebnis bereits bekannt ist, wird es als Konsequenz bezeichnet und sollte bereits bei der Formulierung der Hypothese berücksichtigt werden .

Sind die Vorhersagen nicht durch Beobachtung oder Erfahrung zugänglich, so ist die Hypothese noch nicht überprüfbar und bleibt insofern im engeren Sinne unwissenschaftlich. Eine neue Technologie oder Theorie könnte die notwendigen Experimente möglich machen. Während beispielsweise eine Hypothese über die Existenz anderer intelligenter Arten mit wissenschaftlich fundierten Spekulationen überzeugen kann, kann kein bekanntes Experiment diese Hypothese überprüfen. Daher kann die Wissenschaft selbst wenig über die Möglichkeit sagen. In Zukunft könnte eine neue Technik einen experimentellen Test ermöglichen und die Spekulation würde dann Teil der anerkannten Wissenschaft werden.

DNA-Vorhersagen

James D. Watson , Francis Crick und andere stellten die Hypothese auf, dass DNA eine helikale Struktur hat. Dies implizierte, dass das Röntgenbeugungsmuster der DNA "x-förmig" wäre. Diese Vorhersage folgte aus der Arbeit von Cochran, Crick und Vand (und unabhängig von Stokes). Das Cochran-Crick-Vand-Stokes-Theorem lieferte eine mathematische Erklärung für die empirische Beobachtung, dass Beugung an helikalen Strukturen x-förmige Muster erzeugt.

In ihrer ersten Veröffentlichung stellten Watson und Crick auch fest, dass die von ihnen vorgeschlagene Doppelhelix- Struktur einen einfachen Mechanismus für die DNA-Replikation bereitstellt Material". ..4. DNA-Experimente

Ein weiteres Beispiel: Allgemeine Relativitätstheorie

Einsteins Allgemeine Relativitätstheorie macht mehrere spezifische Vorhersagen über die beobachtbare Struktur der Raumzeit , beispielsweise dass Licht in einem Gravitationsfeld gebogen wird und dass das Ausmaß der Biegung in präziser Weise von der Stärke dieses Gravitationsfeldes abhängt. Arthur Eddington ‚s Beobachtungen während einer Sonnenfinsternis 1919 gemacht unterstützt Allgemeinen Relativitäts statt Newtonsche Gravitation .

Experimente

Sobald Vorhersagen gemacht sind, können sie durch Experimente gesucht werden. Widersprechen die Testergebnisse den Vorhersagen, werden die zugrunde liegenden Hypothesen in Frage gestellt und weniger haltbar. Manchmal werden die Experimente falsch durchgeführt oder sind im Vergleich zu einem entscheidenden Experiment nicht sehr gut konzipiert . Wenn die experimentellen Ergebnisse die Vorhersagen bestätigen, werden die Hypothesen mit größerer Wahrscheinlichkeit als richtig erachtet, können aber dennoch falsch sein und weiter getestet werden. Die experimentelle Kontrolle ist eine Technik zum Umgang mit Beobachtungsfehlern. Diese Technik verwendet den Kontrast zwischen mehreren Stichproben oder Beobachtungen oder Populationen unter unterschiedlichen Bedingungen , um zu sehen, was variiert oder gleich bleibt. Wir variieren die Bedingungen für die Messungen, um zu isolieren, was sich geändert hat. Mills Kanons können uns dann helfen herauszufinden, was der wichtige Faktor ist. Die Faktorenanalyse ist eine Technik, um den wichtigen Faktor in einem Effekt zu entdecken.

Je nach Vorhersage können die Experimente unterschiedliche Formen haben. Es kann ein klassisches Experiment im Labor, eine Doppelblindstudie oder eine archäologische Ausgrabung sein . Sogar ein Flugzeug von New York nach Paris zu nehmen, ist ein Experiment, das die aerodynamischen Hypothesen testet, die für den Bau des Flugzeugs verwendet wurden.

Wissenschaftler nehmen eine Haltung der Offenheit und Rechenschaftspflicht der Experimentierenden an. Detaillierte Aufzeichnungen sind unerlässlich, um die Aufzeichnung und Berichterstattung über die Versuchsergebnisse zu unterstützen und die Wirksamkeit und Integrität des Verfahrens zu unterstützen. Sie werden auch helfen, die experimentellen Ergebnisse zu reproduzieren, wahrscheinlich von anderen. Spuren dieser Ansatz kann in der Arbeit von zu sehen Hipparchus (190-120 BCE), bei der Bestimmung eines Wertes für die Präzession der Erde, während kontrollierte Experimente in den Werken werden kann gesehen al-Battani (853-929 CE) und Alhazen (965-1039 n. Chr.).

DNA-Experimente

Watson und Crick zeigten einem Team vom Kings College – Rosalind Franklin , Maurice Wilkins und Raymond Gosling – einen ersten (und falschen) Vorschlag für die Struktur der DNA . Franklin entdeckte sofort die Mängel, die den Wassergehalt betrafen. Später sah Watson Franklins detaillierte Röntgenbeugungsbilder, die eine X-Form zeigten und bestätigen konnte, dass die Struktur helixförmig war. Dies entfachte den Modellbau von Watson und Cricks neu und führte zu der richtigen Struktur. ..1. DNA-Charakterisierungen

Bewertung und Verbesserung

Die wissenschaftliche Methode ist iterativ. In jedem Stadium ist es möglich, seine Genauigkeit und Präzision zu verfeinern , so dass einige Überlegungen den Wissenschaftler dazu veranlassen, einen früheren Teil des Prozesses zu wiederholen. Das Versäumnis, eine interessante Hypothese zu entwickeln, kann dazu führen, dass ein Wissenschaftler das betrachtete Thema neu definiert. Wenn eine Hypothese keine interessanten und überprüfbaren Vorhersagen liefert, kann dies dazu führen, dass die Hypothese oder die Definition des Themas überdacht wird. Wenn ein Experiment nicht zu interessanten Ergebnissen führt, kann ein Wissenschaftler die experimentelle Methode, die Hypothese oder die Definition des Themas überdenken.

Bis 1027 konnte Alhazen anhand seiner Messungen der Lichtbrechung schlussfolgern, dass der Weltraum weniger dicht war als die Luft , das heißt: "Der Himmelskörper ist seltener als der Luftkörper".

Andere Wissenschaftler können ihre eigene Forschung beginnen und jederzeit in den Prozess einsteigen . Sie könnten die Charakterisierung übernehmen und ihre eigene Hypothese formulieren, oder sie könnten die Hypothese übernehmen und ihre eigenen Vorhersagen ableiten. Häufig wird das Experiment nicht von der Person durchgeführt, die die Vorhersage gemacht hat, und die Charakterisierung basiert auf Experimenten, die von jemand anderem durchgeführt wurden. Veröffentlichte Ergebnisse von Experimenten können auch als Hypothese dienen, die ihre eigene Reproduzierbarkeit vorhersagt.

DNA-Iterationen

Nach beträchtlichen fruchtlosen Experimenten, die von ihrem Vorgesetzten davon abgehalten wurden, weiterzumachen, und zahlreichen Fehlstarts waren Watson und Crick in der Lage, die wesentliche Struktur der DNA durch konkrete Modellierung der physikalischen Formen der Nukleotide, aus denen sie besteht, abzuleiten. Sie orientierten sich an den von Linus Pauling abgeleiteten Bindungslängen und an den Röntgenbeugungsbildern von Rosalind Franklin . .. DNA-Beispiel

Bestätigung

Wissenschaft ist ein soziales Unternehmen, und wissenschaftliche Arbeit wird von der wissenschaftlichen Gemeinschaft tendenziell akzeptiert, wenn sie bestätigt wurde. Entscheidend ist, dass experimentelle und theoretische Ergebnisse von anderen innerhalb der wissenschaftlichen Gemeinschaft reproduziert werden müssen. Forscher haben ihr Leben für diese Vision gegeben; Georg Wilhelm Richmann wurde von einem Kugelblitz (1753) getötet, als er versuchte, das Drachenflugexperiment von Benjamin Franklin von 1752 zu replizieren .

Zum Schutz vor schlechter Wissenschaft und betrügerischen Daten haben staatliche Forschungseinrichtungen wie die National Science Foundation und wissenschaftliche Zeitschriften, darunter Nature und Science , eine Richtlinie, dass Forscher ihre Daten und Methoden archivieren müssen, damit andere Forscher die Daten testen können und Methoden und bauen auf der bisherigen Forschung auf. Die Archivierung wissenschaftlicher Daten kann in mehreren nationalen Archiven in den USA oder im World Data Center erfolgen .

Wissenschaftliche Untersuchung

Wissenschaftliche Forschung zielt im Allgemeinen darauf ab, Wissen in Form von überprüfbaren Erklärungen zu gewinnen , mit denen Wissenschaftler die Ergebnisse zukünftiger Experimente vorhersagen können. Dies ermöglicht es Wissenschaftlern, das untersuchte Thema besser zu verstehen und dieses Verständnis später zu nutzen, um in seine kausalen Mechanismen einzugreifen (z. B. um Krankheiten zu heilen). Je besser eine Erklärung für Vorhersagen ist, desto nützlicher kann sie häufig sein, und desto wahrscheinlicher wird sie weiterhin eine Reihe von Beweisen besser erklären als ihre Alternativen. Die erfolgreichsten Erklärungen – solche, die unter einer Vielzahl von Umständen genaue Vorhersagen machen – werden oft als wissenschaftliche Theorien bezeichnet .

Die meisten experimentellen Ergebnisse führen zu keinen großen Veränderungen im menschlichen Verständnis; Verbesserungen des theoretischen wissenschaftlichen Verständnisses resultieren typischerweise aus einem allmählichen Entwicklungsprozess im Laufe der Zeit, manchmal über verschiedene Bereiche der Wissenschaft hinweg. Wissenschaftliche Modelle unterscheiden sich in dem Umfang, in dem sie experimentell getestet wurden und wie lange, und in ihrer Akzeptanz in der wissenschaftlichen Gemeinschaft. Im Allgemeinen werden Erklärungen im Laufe der Zeit akzeptiert, wenn sich Beweise zu einem bestimmten Thema anhäufen, und die fragliche Erklärung erweist sich bei der Erklärung der Beweise als aussagekräftiger als ihre Alternativen. Häufig formulieren nachfolgende Forscher die Erklärungen im Laufe der Zeit neu oder kombinierten Erklärungen zu neuen Erklärungen.

Tow sieht die wissenschaftliche Methode als einen evolutionären Algorithmus , der auf Wissenschaft und Technologie angewendet wird. Siehe Ceteris paribus und Mutatis mutandis

Eigenschaften wissenschaftlicher Forschung

Wissenschaftliches Wissen ist eng mit gebundener empirischen Befunden und kann davon abhängig, dass Verfälschung , wenn neue experimentelle Beobachtungen unvereinbar mit dem , was gefunden wird. Das heißt, keine Theorie kann jemals als endgültig angesehen werden, da neue problematische Beweise entdeckt werden könnten. Wenn solche Beweise gefunden werden, kann eine neue Theorie vorgeschlagen werden, oder (häufiger) wird festgestellt, dass Modifikationen der vorherigen Theorie ausreichen, um die neuen Beweise zu erklären. Die Stärke einer Theorie bezieht sich darauf, wie lange sie ohne wesentliche Änderung ihrer Kernprinzipien bestanden hat ( siehe invariante Erklärungen ).

Theorien können auch von anderen Theorien subsumiert werden. Zum Beispiel erklärten Newtons Gesetze Tausende von Jahren wissenschaftlicher Beobachtungen der Planeten fast perfekt . Allerdings wurden diese Gesetze dann als Sonderfälle einer allgemeineren Theorie ( Relativität ) bestimmt, die sowohl die (bislang ungeklärten) Ausnahmen zu den Newtonschen Gesetzen erklärte als auch andere Beobachtungen wie die Ablenkung von Licht durch die Schwerkraft vorhersagte und erklärte . So können in bestimmten Fällen unabhängige, unzusammenhängende, wissenschaftliche Beobachtungen verbunden werden, vereint durch Prinzipien zunehmender Erklärungskraft.

Da neue Theorien umfassender sein können als ihre Vorgänger und somit mehr erklären können als frühere, könnten Nachfolgetheorien einen höheren Standard erfüllen, indem sie eine größere Menge an Beobachtungen erklären als ihre Vorgänger. Zum Beispiel erklärt die Evolutionstheorie die Vielfalt des Lebens auf der Erde , wie sich Arten an ihre Umgebung anpassen und viele andere Muster, die in der natürlichen Welt beobachtet werden; seine letzte große Modifikation war die Vereinigung mit der Genetik , um die moderne evolutionäre Synthese zu bilden . In späteren Modifikationen hat es auch Aspekte vieler anderer Gebiete wie der Biochemie und der Molekularbiologie subsumiert .

Überzeugungen und Vorurteile

Der fliegende Galopp, wie dieses Gemälde ( Théodore Géricault , 1821) zeigt, ist gefälscht ; siehe unten.
Muybridges Fotografien von The Horse in Motion , 1878, wurden verwendet, um die Frage zu beantworten, ob alle vier Füße eines galoppierenden Pferdes jemals gleichzeitig über dem Boden stehen. Dies demonstriert die Verwendung der Fotografie als experimentelles Werkzeug in der Wissenschaft.

Die wissenschaftliche Methodik weist oft an, dass Hypothesen wo immer möglich unter kontrollierten Bedingungen getestet werden. Dies ist in bestimmten Bereichen, beispielsweise in den Biowissenschaften, häufig möglich, in anderen Bereichen, beispielsweise in der Astronomie, schwieriger.

Die Praxis der experimentellen Kontrolle und Reproduzierbarkeit kann dazu führen, dass die potenziell schädlichen Auswirkungen der Umstände und bis zu einem gewissen Grad persönliche Voreingenommenheit verringert werden. Zum Beispiel können bereits bestehende Überzeugungen die Interpretation von Ergebnissen verändern, wie bei Bestätigungsverzerrungen ; Dies ist eine Heuristik , die eine Person mit einer bestimmten Überzeugung dazu führt, Dinge als Verstärkung ihrer Überzeugung zu sehen, selbst wenn ein anderer Beobachter anderer Meinung sein könnte (mit anderen Worten, Menschen neigen dazu, das zu beobachten, was sie zu beobachten erwarten).

[D]ie Gedankengang wird durch die Irritation des Zweifels erregt und hört auf, wenn der Glaube erreicht ist.

—  CS Peirce , Wie man unsere Ideen klar macht , 1877

Ein historisches Beispiel ist der Glaube, dass die Beine eines galoppierenden Pferdes an dem Punkt gespreizt sind, an dem keines der Pferdebeine den Boden berührt, bis dieses Bild von seinen Anhängern in Gemälden aufgenommen wird. Die ersten Stop-Action-Bilder eines Pferdegalopps von Eadweard Muybridge zeigten jedoch, dass dies falsch ist und dass die Beine stattdessen zusammengezogen sind.

Eine weitere wichtige menschliche Voreingenommenheit, die eine Rolle spielt, ist die Bevorzugung neuer, überraschender Aussagen (siehe Appell an die Neuheit ), was zu einer Suche nach Beweisen für die Wahrheit des Neuen führen kann. Schlecht bestätigte Überzeugungen können mit einer weniger strengen Heuristik geglaubt und darauf reagiert werden.

Goldhaber und Nieto veröffentlichten 2010 die Beobachtung, dass, wenn theoretische Strukturen mit „vielen eng benachbarten Fächern durch die Verknüpfung theoretischer Konzepte beschrieben werden, die theoretische Struktur eine Robustheit erhält, die ein Umstürzen immer schwerer – wenn auch nie unmöglich – macht“. Wenn eine Erzählung konstruiert ist, werden ihre Elemente leichter zu glauben.

Fleck 1979 , S. 27 Anmerkungen "Wörter und Ideen sind ursprünglich phonetische und mentale Äquivalenzen der mit ihnen zusammenfallenden Erfahrungen. ... Solche Proto-Ideen sind zunächst immer zu breit und ungenügend spezialisiert. ... viele Details und Beziehungen entstanden sind, sie leistet dauerhaften Widerstand gegen alles, was ihr widerspricht". Manchmal werden die Elemente dieser Beziehungen a priori angenommen oder enthalten einen anderen logischen oder methodischen Fehler in dem Prozess, der sie letztendlich hervorgebracht hat. Donald M. MacKay hat diese Elemente im Hinblick auf die Grenzen der Messgenauigkeit analysiert und sie mit instrumentellen Elementen in einer Kategorie von Messungen in Beziehung gesetzt.

Modelle wissenschaftlicher Forschung

Klassisches Modell

Das klassische Modell der wissenschaftlichen Untersuchung stammt von Aristoteles, der die Formen des ungefähren und genauen Denkens unterschied, das dreifache Schema des abduktiven , deduktiven und induktiven Schlusses darlegte und auch die zusammengesetzten Formen wie das Denken analog behandelte .

Hypothetisch-deduktives Modell

Das hypothetisch-deduktive Modell oder die Methode ist eine vorgeschlagene Beschreibung der wissenschaftlichen Methode. Dabei stehen Vorhersagen aus der Hypothese im Mittelpunkt: Welche Konsequenzen ergeben sich, wenn man davon ausgeht, dass die Hypothese wahr ist?

Wenn eine anschließende empirische Untersuchung nicht zeigt, dass diese Konsequenzen oder Vorhersagen der beobachtbaren Welt entsprechen, kann die Hypothese als falsch geschlussfolgert werden.

Pragmatisches Modell

Im Jahr 1877 charakterisierte Charles Sanders Peirce (1839–1914) Forschung im Allgemeinen nicht als Streben nach Wahrheit an sich, sondern als den Kampf, sich von irritierenden, hemmenden Zweifeln, die aus Überraschungen, Meinungsverschiedenheiten und dergleichen entstanden sind, zu lösen und zu einem sicheren Glauben zu gelangen , wobei der Glaube derjenige ist, auf den man bereit ist zu handeln. Er fasste wissenschaftliche Forschung als Teil eines breiteren Spektrums ein und als Ansporn, wie Forschung im Allgemeinen, durch tatsächliche Zweifel, nicht bloß verbale oder hyperbolische Zweifel , die er für fruchtlos hielt. Er skizzierte vier Methoden zur Klärung von Meinungen, geordnet vom am wenigsten zum erfolgreichsten:

  1. Die Methode der Hartnäckigkeit (Politik des Festhaltens an der ursprünglichen Überzeugung) – die Trost und Entschlossenheit bringt, aber dazu führt, dass man versucht, gegensätzliche Informationen und die Ansichten anderer zu ignorieren, als ob die Wahrheit an sich privat und nicht öffentlich wäre. Es widerspricht dem gesellschaftlichen Impuls und gerät leicht ins Stocken, da man durchaus bemerken kann, wenn die Meinung eines anderen so gut ist wie die eigene ursprüngliche Meinung. Seine Erfolge können glänzen, neigen aber dazu, vorübergehend zu sein.
  2. Die Methode der Autorität – die Meinungsverschiedenheiten überwindet, aber manchmal brutal. Ihre Erfolge können majestätisch und langlebig sein, aber sie können nicht gründlich genug wirken, um Zweifel auf unbestimmte Zeit zu unterdrücken, insbesondere wenn die Menschen von der Gegenwart und Vergangenheit anderer Gesellschaften erfahren.
  3. Die Methode des Apriori – die weniger brutal Konformität fördert, sondern Meinungen als so etwas wie Geschmäcker fördert, die in Gesprächen und Perspektivenvergleichen im Sinne des „Vernunftgefälligen“ entstehen. Dabei hängt es von der Mode in Paradigmen ab und dreht sich im Laufe der Zeit. Sie ist intellektueller und respektabler, stützt sich aber wie die ersten beiden Methoden auf zufällige und kapriziöse Überzeugungen, die manche Geister dazu bringen, daran zu zweifeln.
  4. Die wissenschaftliche Methode – die Methode, bei der sich das Forschen für fehlbar hält und sich selbst absichtlich prüft und kritisiert, korrigiert und verbessert.

Peirce vertrat die Ansicht, dass langsames, stolperndes Rationalisieren in praktischen Angelegenheiten dem Instinkt und dem traditionellen Gefühl gefährlich unterlegen sein kann und dass die wissenschaftliche Methode am besten für die theoretische Forschung geeignet ist, die ihrerseits nicht durch die anderen Methoden und praktischen Ziele behindert werden sollte; Die "erste Regel" der Vernunft lautet, dass man, um zu lernen, den Wunsch haben muss, zu lernen, und folglich darf man dem Forschen nicht den Weg versperren. Die wissenschaftliche Methode übertrifft die anderen dadurch, dass sie bewusst so konzipiert ist, dass sie – schließlich – zu den sichersten Überzeugungen gelangt, auf denen die erfolgreichsten Praktiken basieren können. Ausgehend von der Idee, dass Menschen nicht die Wahrheit an sich suchen, sondern stattdessen irritierende, hemmende Zweifel unterdrücken, zeigte Peirce, wie durch den Kampf einige dazu kommen können, sich der Wahrheit zu unterwerfen, um die Integrität des Glaubens zu erhalten, als Wahrheit die Führung des Potenzials zu suchen richtig zu ihrem vorgegebenen Ziel praktizieren und sich an die wissenschaftliche Methode binden.

Für Peirce beinhaltet die rationale Untersuchung Voraussetzungen über die Wahrheit und das Reale; Vernunft bedeutet, als Prinzip der Selbstregulation des Denkers vorauszusetzen (und zumindest zu hoffen), dass das Reale auffindbar und unabhängig von unseren Meinungsverschiedenheiten ist. In diesem Sinne definierte er Wahrheit als die Übereinstimmung eines Zeichens (insbesondere eines Satzes) mit seinem Gegenstand und pragmatisch nicht als den tatsächlichen Konsens einer bestimmten, endlichen Gemeinschaft (so dass eine Untersuchung einer Expertenbefragung gleichkäme). , sondern als die letzte Meinung , die alle Ermittler würden früher oder später erreichen , aber immer noch unvermeidlich, wenn sie Ermittlungen weit genug schieben waren, auch wenn sie von verschiedenen Punkten beginnen. Gleichzeitig definierte er das Reale als das Objekt eines wahren Zeichens (sei es eine Möglichkeit oder Eigenschaft, eine Realität oder eine rohe Tatsache oder eine Notwendigkeit oder Norm oder ein Gesetz), was es unabhängig von der Meinung einer endlichen Gemeinschaft ist und pragmatisch , hängt nur von der endgültigen Stellungnahme ab, die in einer ausreichenden Untersuchung vorgesehen ist. Das ist ein Ziel so weit oder nah wie die Wahrheit selbst für dich oder mich oder die gegebene endliche Gemeinschaft. Daher läuft seine Untersuchungstheorie auf "Do the science" hinaus. Diese Vorstellungen von Wahrheit und Wirklichkeit beinhalten die Idee einer Gemeinschaft, die sowohl ohne bestimmte Grenzen (und damit potenziell selbstkorrigierend, soweit erforderlich) als auch zu einer bestimmten Erkenntnissteigerung fähig ist. Als Schlußfolgerung: "Logik wurzelt im sozialen Prinzip", da sie von einem in gewissem Sinne unbegrenzten Standpunkt abhängt.

Mit besonderem Augenmerk auf die Generierung von Erklärungen skizzierte Peirce die wissenschaftliche Methode als Koordination von drei Arten von Schlussfolgerungen in einem gezielten Zyklus, der darauf abzielte, Zweifel auszuräumen, wie folgt (in §III–IV in „Ein vernachlässigtes Argument“, sofern nicht anders angegeben):

  1. Abduktion (oder Retroduktion ). Raten, Rückschluss auf erklärende Hypothesen zur Auswahl der besten, die es wert sind, ausprobiert zu werden. Von der Entführung unterscheidet Peirce die Induktion als das Ableiten des Wahrheitsanteils der Hypothese auf der Grundlage von Tests. Jede Untersuchung, sei es nach Ideen, rohen Tatsachen oder Normen und Gesetzen, ergibt sich aus überraschenden Beobachtungen in einem oder mehreren dieser Bereiche (und zum Beispiel in jedem Stadium einer bereits laufenden Untersuchung). Alle Erklärungsinhalte von Theorien stammen aus der Entführung, die eine neue oder fremde Idee errät, um auf einfache und wirtschaftliche Weise ein überraschendes oder kompliziertes Phänomen zu erklären. Oftmals rät selbst ein gut vorbereiteter Verstand falsch. Aber der Erfolg unserer Vermutungen geht weit über den reinen Glücksfaktor hinaus und scheint aus der Abstimmung auf die Natur durch entwickelte oder angeborene Instinkte geboren zu sein, zumal beste Vermutungen optimal plausibel und einfach sind im Sinne, sagte Peirce, des "Einfachen und Natürlichen". “, wie durch Galileis natürliches Licht der Vernunft und im Unterschied zur „logischen Einfachheit“. Die Entführung ist die fruchtbarste, aber am wenigsten sichere Art der Schlussfolgerung. Ihre allgemeine Begründung ist induktiv: Sie ist oft genug erfolgreich, und ohne sie besteht keine Hoffnung, die (oft generationenübergreifende) Erforschung neuer Wahrheiten ausreichend zu beschleunigen. Die koordinative Methode führt von der Entführung einer plausiblen Hypothese zur Beurteilung ihrer Testbarkeit und der Frage, wie ihr Versuch die Untersuchung selbst einsparen würde.Peirce nennt seinen Pragmatismus "die Logik der Entführung". Seine pragmatische Maxime lautet: „Überlegen Sie, welche Wirkungen Sie sich vorstellen können, die möglicherweise praktische Bedeutung haben. Sein Pragmatismus ist eine Methode, begriffliche Verwirrungen fruchtbar zu reduzieren, indem er die Bedeutung jeder Vorstellung mit den denkbaren praktischen Implikationen der konzipierten Wirkungen ihres Objekts gleichsetzt – eine Methode der experimentellen mentalen Reflexion, die der Bildung von Hypothesen förderlich und deren Überprüfung förderlich ist. Es begünstigt die Effizienz. Da die Hypothese unsicher ist, muss sie praktische Implikationen haben, die zumindest zu mentalen Tests führen und sich in der Wissenschaft für wissenschaftliche Tests eignen. Eine einfache, aber unwahrscheinliche Vermutung kann, wenn sie nicht kostspielig auf Falschheit zu testen ist, an erster Stelle zum Testen gehören. Eine Vermutung ist an sich einen Test wert, wenn sie eine instinktive Plausibilität oder eine begründete objektive Wahrscheinlichkeit aufweist, während eine subjektive Wahrscheinlichkeit , obwohl begründet, irreführend verführerisch sein kann. Vermutungen können strategisch wegen ihrer Vorsicht (für die Peirce das Spiel Twenty Questions als Beispiel angeführt hat ), ihrer Breite und Unkomplexität ausgewählt werden. Man kann hoffen, nur das zu entdecken, was die Zeit ohnehin durch ausreichende Erfahrung eines Lernenden offenbaren würde, also ist es wichtig, es zu beschleunigen; die Ökonomie der Forschung fordert sozusagen den Sprung der Entführung und regiert ihre Kunst.
  2. Abzug . Zwei Stufen:
    1. Erklärung. Unklar vorausgesetzte, aber deduktive Analyse der Hypothese, um ihre Teile so klar wie möglich zu machen.
    2. Demonstration: Deduktive Argumentation, euklidische Vorgehensweise. Explizite Ableitung der Konsequenzen der Hypothese als Vorhersagen, für die Induktion zum Testen, über zu findende Beweise. Korollarisch oder bei Bedarf theoretisch.
  3. Induktion . Die langfristige Gültigkeit der Induktionsregel ergibt sich aus dem (allgemein der Argumentation vorausgesetzten) Grundsatz, dass das Reale nur Gegenstand der endgültigen Meinung ist, zu der eine angemessene Untersuchung führen würde; alles, zu dem ein solcher Prozess nie führen würde, wäre nicht real. Die Induktion, die laufende Tests oder Beobachtungen umfasst, folgt einer Methode, die, wenn sie ausreichend beharrlich ist, ihren Fehler unter ein vorher bestimmtes Maß verringert. Drei Stufen:
    1. Einstufung. Unklar vorausgesetzte, aber induktive Einordnung von Erfahrungsgegenständen unter allgemeine Ideen.
    2. Bewährung: direkte induktive Argumentation. Grob (die Aufzählung von Instanzen) oder graduell (neue Schätzung des Wahrheitsanteils in der Hypothese nach jedem Test). Die schrittweise Einführung ist qualitativ oder quantitativ; wenn qualitativ, dann abhängig von Gewichtungen von Qualitäten oder Charakteren; wenn quantitativ, dann abhängig von Messungen oder von Statistiken oder von Zählungen.
    3. Sentential Induktion. "... die durch induktives Denken die verschiedenen Prüfungen einzeln bewertet, dann ihre Kombinationen, dann eine Selbstbewertung dieser Bewertungen selbst vornimmt und das endgültige Urteil über das Gesamtergebnis fällt."

Invariante Erklärung

In einem TED-Vortrag 2009 legte Deutsch ein Kriterium für wissenschaftliche Erklärungen dar, das darin besteht, Invarianten zu formulieren: neue Informationen oder unerwartete Bedingungen]".

"Eine schlechte Erklärung ist leicht zu variieren."
"Die Suche nach schwer zu variierenden Erklärungen ist der Ursprung allen Fortschritts"
"Dass die Wahrheit aus schwer zu variierenden Behauptungen über die Realität besteht, ist die wichtigste Tatsache über die physische Welt."

Invarianz als grundlegender Aspekt einer wissenschaftlichen Wirklichkeitsbetrachtung ist seit langem Teil der Wissenschaftsphilosophie: So weist Friedel Weinerts Buch The Scientist as Philosopher (2004) auf die Präsenz des Themas in vielen Schriften ab etwa 1900 hin, wie etwa Werken von Henri Poincaré (1902), Ernst Cassirer (1920), Max Born (1949 und 1953), Paul Dirac (1958), Olivier Costa de Beauregard (1966), Eugene Wigner (1967), Lawrence Sklar (1974), Michael Friedman ( 1983), John D. Norton (1992), Nicholas Maxwell (1993), Alan Cook (1994), Alistair Cameron Crombie (1994), Margaret Morrison (1995), Richard Feynman (1997), Robert Nozick (2001) und Tim Maudlin (2002); 2013 untersuchten José Díez, Kareem Khalifa und Bert Leuridan Bernhard Nickels generalistische Position von 2010 zu domäneninvarianten Erklärungstheorien.

Kommunikation und Gemeinschaft

Häufig wird die wissenschaftliche Methode nicht nur von einer einzelnen Person, sondern auch von mehreren direkt oder indirekt zusammenarbeitenden Personen angewendet. Eine solche Zusammenarbeit kann als wichtiger Bestandteil einer Scientific Community angesehen werden . Innerhalb einer solchen Umgebung werden verschiedene Standards der wissenschaftlichen Methodik verwendet.

Peer-Review-Bewertung

Wissenschaftliche Zeitschriften verwenden ein Peer-Review- Verfahren , bei dem die Manuskripte von Wissenschaftlern von Herausgebern wissenschaftlicher Zeitschriften an (in der Regel ein bis drei, meist anonyme) fachkundige Mitwissenschaftler zur Bewertung eingereicht werden. Bei bestimmten Zeitschriften wählt die Zeitschrift selbst die Gutachter aus; während in anderen (insbesondere extrem spezialisierten Zeitschriften) der Autor des Manuskripts möglicherweise Gutachter empfiehlt. Die Gutachter können eine Veröffentlichung empfehlen oder nicht, oder sie empfehlen eine Veröffentlichung mit vorgeschlagenen Änderungen oder manchmal eine Veröffentlichung in einer anderen Zeitschrift. Dieser Standard wird von verschiedenen Zeitschriften in unterschiedlichem Maße praktiziert und kann dazu führen, dass die Literatur frei von offensichtlichen Fehlern bleibt und die Qualität des Materials allgemein verbessert wird, insbesondere in den Zeitschriften, die den Standard am strengsten anwenden. Das Peer-Review-Verfahren kann Grenzen haben, wenn es um Forschung außerhalb des konventionellen wissenschaftlichen Paradigmas geht: Probleme des " Gruppendenkens " können die offene und faire Beratung einiger neuer Forschungen beeinträchtigen.

Dokumentation und Replikation

Manchmal können Experimentatoren während ihrer Experimente systematische Fehler machen, aus verschiedenen Gründen von Standardmethoden und -praktiken ( Pathologische Wissenschaft ) abweichen oder in seltenen Fällen absichtlich falsche Ergebnisse melden. Gelegentlich könnten deshalb andere Wissenschaftler versuchen, die Experimente zu wiederholen, um die Ergebnisse zu duplizieren.

Archivierung

Forscher praktizieren manchmal die Archivierung wissenschaftlicher Daten , beispielsweise in Übereinstimmung mit den Richtlinien staatlicher Förderagenturen und wissenschaftlicher Zeitschriften. In diesen Fällen können detaillierte Aufzeichnungen ihrer experimentellen Verfahren, Rohdaten, statistischen Analysen und Quellcode aufbewahrt werden, um die Methodik und Praxis des Verfahrens nachzuweisen und mögliche zukünftige Versuche zur Reproduktion des Ergebnisses zu unterstützen . Diese Verfahrensprotokolle können auch bei der Konzeption neuer Experimente zum Testen der Hypothese hilfreich sein und können sich für Ingenieure als nützlich erweisen, die die möglichen praktischen Anwendungen einer Entdeckung untersuchen könnten.

Datenübertragung

Wenn zusätzliche Informationen benötigt werden, bevor eine Studie reproduziert werden kann, kann der Autor der Studie gebeten werden, diese bereitzustellen. Sie können diese zur Verfügung stellen, oder wenn der Autor die Weitergabe von Daten verweigert , können Einsprüche an die Herausgeber der Zeitschrift, die die Studie veröffentlicht haben, oder an die Institution, die die Forschung finanziert hat, gerichtet werden.

Einschränkungen

Da ein Wissenschaftler nicht alles aufzeichnen kann, was in einem Experiment passiert ist, werden Fakten gemeldet, die aufgrund ihrer offensichtlichen Relevanz ausgewählt wurden. Dies kann später unvermeidlich zu Problemen führen, wenn ein vermeintlich irrelevantes Merkmal in Frage gestellt wird. Heinrich Hertz gab zum Beispiel nicht die Größe des Raums an, in dem die Maxwell-Gleichungen getestet wurden, was sich später als eine kleine Abweichung in den Ergebnissen herausstellte. Das Problem ist, dass Teile der Theorie selbst angenommen werden müssen, um die experimentellen Bedingungen auszuwählen und anzugeben. Die Beobachtungen werden daher manchmal als „theoriegeladen“ bezeichnet.

Wissenschaft komplexer Systeme

Auf komplexe Systeme angewandte Wissenschaft kann Elemente wie Transdisziplinarität , Systemtheorie , Kontrolltheorie und wissenschaftliche Modellierung beinhalten . Das Santa Fe Institute untersucht solche Systeme; Murray Gell-Mann verknüpft diese Themen mit Message Passing .

Einige biologische Systeme, wie zum Beispiel diejenigen, die an der Propriozeption beteiligt sind , wurden durch technische Techniken erfolgreich modelliert .

Im Allgemeinen kann es schwierig sein, die wissenschaftliche Methode stringent auf verschiedene, miteinander verbundene Systeme und große Datensätze anzuwenden. Insbesondere Praktiken, die im Rahmen von Big Data verwendet werden , wie prädiktive Analytik , können als im Widerspruch zur wissenschaftlichen Methode stehen, da einige der Daten möglicherweise von den Parametern beraubt wurden, die für eine Erklärung in alternativen Hypothesen von Bedeutung sein könnten; somit würden die gestrippten Daten nur dazu dienen, die Nullhypothese in der Predictive-Analytics-Anwendung zu unterstützen. Fleck 1979 , S. 38–50 stellt fest, dass „eine wissenschaftliche Entdeckung ohne Berücksichtigung der gesellschaftlichen Praktiken , die sie bedingen, unvollständig bleibt “.

Philosophie und Wissenschaftssoziologie

Analytische Philosophie

Die Wissenschaftsphilosophie befasst sich mit der zugrunde liegenden Logik der wissenschaftlichen Methode, mit dem, was Wissenschaft von Nicht-Wissenschaft unterscheidet , und die in der Wissenschaft implizite Ethik . Es gibt Grundannahmen, die von mindestens einem prominenten Wissenschaftler aus der Philosophie abgeleitet wurden und die die Grundlage der wissenschaftlichen Methode bilden – nämlich dass die Realität objektiv und konsistent ist, dass der Mensch die Fähigkeit hat, die Realität genau wahrzunehmen, und dass es rationale Erklärungen für Elemente gibt der realen Welt. Diese Annahmen des methodologischen Naturalismus bilden eine Grundlage, auf der sich die Wissenschaft gründen kann. Logisch-positivistische , empiristische , falsifikationistische und andere Theorien haben diese Annahmen kritisiert und alternative Darstellungen der Logik der Wissenschaft gegeben, aber jede wurde auch selbst kritisiert.

Thomas Kuhn untersuchte die Wissenschaftsgeschichte in seinem Werk The Structure of Scientific Revolutions und stellte fest, dass sich die von Wissenschaftlern verwendete tatsächliche Methode dramatisch von der damals vertretenen Methode unterschied. Seine Beobachtungen der wissenschaftlichen Praxis sind im Wesentlichen soziologisch und sprechen nicht darüber, wie Wissenschaft in anderen Zeiten und Kulturen praktiziert wird oder praktiziert werden kann.

Norwood Russell Hanson , Imre Lakatos und Thomas Kuhn haben sich ausführlich mit dem "theoriegeladenen" Charakter der Beobachtung beschäftigt. Hanson (1958) prägte zuerst den Begriff für die Idee, dass alle Beobachtungen vom konzeptionellen Rahmen des Beobachters abhängig sind , und nutzte das Konzept der Gestalt, um zu zeigen, wie Vorurteile sowohl Beobachtung als auch Beschreibung beeinflussen können. Er eröffnet Kapitel 1 mit einer Diskussion der Golgi-Körper und ihrer anfänglichen Zurückweisung als Artefakt der Färbetechnik und einer Diskussion von Brahe und Kepler, die die Morgendämmerung beobachten und trotz des gleichen physiologischen Phänomens einen "anderen" Sonnenaufgang sehen. Kuhn und Feyerabend erkennen die bahnbrechende Bedeutung von Hansons Werk an.

Kuhn sagte, der Wissenschaftler habe im Allgemeinen eine Theorie im Sinn, bevor er Experimente entwirft und durchführt , um empirische Beobachtungen zu machen, und dass der "Weg von der Theorie zur Messung fast nie rückwärts gegangen werden kann". Für Kuhn bedeutet dies, dass die Art der Theorieprüfung von der Natur der Theorie selbst diktiert wird , was Kuhn zu der These veranlasste, dass "sobald sie von einem Beruf übernommen wurde ... keine Theorie durch quantitative Tests als überprüfbar anerkannt wird". es ist noch nicht vorbei" (was Kuhns rationalistischen Denkstil enthüllt).

Postmoderne und Wissenschaftskriege

Paul Feyerabend untersuchte in ähnlicher Weise die Geschichte der Wissenschaft und wurde dazu gebracht, zu leugnen, dass Wissenschaft ein echter methodischer Prozess ist. In seinem Buch Against Method argumentiert er, dass wissenschaftlicher Fortschritt nicht das Ergebnis einer bestimmten Methode ist . Im Wesentlichen sagt er, dass man für jede spezifische Methode oder Norm der Wissenschaft eine historische Episode finden kann, in der ihre Verletzung zum Fortschritt der Wissenschaft beigetragen hat. Wenn also Anhänger der wissenschaftlichen Methode eine einzige allgemeingültige Regel ausdrücken wollen, schlägt Feyerabend scherzhaft vor, es sollte „ alles geht “ lauten . Dies ist jedoch unwirtschaftlich. Kritiken wie die von Feyerabend führten zu dem starken Programm , einer radikalen Herangehensweise an die Wissenschaftssoziologie .

Die postmoderne Wissenschaftskritik war selbst Gegenstand intensiver Kontroversen. Diese anhaltende Debatte, die als Wissenschaftskrieg bekannt ist , ist das Ergebnis widersprüchlicher Werte und Annahmen zwischen dem postmodernen und dem realistischen Lager. Während Postmodernisten behaupten, dass wissenschaftliches Wissen einfach ein anderer Diskurs ist (beachten Sie, dass dieser Begriff in diesem Zusammenhang eine besondere Bedeutung hat) und nicht für irgendeine Form von fundamentaler Wahrheit repräsentativ ist, behaupten Realisten in der wissenschaftlichen Gemeinschaft, dass wissenschaftliches Wissen echte und grundlegende Wahrheiten über die Realität offenbart. Viele Bücher wurden von Wissenschaftlern geschrieben, die sich diesem Problem annehmen und die Behauptungen der Postmodernisten in Frage stellen, während sie die Wissenschaft als legitime Methode zur Ableitung von Wahrheit verteidigen.

Anthropologie und Soziologie

In Anthropologie und Soziologie , im Anschluss an der Feldforschung in einem akademischen wissenschaftlichen Labor von Latour und Woolgar , Karin Knorr Cetina hat eine vergleichende Studie von zwei wissenschaftlichen Bereichen (nämlich durchgeführt , die Hochenergiephysik und Molekularbiologie ) , dass die epistemischen Praktiken und Argumentationen in beide zu dem Schluss , wissenschaftliche Gemeinschaften sind unterschiedlich genug, um das Konzept der „ epistemischen Kulturen “ einzuführen , im Widerspruch zu der Vorstellung, dass eine sogenannte „wissenschaftliche Methode“ einzigartig und ein vereinheitlichendes Konzept ist. Vergleicht man 'epistemische Kulturen' mit Fleck 1935 Thought Kollektive ( denkkollektiven ): Entstehung und Entwicklung Einer Wissenschaftliche tatsache: Einfǖhrung in sterben Lehre vom Denkstil und Denkkollektiv Fleck 1979 , S.. xxvii erkennt an, dass Fakten eine Lebensdauer haben und erst nach Inkubationszeit gedeihen. Seine gewählte Untersuchungsfrage (1934) lautete: " WIE, DANN, ENTSTEHTE DIESER EMPIRISCHE TATSACHE UND IN WAS BESTEHT SIE?". Aber nach Fleck 1979, S. 27 , müssen sich die Gedankenkollektive innerhalb der jeweiligen Fachgebiete auf eine gemeinsame Fachterminologie einigen, ihre Ergebnisse veröffentlichen und weiter mit ihren Kollegen unter Verwendung der gemeinsamen Terminologie kommunizieren, um voranzukommen.

Siehe: Kognitive Revolution , Psychologie und Neurowissenschaften

Beziehung zur Mathematik

Wissenschaft ist der Prozess des Sammelns, Vergleichens und Bewertens vorgeschlagener Modelle anhand von Observablen .Ein Modell kann eine Simulation, eine mathematische oder chemische Formel oder eine Reihe von vorgeschlagenen Schritten sein. Wissenschaft ist wie Mathematik insofern, als Forscher beider Disziplinen versuchen, in jedem Stadium der Entdeckung das Bekannte von dem Unbekannten zu unterscheiden . Modelle, sowohl in den Naturwissenschaften als auch in der Mathematik, müssen in sich konsistent und auch falsifizierbar (widerlegbar) sein. In der Mathematik muss eine Aussage noch nicht bewiesen werden; in einem solchen Stadium würde man diese Aussage als Vermutung bezeichnen . Aber wenn eine Aussage mathematisch bewiesen ist, gewinnt diese Aussage eine Art von Unsterblichkeit, die von Mathematikern hoch geschätzt wird und für die einige Mathematiker ihr Leben widmen.

Mathematisches und wissenschaftliches Arbeiten können sich gegenseitig inspirieren. Zum Beispiel entstand der technische Begriff der Zeit in der Wissenschaft , und Zeitlosigkeit war ein Kennzeichen eines mathematischen Themas. Aber heute ist die Poincaré-Vermutung unter Verwendung der Zeit als mathematisches Konzept bewiesen, in dem Objekte fließen können (siehe Ricci-Fluss ).

Dennoch bleibt der Zusammenhang zwischen Mathematik und Realität (und damit Wissenschaft, soweit sie die Realität beschreibt) im Dunkeln. Eugene Wigners Aufsatz The Unreasonable Effectiveness of Mathematics in the Natural Sciences ist ein sehr bekannter Bericht eines Physik-Nobelpreisträgers. Tatsächlich haben einige Beobachter (darunter einige bekannte Mathematiker wie Gregory Chaitin und andere wie Lakoff und Núñez ) vorgeschlagen, dass die Mathematik das Ergebnis von Voreingenommenheit und menschlichen Einschränkungen (einschließlich kultureller) ist, ähnlich wie die Postmodernisten Sicht der Wissenschaft.

George Pólyas Arbeiten zur Problemlösung , zur Konstruktion mathematischer Beweise und zur Heuristik zeigen, dass sich die mathematische Methode und die wissenschaftliche Methode im Detail unterscheiden, sich aber dennoch in der Verwendung von iterativen oder rekursiven Schritten ähneln.

Mathematische Methode Wissenschaftliche Methode
1 Verstehen Charakterisierung aus Erfahrung und Beobachtung
2 Analyse Hypothese: eine vorgeschlagene Erklärung
3 Synthese Deduktion: Vorhersage aus der Hypothese
4 Überprüfen / Erweitern Testen und experimentieren

Verstehen bedeutet nach Pólyas Auffassung, ungewohnte Definitionen in eigenen Worten wiederzugeben, auf geometrische Figuren zurückzugreifen und zu hinterfragen, was wir bereits wissen und nicht wissen; Analyse , die Pólya von Pappus übernimmt , beinhaltet die freie und heuristische Konstruktion plausibler Argumente , rückwärts vom Ziel aus arbeiten und einen Plan für die Konstruktion des Beweises entwickeln ; Synthese ist die strenge euklidische Darstellung der schrittweisen Einzelheiten des Beweises; Review bedeutet, das Ergebnis und den eingeschlagenen Weg erneut zu überdenken und zu überprüfen .

Aufbauend auf Pólyas Arbeit argumentierte Imre Lakatos , dass Mathematiker tatsächlich Widerspruch, Kritik und Revision als Prinzipien zur Verbesserung ihrer Arbeit verwenden. Ähnlich wie in der Wissenschaft, wo Wahrheit gesucht, aber keine Gewissheit gefunden wird, versuchte Lakatos in Beweisen und Widerlegungen zu beweisen, dass kein Theorem der informellen Mathematik endgültig oder perfekt ist. Dies bedeutet, dass wir nicht glauben sollten, dass ein Theorem letztendlich wahr ist, nur dass noch kein Gegenbeispiel gefunden wurde. Sobald ein Gegenbeispiel gefunden ist, dh eine Entität, die dem Satz widerspricht/nicht erklärt wird, passen wir den Satz an und erweitern möglicherweise den Geltungsbereich. Dies ist eine kontinuierliche Art und Weise, wie unser Wissen durch die Logik und den Prozess von Beweisen und Widerlegungen akkumuliert wird. (Wenn jedoch Axiome für einen Zweig der Mathematik angegeben werden, entsteht dadurch ein logisches System — Wittgenstein 1921 Tractatus Logico-Philosophicus 5.13; Lakatos behauptete, dass Beweise aus einem solchen System tautologisch , dh intern logisch wahr seien , durch Umschreiben von Formen , wie gezeigt durch Poincaré, der die Technik demonstrierte, tautologisch wahre Formen (nämlich die Euler-Charakteristik ) in oder aus Formen aus der Homologie oder abstrakter aus der homologischen Algebra zu transformieren .)

Lakatos schlug eine Darstellung des mathematischen Wissens vor, die auf Polyas Idee der Heuristik basierte . In Beweisen und Widerlegungen gab Lakatos mehrere Grundregeln für das Finden von Beweisen und Gegenbeispielen zu Vermutungen. Er dachte, dass mathematische „ Gedankenexperimente “ ein gültiger Weg sind, um mathematische Vermutungen und Beweise zu entdecken.

Gauss , wenn Sie gefragt werden, wie er über seine kam Theoreme , antwortete einmal „durch planmässiges Tattonieren“ (durch systematische tastbar Experimente ).

Zusammenhang mit Statistiken

Wenn die wissenschaftliche Methode Statistik als wesentlichen Bestandteil ihres Arsenals verwendet, gibt es mathematische und praktische Probleme, die sich nachteilig auf die Zuverlässigkeit der Ergebnisse wissenschaftlicher Methoden auswirken können. Dies wird in einem populären wissenschaftlichen Artikel aus dem Jahr 2005 "Why Most Published Research Findings Are False" von John Ioannidis beschrieben , der als grundlegend für das Gebiet der Metawissenschaften gilt . Viele Forschungen im Bereich der Metawissenschaften versuchen, eine schlechte Nutzung von Statistiken zu erkennen und ihre Nutzung zu verbessern. Siehe Voranmeldung (Wissenschaft)#Begründung

Die angesprochenen Punkte sind insbesondere statistischer Art („Je kleiner die Studien in einem wissenschaftlichen Bereich sind, desto weniger wahrscheinlich sind die Forschungsergebnisse, um wahr zu sein“ und „Je größer die Flexibilität bei Designs, Definitionen, Ergebnissen und Analysemethoden in einem wissenschaftlichen Feld, desto geringer ist die Wahrscheinlichkeit, dass die Forschungsergebnisse zutreffen. mit mehr wissenschaftlichen Teams), desto geringer ist die Wahrscheinlichkeit, dass die Forschungsergebnisse wahr sind.") Daher: "Die meisten Forschungsergebnisse sind für die meisten Forschungsdesigns und für die meisten Gebiete falsch" und "Wie gezeigt, ist die Mehrheit der modernen biomedizinischen Forschung in Betrieb in Bereichen mit sehr geringer Vor- und Nachstudienwahrscheinlichkeit für wahre Befunde." Allerdings: "Trotzdem werden die meisten neuen Entdeckungen weiterhin aus hypothesengenerierender Forschung mit geringen oder sehr niedrigen Chancen vor der Studie stammen", was bedeutet, dass *neue* Entdeckungen aus Forschungen stammen werden, die zu Beginn dieser Forschung niedrig oder sehr waren geringe Chancen (eine geringe oder sehr geringe Chance) auf Erfolg. Wenn also die wissenschaftliche Methode zur Erweiterung der Wissensgrenzen verwendet wird, wird die Erforschung von Gebieten außerhalb des Mainstreams die neuesten Erkenntnisse liefern. Siehe: Erwartungswert von Probeninformationen , Falsch - positive und falsch - negative Ergebnisse , Test - Statistik , und Typ I und Typ II - Fehler

Die Rolle des Zufalls bei der Entdeckung

Schätzungen zufolge sind zwischen 33 % und 50 % aller wissenschaftlichen Entdeckungen eher gestolpert als gesucht. Dies mag erklären, warum Wissenschaftler so oft sagen, dass sie Glück hatten. Louis Pasteur wird das berühmte Sprichwort zugeschrieben, dass "Glück begünstigt den vorbereiteten Geist", aber einige Psychologen haben begonnen zu untersuchen, was es bedeutet, im wissenschaftlichen Kontext "auf Glück vorbereitet" zu sein. Die Forschung zeigt, dass Wissenschaftlern verschiedene Heuristiken beigebracht werden, die dazu neigen, den Zufall und das Unerwartete zu nutzen. Das nennt Nassim Nicholas Taleb "Antifragilität"; Während einige Untersuchungssysteme angesichts menschlicher Fehler , menschlicher Voreingenommenheit und Zufälligkeit fragil sind , ist die wissenschaftliche Methode mehr als widerstandsfähig oder zäh – sie profitiert tatsächlich in vielerlei Hinsicht von dieser Zufälligkeit (sie ist antifragil). Taleb glaubt, dass je antifragiler das System ist, desto mehr wird es in der realen Welt gedeihen.

Der Psychologe Kevin Dunbar sagt, dass der Entdeckungsprozess oft damit beginnt, dass Forscher Fehler in ihren Experimenten finden. Diese unerwarteten Ergebnisse führen dazu, dass Forscher versuchen, einen ihrer Meinung nach fehlerhaften Methode zu beheben . Schließlich entscheidet der Forscher, dass der Fehler zu hartnäckig und systematisch ist, um ein Zufall zu sein. Die stark kontrollierten, vorsichtigen und neugierigen Aspekte der wissenschaftlichen Methode machen sie daher gut geeignet, um solche hartnäckigen systematischen Fehler zu identifizieren. An dieser Stelle wird der Forscher beginnen, über theoretische Erklärungen für den Fehler nachzudenken, wobei er oft die Hilfe von Kollegen aus verschiedenen Fachgebieten in Anspruch nimmt.

Siehe auch

Probleme und Probleme

Geschichte, Philosophie, Soziologie

Anmerkungen

Problemlösung durch wissenschaftliche Methode

Verweise

Quellen

Weiterlesen

Externe Links