Ich denke die zuletzt gestartete Diskussion ist so alt wie jeglicher wissenschaftlicher Ansatz selbst - und absolut müßig.
Der wissenschaftlich Fragende erstellt ein Modell, anhand dessen er eine komplexe Situation "messbar" machen will.
Wer denkt, dass dieses Modell alle Eventualitäten einbeziehen muss, darf hier bitte direkt aussteigen.
Man würde in dem Fall ein Modell benötigen dass 1:1 der Realität entspricht.
Wer denkt, dass das Ergebnis = 42 = die alleinglückselig machende Wahrheit ist, darf ebenfalls abspringen.
Man darf nicht den Fehler machen, das Ergebnis als "die allgemeingültige Antwort" zu sehen, sondern nur als Ergebnis der speziellen Fragestellung, mit allen Einschränkungen, Filterkriterien, Ausschlussbedingungen etc. des zurunde liegenden Modells.
(Der Verweis oben auf die 42 spielt übrigens genau auf diesen Umstand an.)
Alle statistische Methoden verfolgen im Endeffekt eine gemeinsame Strategie: Das Gesetz der großen Zahlen, gepaart mit Empirik und einen gewissen Maß an gesundem Menschenverstand um zu einem qualifizierten (und nicht allgemeinen) Ergebnis zu kommen.
Wer Einzelbeispiele aus den entferntesten Ecken der Gaußschen Glockenkurve als Gegenbeweis heranzieht hat den Punkt nicht verstanden.
Und warum macht man dann überhaupt so etwas Verkopftes?
Weil man anders an komplexe Abhängigkeiten nicht herankommt als sie herunterzubrechen, Modelle zu definieren, Korrelationen herzustellen, etc.
Liegt nicht jedem - muss aber auch nicht.
Dafür können andere z.B. Musik.
Oder Motorrad fahren
p.s.: Es ist sehr spannend - und oft auch erschreckend - zu sehen wie gut solche Modelle die Realität widerspiegeln können. Diese Methoden werden ja auch z.B. durch Big Data oder auch AIs Systeme genutzt.