Analizy Statystyczne

Blog
analiza statystyczna
Analiza statystyczna

Analiza statystyczna jako jedna z metod weryfikacji przyczynowości

W dzisiejszych czasach jedną z najważniejszych czynności podejmowanych przez naukowców i poważne przedsiębiorstwa jest określnie przyczynowości wystepowania zjawisk. Badania ilościowe mają zazwyczaj identyfikacje korelacji między zjawiskami przyrodniczymi np. powiązania pkb z zadowoleniem z życia obywateli. Niemniej badanie korelacji jest tylko i wyłącznie identyfikacją współwystępowania zjawisk, które tylko są pewnego rodzaju identyfikacją zmiennych będących tłem badanego zjawiska. Tylko i wyłącznie badania eksperymentalne w których manipuluje się potencjalnymi przyczynami i mierzeniem ich efektów są w stanie określić czynniki odpowiedzialne za pojawienie się danego zjawiska np. podanie leków antydepresyjnych na zmniejszenie się symptomów choroby. Za weryfikację korelacji oraz wyników uzyskanych w ekeprymeńcie odpowiedzialne są analizy statystyczne. Tylko i wyłącznie ilościowe i statystyczne weryfikowanie losowości wystepowania zjawisk jest jedynym i wystarczjacym warunkiem poznania cząski badanej natury wycinka rzeczywistości.

Modele analiz statystycznych oraz ich bardzo wysublimowane odmiany są wstanie dostaczyć eleganckich wyników, które mogą stanowić podstawy do wnioskowania o domniemanych przyczynach poddawanych ów analizie statystycznej. Są oczywiście inne metody weryfikacji przyczyn, ale one mają calkowicie inny charakter np. długotrwała obserwacja. Niemniej w dzisiejszych czasach takie długotrwałe obserwacje mogą również być poddane ilościowemu, statystycznemu podsumowaniu. Niekiedy wynika to po prostu z praktycznych potrzeb. Po co analizować zaobserwowane efekty jeden po drugim? Przecież można skwantyfikować i wystandarzyować elementy obseracji i poddać je statystycznej analizie danych.

Skupmy się teraz na analizach statystycznych.

Analizy statystyczne wyników badań mają niesamowitą przewagę nad badaniami obserwacyjnymi, studiami przypadków i badaniami jakościowymi. Przewaga ta wynika z tego, że statystyczne metody obliczeniowe są proste do przeprowadzenia oraz elegancko podsumowują wyniki setek lub tysięcy obserwacji w postaci kilku statystycznych współczynników. Np. dzięki statystycznej analizie regresji można zbudować wielowymiarowy model wyjaśniający wpływ warunków eksperymentalncyh i zmiennych zakłócających na skutek interesującego badacza zjawisko np. wpływ podania placebo na łagodzenie bólu głowy. Dzięki zastosowaniu takiej metody można odciążyć wpływ zmiennych zakłócających (wiek, stan zdrowia, nałogi, styl życia) towarzyszących wpływowi głównej zmiennej niezależnej na poziom bólu głowy.

Dzięki statystycznemu analizowaniu danych eksperymentalnych mających na celu wykrycie domniemanych oraz tymczasowo ostatecznych przyczyn występowania zjawisk możliwy jest postęp teoretyczny (and. theoretical advances). Dzięki nałożeniu na teorię statystycznej architektury obliczeniowej możliwe jest przewidywanie co się stanie z bólem głowy kiedy będziemy manipulować poszczególnymi zmiennymi mającymi statystycznie zweryfikowany (nieprzypadkowy) wpływ na ów ból. Tylko i wyłącznie takie podsumowanie danych, czyli nałożenie pewnej formy cechującej się logiczną funkcyjnością relacji między poiarami jest w stanie dostarczyć wglądu w badane zjawisko, które nie śmiło się kiedyś filozofom. Oczywiście mając nadal cały szacunek do filozofii i spraw ostatecznych to niestety, ale myślenie o zjawisku nigdy nie da nam tyle co wyżej podsumowane analizy statystyczne. Tylko i wyłączenie zjawiska wyrażone w liczbach i symbolach mogą być poddawane dokładnemu prześledzeniu dzięki funkcyjnej formie (wyłączając niektóre metody np. sieci neuronowe) algorytmów opartych o pewne założenia dotyczące natury występowania zjawisk w przyrodzie. Teorie naukowe nigdy przedtem nie były tak wrażliwe na zmiany i krytykę jak teraz.

To dzięki pomocy analiz statystycznych w podsumowywaniu wyników przeprowadzanych eksperymentów jest możliwa wstępna rewizja teorii. Przykładem może byc tutaj meta-analiza. Meta-analiza charakteryzuje się poddaniem bardzo osobliwej statystycznej analizie danych wyników wielu badań. Powiedzmy, że badania te dotyczą podsumowania całej linii eksperymentów na temat skuteczności placebo (haczy to o statystyki medyczne). Uzykanie współczynników statystycznej siły efektów z poszczególnego badania i utworzenie całego zbioru sił efektów np. z pięćdziesięciu badań eksperymentalnych z całego świata, przeprowadzanych przez różne zespoły jest naukowym walcem. Meta-analiza wyników wielu badań jest w większości przypadków jednoznacznym stwierdzeniem jaki jest stan faktyczny badanego zjawiska. Słowo walec jest tutaj nieprzypadkowe. Mianowicie statystyczne podsumowanie dużej ilości badań, a nie analizowanie wyników jednego badania jest bezpośrednią odpowiedzią potwierdzającą lub kwestionującą badane relacje lub wpływy.

Czytelnik mógłby pomyśleć, że meta-analy są czymś bardzo zaawansowanym i wymaga to niewiadomo jakiej wiedzy statystycznej. Nic bardziej mylnego. Najtrudniejsze w meta-analizach jest zdefiniowanie badanego problemu badawczego, zebranie na ten temat odpowiedniej ilości publikacji (badań jako danych wejściowych) i wyliczenie z nich siły efektów. Analiza statystyczna stojąca za podsumowaniem tych wyników nie jest już niczym skoplikowanym.

Jak sami możemy zauważyć teoretyczny postęp w naukach jest mocno wspierany przez analizy statystyczne i metody obliczeniowe mające kwestionowac losowość zjawisk.

Chętnych do skorzystania z pomocy statystycznej przy analizie danych zachęcamy do kontaktu z firmą Metodolog.pl. Jednym z najlepszych dostawców rozwiązań statystycznych w nauce i biznesie.

Specjalizujemy się w ilościowym przetwarzaniu danych z badań naukowych (ilościowych i eksperymentalnych) oraz danych zbieranych przez firmy (w tym dane w postaci macierzy rzadkich).

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *