Przejdź do treściPrzejdź do informacji o dostępności
OpenStax Logo
Psychologia

2.3 Analiza wyników

Psychologia2.3 Analiza wyników
  1. Przedmowa
  2. 1. Wstęp do psychologii
    1. Wprowadzenie
    2. 1.1 Czym jest psychologia
    3. 1.2 Historia psychologii
    4. 1.3 Psychologia współczesna
    5. 1.4 Kariera zawodowa psychologa
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  3. 2. Prowadzenie badań
    1. Wprowadzenie
    2. 2.1 Dlaczego badania są ważne?
    3. 2.2 Metody badawcze
    4. 2.3 Analiza wyników
    5. 2.4 Etyka
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  4. 3. Biopsychologia
    1. Wprowadzenie
    2. 3.1 Genetyka człowieka
    3. 3.2 Komórki układu nerwowego
    4. 3.3 Składowe układu nerwowego
    5. 3.4 Mózg i rdzeń kręgowy
    6. 3.5 Układ hormonalny
    7. Kluczowe pojęcia
    8. Podsumowanie
    9. Sprawdź wiedzę
    10. Ćwicz myślenie krytyczne
    11. Rozwijaj się
  5. 4. Stany świadomości
    1. Wprowadzenie
    2. 4.1 Czym jest świadomość?
    3. 4.2 Rola snu
    4. 4.3 Fazy snu
    5. 4.4 Zaburzenia snu
    6. 4.5 Używanie substancji psychoaktywnych
    7. 4.6 Inne stany świadomości
    8. Kluczowe pojęcia
    9. Podsumowanie
    10. Sprawdź wiedzę
    11. Ćwicz myślenie krytyczne
    12. Rozwijaj się
  6. 5. Wrażenia zmysłowe i spostrzeganie
    1. Wprowadzenie
    2. 5.1 Czym różnią się wrażenia zmysłowe i spostrzeganie
    3. 5.2 Fale i długości fal
    4. 5.3 Wzrok
    5. 5.4 Słuch
    6. 5.5 Inne zmysły
    7. 5.6 Zasady postrzegania w psychologii Gestalt
    8. Kluczowe pojęcia
    9. Podsumowanie
    10. Sprawdź wiedzę
    11. Ćwicz myślenie krytyczne
    12. Rozwijaj się
  7. 6. Uczenie się
    1. Wprowadzenie
    2. 6.1 Na czym polega proces uczenia się?
    3. 6.2 Warunkowanie klasyczne
    4. 6.3 Warunkowanie sprawcze
    5. 6.4 Uczenie się przez obserwację (modelowanie)
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  8. 7. Myślenie i inteligencja
    1. Wprowadzenie
    2. 7.1 Czym jest poznanie?
    3. 7.2 Język
    4. 7.3 Rozwiązywanie problemów
    5. 7.4 Czym jest inteligencja i twórczość?
    6. 7.5 Pomiar inteligencji
    7. 7.6 Źródła inteligencji
    8. Kluczowe pojęcia
    9. Podsumowanie
    10. Sprawdź wiedzę
    11. Ćwicz myślenie krytyczne
    12. Rozwijaj się
  9. 8. Pamięć
    1. Wprowadzenie
    2. 8.1 Jak działa pamięć
    3. 8.2 Obszary mózgu zaangażowane w procesy pamięciowe
    4. 8.3 Kłopoty z pamięcią
    5. 8.4 Sposoby na poprawę pamięci
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  10. 9. Psychologia rozwojowa
    1. Wprowadzenie
    2. 9.1 Co to jest psychologia rozwojowa?
    3. 9.2 Teorie psychologii rozwojowej
    4. 9.3 Stadia rozwoju
    5. 9.4 Kres życia
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  11. 10. Emocje i motywacje
    1. Wprowadzenie
    2. 10.1 Emocje
    3. 10.2 Biologia emocji
    4. 10.3 Motywacja
    5. 10.4 Sfera seksualna
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  12. 11. Osobowość
    1. Wprowadzenie
    2. 11.1 Czym jest osobowość?
    3. 11.2 Freud i perspektywa psychodynamiczna
    4. 11.3 Neofreudyści: Adler, Erikson, Jung i Horney
    5. 11.4 Podejście poznawcze
    6. 11.5 Podejścia humanistyczne
    7. 11.6 Teorie cech
    8. 11.7 Socjobiologiczna koncepcja osobowości
    9. 11.8 Kulturowe uwarunkowania osobowości
    10. 11.9 Temperament
    11. 11.10 Ocena osobowości
    12. Kluczowe pojęcia
    13. Podsumowanie
    14. Sprawdź wiedzę
    15. Ćwicz myślenie krytyczne
    16. Rozwijaj się
  13. 12. Psychologia społeczna
    1. Wprowadzenie
    2. 12.1 Czym zajmuje się psychologia społeczna?
    3. 12.2 Atrybucje
    4. 12.3 Role i normy społeczne
    5. 12.4 Postawy i ich zmiana
    6. 12.5 Konformizm, zgodność, posłuszeństwo
    7. 12.6 Uprzedzenia i dyskryminacja
    8. 12.7 Agresja
    9. 12.8 Zachowania pomocne
    10. 12.9 Tworzenie relacji
    11. Kluczowe pojęcia
    12. Podsumowanie
    13. Sprawdź wiedzę
    14. Ćwicz myślenie krytyczne
    15. Rozwijaj się
  14. 13. Psychologia pracy i organizacji
    1. Wprowadzenie
    2. 13.1 Dopasowanie człowiek–organizacja
    3. 13.2 Postawy wobec organizacji i relacje w pracy
    4. 13.3 Stres w pracy
    5. 13.4 Motywacja do pracy
    6. Kluczowe pojęcia
    7. Podsumowanie
    8. Sprawdź wiedzę
    9. Ćwicz myślenie krytyczne
    10. Rozwijaj się
  15. 14. Stres
    1. Wprowadzenie
    2. 14.1 Czym jest stres?
    3. 14.2 Stresory
    4. 14.3 Stres a choroby
    5. 14.4 Kontrolowanie stresu
    6. 14.5 Dążenie do szczęścia
    7. Kluczowe pojęcia
    8. Podsumowanie
    9. Sprawdź wiedzę
    10. Ćwicz myślenie krytyczne
    11. Rozwijaj się
  16. 15. Zaburzenia psychiczne
    1. Wprowadzenie
    2. 15.1 Czym są zaburzenia psychiczne?
    3. 15.2 Diagnostyka i klasyfikacja zaburzeń psychicznych
    4. 15.3 Poglądy na przyczyny zaburzeń psychicznych
    5. 15.4 Zaburzenia lękowe
    6. 15.5 Zaburzenia obsesyjno-kompulsywne i pokrewne
    7. 15.6 Zespół stresu pourazowego
    8. 15.7 Zaburzenia nastroju
    9. 15.8 Schizofrenia
    10. 15.9 Zaburzenia dysocjacyjne
    11. 15.10 Zaburzenia występujące u dzieci
    12. 15.11 Zaburzenia osobowości
    13. Kluczowe pojęcia
    14. Podsumowanie
    15. Sprawdź wiedzę
    16. Ćwicz myślenie krytyczne
    17. Rozwijaj się
  17. 16. Terapia i leczenie
    1. Wprowadzenie
    2. 16.1 Terapia zaburzeń psychicznych teraz i kiedyś
    3. 16.2 Techniki terapeutyczne
    4. 16.3 Sposoby leczenia
    5. 16.4 Uzależnienia i zaburzenia związane z zażywaniem środków odurzających
    6. 16.5 Wykorzystanie paradygmatu społeczno-kulturowego w terapii
    7. Kluczowe pojęcia
    8. Podsumowanie
    9. Sprawdź wiedzę
    10. Ćwicz myślenie krytyczne
    11. Rozwijaj się
  18. Bibliografia
  19. Skorowidz nazwisk
  20. Skorowidz rzeczowy
  21. Skorowidz terminów obcojęzycznych

Czy wiesz, że gdy wzrasta sprzedaż lodów, wzrasta również ogólny wskaźnik przestępczości? Czy to możliwe, że rozkoszowanie się ulubionymi lodami sprowadza ludzi na złą drogę? A może po popełnieniu przestępstwa ludzie lubią zjeść ten przysmak? Nie ma wątpliwości, że istnieje relacja między wzrostem sprzedaży lodów i liczbą przestępstw (np. Harper, 2013), jednak stwierdzenie, że jedno wynika z drugiego, byłoby absurdalne.

Dużo bardziej prawdopodobne jest, że sprzedaż lodów i liczba przestępstw są związane z temperaturą powietrza. Kiedy jest ciepło, ludzie częściej wychodzą z domów i wchodzą ze sobą w interakcje. Zdarza się przy tym, że wyprowadzają się nawzajem z równowagi, co czasem prowadzi do przestępstw. Gdy na zewnątrz jest ciepło, częściej też kupujemy sobie zimne smakołyki, na przykład lody. W jaki sposób stwierdzić, czy związek między dwoma zjawiskami rzeczywiście istnieje? A jeśli istnieje, to w jaki sposób możemy odróżnić, czy jest wynikiem współwystępowania czy też przyczynowości?

Badanie korelacyjne

Korelacja (ang. correlation) oznacza, że istnieje związek między dwiema zmiennymi lub większą ich liczbą (na przykład spożyciem lodów a liczbą przestępstw), lecz ten związek nie musi być związkiem przyczynowo-skutkowym (o czym piszemy poniżej). Jeżeli dwie zmienne są skorelowane, oznacza to jedynie, że zmiana wartości jednej zmiennej wiąże się ze zmianą wartości drugiej. Możemy zmierzyć korelację, obliczając współczynnik korelacji. Współczynnik korelacji (ang. correlation coefficient) to wartość od −1 do +1 wskazująca siłę i kierunek korelacji między zmiennymi. Współczynnik korelacji najczęściej oznaczany jest symbolem r.

Liczba we współczynniku korelacji wskazuje siłę związku. Im bliższa 1 (niezależnie od znaku) jest wartość współczynnika, tym silniejsza jest korelacja między zmiennymi. Im wartość jest bliższa 0, tym słabszy jest związek między zmiennymi. Na przykład współczynnik korelacji równy 0,9 oznacza zdecydowanie silniejszą korelację niż współczynnik 0,3. Jeśli zmienne nie są w ogóle skorelowane, to współczynnik jest równy 0.

Znak „plus” lub „minus” współczynnika korelacji wskazuje kierunek związku (Rysunek 2.11). Korelacja dodatnia (pozytywna) (ang. positive correlation) oznacza, że dwie zmienne zmieniają się w tym samym kierunku. Innymi słowy – jeśli jedna zmienna rośnie, druga również rośnie; i odwrotnie, jeśli jedna zmienna maleje, druga też maleje. Korelacja ujemna (negatywna) (ang. negative correlation) oznacza, że dwie zmienne zmieniają się w przeciwnych kierunkach. Jeśli dwie zmienne są negatywnie skorelowane, jedna zmienna maleje, a druga rośnie i na odwrót.

Lody i przestępstwa to przykład korelacji dodatniej, ponieważ obie zmienne wzrastają, gdy robi się cieplej. Innymi przykładami korelacji dodatniej są związek między wzrostem a masą ciała człowieka, a także związek między wiekiem a liczbą zmarszczek. Można przypuszczać, że zmęczenie w ciągu dnia jest negatywnie skorelowane z liczbą godzin przespanych poprzedniej nocy: kiedy ilość snu maleje, uczucie zmęczenia rośnie. Na przykład u studentów z University of Minnesota wykryto słabą negatywną korelację (r=-0,29) między średnią liczbą dni w tygodniu, kiedy spali mniej niż pięć godzin a średnią ich ocen (Lowry et al., 2010). Pamiętaj, że korelacja negatywna nie oznacza braku korelacji, ale mówi o kierunku zależności między zmiennymi. Brak korelacji wykazalibyśmy zapewne między ilością snu a rozmiarem buta.

Korelacje mogą mieć wartość predykcyjną. Wyobraź sobie, że jesteś członkiem komisji rekrutacyjnej renomowanego uniwersytetu. Komisja otrzymała ogromną liczbę aplikacji, jednak uczelnia może przyjąć jedynie niewielki procent kandydatów. W jaki sposób zdecydujesz, kto powinien zostać przyjęty? Możesz spróbować skorelować średnią ocen obecnych studentów z ich wynikami ze standardowego testu dla uczniów szkół średnich. Identyfikacja najsilniejszych korelacji dla obecnych studentów może pomóc w typowaniu kandydatów, którzy z dużym prawdopodobieństwem osiągną równie dobre wyniki.

a
Rysunek 2.11 Wykres punktowy to graficzne przedstawienie siły i kierunku korelacji. Im silniejsza korelacja, tym punkty danych bardziej układają się w linię prostą. W powyższych przykładach widzimy (a) korelację pozytywną między wzrostem a masą ciała, (b) korelację negatywną między zmęczeniem a liczbą przespanych godzin oraz (c) brak korelacji między rozmiarem buta a liczbą przespanych godzin.

Korelacja nie oznacza przyczynowości

Badanie korelacyjne jest przydatne, ponieważ pozwala określić siłę i kierunek związku między dwiema zmiennymi. Jednak samo ustalenie istnienia korelacji niewiele mówi o związku przyczynowo-skutkowym (ang. cause-and-effect relationship).

Czasami zmienne są skorelowane, ponieważ istnieje między nimi związek przyczynowo-skutkowy. Czasami jednak to inny czynnik, zwany zmienną zakłócającą (ang. confounding variable), powoduje systematyczne zmiany interesujących nas zmiennych. W przykładzie z lodami i przestępstwami zmienną zakłócającą jest temperatura, która może być odpowiedzialna za związek między naszymi zmiennymi. W takim przypadku możemy mówić o tzw. korelacji pozornej – zmienne na poziomie obserwacji czy analiz są ze sobą związane, ale w rzeczywistości odpowiada za to trzecia, inna zmienna (zakłócająca). Więcej o korelacji pozornej poniżej.

Nawet jeśli nie jesteśmy w stanie jednoznacznie wskazać zmiennych zakłócających, to nie powinniśmy zakładać, że korelacja między dwiema zmiennymi oznacza, że jedna z nich powoduje zmianę drugiej. Może to być szczególnie deprymujące, gdy związek przyczynowo-skutkowy wydaje się intuicyjny i oczywisty. Weźmy pod uwagę omawiane już wcześniej badanie przeprowadzone przez Amerykańskie Towarzystwo Onkologiczne, które jako jedno z pierwszych wykazało związek między paleniem papierosów a zachorowaniami na raka. Założenie, że palenie powoduje raka wydaje się uzasadnione, jednak gdy jego sprawdzenie ograniczymy wyłącznie do badania korelacyjnego (ang. correlational research), wówczas takie stwierdzenie będzie nadużyciem. Na podstawie badań korelacyjnych możemy bowiem wnioskować tylko o współwystępowaniu dwóch zmiennych, ale nie o tym, co jest przyczyną, a co skutkiem.

Niestety ludzie często niesłusznie wysnuwają wnioski o przyczynowości na podstawie korelacji. Tego typu stwierdzenia są popularne w reklamach i wiadomościach. Na przykład jedno z badań wykazało, że osoby jedzące regularnie płatki śniadaniowe częściej osiągają prawidłową masę ciała niż osoby, które rzadko jedzą płatki (Frantzen et al., 2013; Barton et al., 2005). Zgadnij, w jaki sposób producenci płatków przedstawiali te wyniki. Czy jedzenie płatków naprawdę powoduje utrzymanie prawidłowej masy ciała? Może są inne wyjaśnienia? Na przykład że osoby o odpowiedniej wadze częściej jedzą śniadanie niż osoby otyłe lub takie, które próbują schudnąć, opuszczając posiłki (Rysunek 2.12).

Badanie korelacyjne jest nieocenione w znajdowaniu związków między zmiennymi, jednak, jak wspomnieliśmy, jego wadą jest brak możliwości ustalenia przyczynowości. Psychologowie dążą do ustalenia przyczyn i skutków, ale można tego dokonać wyłącznie za pomocą eksperymentu. Następny podrozdział opisuje, jak eksperymenty naukowe eliminują i weryfikują alternatywne wyjaśnienia, by pozwolić badaczom zrozumieć, w jaki sposób zmiana jednej zmiennej powoduje (jest przyczyną) zmianę drugiej.

A photograph shows a bowl of cereal.
Rysunek 2.12 Czy jedzenie płatków naprawdę jest przyczyną prawidłowej masy ciała badanych? (Źródło: Tim Skillern).

Korelacja iluzoryczna

Pokusa wyciągnięcia błędnych wniosków przyczynowo-skutkowych opartych na badaniu korelacyjnym to nie jedyny przypadek złej interpretacji danych. Często popełniamy błąd zwany korelacją iluzoryczną. Jest on szczególnie częsty w przypadku niesystematycznych obserwacji. Korelacja pozorna (iluzoryczna) (ang. illusory correlation) zachodzi, gdy dostrzegamy nieistniejące związki między dwiema zmiennymi. Znanym przykładem korelacji pozornej jest rzekomy wpływ faz Księżyca na zachowanie człowieka. Wiele osób jest głęboko przekonanych, że zmienia się ono w zależności od faz Księżyca, a dokładniej, że ludzie zachowują się dziwnie podczas pełni (Rysunek 2.13).

A photograph shows the moon.
Rysunek 2.13 Wiele osób wierzy, że pełnia Księżyca powoduje dziwne zachowanie u ludzi, jednak wierzenia te nie mają poparcia w badaniach naukowych. (Źródło: Cory Zanker).

Nie ma wątpliwości, że Księżyc wywiera silny wpływ na naszą planetę. Pływy morskie są ściśle związane z oddziaływaniem grawitacyjnym naszego naturalnego satelity. Dlatego wielu osobom logiczne wydaje się, że Księżyc wpływa również na nas. W końcu nasze ciała są w dużej mierze zbudowane z wody. Jednakże metaanaliza blisko 40 badań jednoznacznie dowodzi, że związek między fazą Księżyca a naszym zachowaniem nie istnieje (Rottoni Kelly, 1985). Choć w trakcie pełni możemy zwracać większą uwagę na dziwne zachowanie ludzi, to odsetek przypadków dziwnych zachowań pozostaje podobny podczas wszystkich faz Księżyca.

Dlaczego tak chętnie wierzymy w podobne korelacje pozorne? Często o nich słyszymy lub czytamy i po prostu przyjmujemy je za prawdę. Czasami mamy przeczucie, w jaki sposób coś funkcjonuje, i szukamy dowodów, by potwierdzić nasze oczekiwania, ignorując dowody, które mogłyby im zaprzeczyć. Mamy wówczas do czynienia z błędem konfirmacji (in. efektem potwierdzenia) (ang. confirmation bias).

Choć możemy mieć wrażenie, że będziemy umieli wykorzystać takie związki, by lepiej zrozumieć lub przewidzieć zjawiska otaczającego nas świata, korelacje pozorne mogą mieć znaczące konsekwencje. Na przykład korelacje pozorne, w których pewne zachowania niesłusznie przypisano określonym grupom, są odpowiedzialne za wykształcenie uprzedzeń, a te z kolei prowadzą do zachowań dyskryminujących (Fiedler, 2004).

Przyczynowość: przeprowadzanie eksperymentów i wykorzystywanie danych

Jak już wiesz, jedynym sposobem na ustalenie istnienia związku przyczynowo-skutkowego między dwiema zmiennymi jest przeprowadzenie eksperymentu (ang. experiment). Eksperyment w kontekście naukowym ma inne znaczenie niż w życiu codziennym. W potocznej mowie często używamy słowa „eksperyment”, by powiedzieć, że próbujemy coś zrobić po raz pierwszy, na przykład eksperymentując z nową fryzurą lub nowym przepisem w kuchni. Jednak w kontekście naukowym eksperyment wiąże się ze ścisłymi wymaganiami dotyczącymi jego planowania i przeprowadzenia.

Hipoteza eksperymentu

Aby przeprowadzić eksperyment, badacz musi postawić konkretną hipotezę (ang. hypothesis), którą chce przetestować. Jak już wiesz, hipotezy mogą być formułowane na podstawie obserwacji otaczającego nas świata lub dokładnej analizy istniejących już badań.

Na przykład jeśli uważasz, że wykorzystywanie nowych technologii w nauczaniu ma negatywny wpływ na wyniki studentów w nauce, to praktycznie masz już hipotezę mówiącą, że wykorzystanie nowych technologii powoduje spadek efektywności nauczania. Jaka jest geneza tej konkretnej hipotezy? Może ona wynikać z obserwacji, że twoi koledzy używający laptopów do notatek uzyskują niższe wyniki na egzaminach niż ci, którzy notują ręcznie. Albo ci, którzy odbywają zajęcia online, mają mniejszą wiedzę niż ci pracujący bezpośrednio z nauczycielem.

Tego typu osobiste obserwacje często prowadzą do formułowania konkretnych hipotez. Jednak by precyzyjnie przetestować naszą hipotezę, nie możemy bazować na własnych ograniczonych obserwacjach czy przypadkowych dowodach. By dowiedzieć się, czy nasza hipoteza znajdzie poparcie w rzeczywistych danych, musimy przeprowadzić eksperyment.

Planowanie eksperymentu

Podstawowy plan eksperymentu opiera się na dwóch grupach: grupie eksperymentalnej i grupie kontrolnej. Obie grupy z założenia są takie same z jedną różnicą: grupa eksperymentalna (ang. experimental group) zostaje poddana manipulacji eksperymentalnej – czyli działaniu testowanej zmiennej (w tym przypadku programowi nauczania z zastosowaniem nowych technologii), a grupa kontrolna (ang. control group) nie zostaje jej poddana.

Ponieważ manipulacja eksperymentalna jest jedyną różnicą między grupą eksperymentalną a grupą kontrolną, to możemy z dużą dozą pewności stwierdzić, że wszelkie różnice między nimi wynikają z manipulacji eksperymentalnej, a nie z przypadku.

W naszym przykładzie wpływu nowych technologii na naukę studencka grupa eksperymentalna uczy się algebry z użyciem programu komputerowego, a następnie przechodzi test sprawdzający wiedzę. Grupa kontrolna uczy się algebry w tradycyjny sposób, a następnie podchodzi do tego samego testu. Ważne, by grupa kontrolna była traktowana tak samo jak grupa eksperymentalna, z wyjątkiem niepoddania grupy kontrolnej manipulacji eksperymentalnej. Dobrze by było, abyśmy zadbali o odpowiednią liczebność grup badawczych (im większa, tym jesteśmy bardziej uprawnieni do generalizacji wniosków) oraz o równoliczność obu grup – eksperymentalnej i kontrolnej.

Nie ma ścisłych wytycznych, co do konkretnej liczby osób w grupach. Pamiętajmy jednak, że dane zabrane od kilku czy kilkunastu uczestników stanowią raczej studia przypadków, a nie badania naukowe.

Musimy również precyzyjnie określić, tj. zoperacjonalizować, co będzie wyznacznikiem opanowania algebry. Operacjonalizacja zmiennych (ang. operational definition) to opis, w jaki sposób będziemy mierzyć zmienne. Ważne, by to, co i jak badacz mierzy w danym eksperymencie, było jasno określone i całkowicie zrozumiałe. Aby zoperacjonalizować opanowanie algebry, możemy użyć testu sprawdzającego materiał przyswajany przez dwie grupy. Możemy też poprosić uczestników z obu grup, aby zaprezentowali przyswojony materiał, np. rozwiązali zestaw takich samych zadań. Jakkolwiek określimy efekty uczenia się, ważne, by zdefiniować je w taki sposób, by ktokolwiek, kto usłyszy o naszych badaniach po raz pierwszy, wiedział dokładnie, co rozumiemy przez „opanowanie algebry”. Pozwoli to innym odnieść się do naszych wyników oraz umożliwi ewentualne powtórzenie naszego eksperymentu.

Gdy już zdefiniujemy, co rozumiemy przez „użycie technologii w nauczaniu” oraz co uznajemy za „opanowanie algebry przez uczestników eksperymentu”, powinniśmy określić, w jaki sposób przeprowadzimy eksperyment. W omawianym przypadku możemy np. zaprosić uczestników do udziału w 45-minutowych zajęciach z algebry (prowadzonych z użyciem programu komputerowego lub w sposób tradycyjny, w sali przez wykładowcę), a następnie dać obu grupom taki sam test do rozwiązania w czasie 30 minut.

Najlepiej, żeby osoby oceniające test nie wiedziały, kto był w grupie eksperymentalnej, a kto w grupie kontrolnej, by uniknąć tzw. efektu oczekiwań eksperymentatora (ang. experimenter bias). Efekt ten oznacza ryzyko wypaczenia wyników badania przez oczekiwania badacza. Pamiętaj, że przeprowadzenie eksperymentu wymaga dokładnego planowania, a osoby zaangażowane w projekt badawczy są, co zrozumiałe, przywiązane do swoich hipotez i zainteresowane ich udowodnieniem. Jeśli oceniający test będą wiedzieli, kto był w danej grupie, może to wpłynąć na sposób ich oceny, np. interpretację mało czytelnego pisma lub drobne pomyłki. Jeśli obserwatorzy nie wiedzą, kto był w danej grupie, można uniknąć tego typu wypaczeń. Mamy wówczas do czynienia z badaniem metodą pojedynczo ślepej próby (ang. single-blind study), gdzie oceniający test nie wiedzą, którą grupę oceniają (eksperymentalną czy kontrolną), natomiast badacz opracowujący eksperyment ma tę wiedzę.

W badaniu z podwójnie ślepą próbą (ang. double-blind study) oceniający nie wiedzą, nad testem jakiej grupy pracują, a uczestnicy, do jakiej grupy należą. Dlaczego badacz chciałby przeprowadzić badanie, w którym nikt nie wie, czy test pochodzi z grupy eksperymentalnej czy z grupy kontrolnej? Dlatego, że dzięki temu wynik nie ulega wpływowi oczekiwań ani badacza ani uczestników. Dzięki temu można zneutralizować efekt placebo (ang. placebo effect). Efekt placebo występuje, gdy oczekiwania lub przekonania ludzi wpływają na ich doświadczenie lub nawet je determinują. Innymi słowy, samo oczekiwanie, że coś się wydarzy, może sprawić, że tak właśnie się stanie.

Efekt placebo jest zazwyczaj opisywany w związku z testowaniem skuteczności nowych leków. Wyobraź sobie, że pracujesz w firmie farmaceutycznej i opracowaliście nowy lek na depresję. By udowodnić, że jest skuteczny, przeprowadzasz eksperyment z dwiema grupami: grupa eksperymentalna otrzymuje nowy lek, a grupa kontrolna dostaje substancję neutralną. Badanie prowadzisz według procedury podwójnie ślepej próby. Uczestnicy nie wiedzą, czy dostali lek, czy nie, oraz szyfrujesz dane uczestników, żeby podczas badania nie wiedzieć, kto był w grupie eksperymentalnej, a kto w kontrolnej.

Po co ta podwójnie ślepa próba? Wyobraź sobie, że uczestnik tego badania dostaje tabletkę, która – jego zdaniem – poprawi mu nastrój. Ponieważ oczekuje on, że tabletka poprawi nastrój, może poczuć się lepiej po samym zażyciu tabletki, a nie dlatego, że zawierała jakąkolwiek substancję czynną — to właśnie nazywamy efektem placebo. By upewnić się, że jakiekolwiek zmiany w nastroju są spowodowane lekiem, a nie oczekiwaniami, grupa kontrolna otrzymuje placebo (nieaktywną substancję, np. tabletkę z cukru). Dzięki temu każdy otrzymuje tabletkę i ani badacz, ani uczestnicy nie wiedzą, kto dostał lek, a kto cukier. Wszelkie różnice nastroju między grupą eksperymentalną a grupą kontrolną można teraz przypisać lekowi, a nie oczekiwaniom eksperymentatora czy uczestnika (Rysunek 2.14).

A photograph shows three glass bottles of pills labeled as placebos.
Rysunek 2.14 Podanie placebo grupie kontrolnej zapobiega wypaczeniom spowodowanym oczekiwaniami eksperymentatora. (Źródło: Elaine i Arthur Shapiro).

Zmienne zależne i niezależne

Podczas eksperymentu próbujemy zbadać, czy zmiana jednego parametru powoduje zmianę innego parametru. By się tego dowiedzieć, musimy zwrócić uwagę na kolejne dwa ważne czynniki każdego eksperymentu badawczego: zmienną niezależną i zmienną zależną. Zmienna niezależna (ang. independent variable) jest modyfikowana lub kontrolowana przez eksperymentatora. W dobrze zaplanowanym badaniu zmienna niezależna jest jedyną istotną różnicą między grupą eksperymentalną a grupą kontrolną. W naszym przykładzie dotyczącym wpływu nowych technologii na naukę algebry zmienną niezależną jest sposób nauki uczestników (komputerowy lub tradycyjny) (Rysunek 2.15). Zmienna zależna (ang. dependent variable) to zmienna, którą mierzy badacz, aby sprawdzić, jaki wpływ miała na nią zmienna niezależna. W naszym przykładzie zmienną zależną jest stopień opanowania algebry przez uczestników.

A box labeled “independent variable: type of television programming viewed” contains a photograph of a person shooting an automatic weapon. An arrow labeled “influences change in the…” leads to a second box. The second box is labeled “dependent variable: violent behavior displayed” and has a photograph of a child pointing a toy gun.
Rysunek 2.15 Podczas eksperymentu manipulacje zmienną niezależną powinny wywołać zmianę zmiennej zależnej. (Źródło „karabin maszynowy”: modyfikacja pracy Daniela Oinesa; źródło „zabawkowy pistolet”: modyfikacja pracy Emrana Kassima).

Oczekujemy, że w trakcie eksperymentu zmienna zależna ulegnie zmianie pod wpływem zmiennej niezależnej. Innymi słowy, że zmienna zależna zależy od zmiennej niezależnej. Dobrym sposobem na zapamiętanie związku między zmienną niezależną i zależną jest następujące pytanie: Jaki wpływ zmienna niezależna wywiera na zmienną zależną? W naszym przykładzie: jaki wpływ będzie miał sposób nauki (tradycyjny lub komputerowy) na wyniki testu z algebry?

Wybór uczestników eksperymentu i przypisywanie ich do grup

Kiedy nasz eksperyment jest już zaplanowany, należy zakwalifikować do udziału w badaniu osoby reprezentujące interesującą nas populację. Uczestnicy (osoby badane) (ang. participants) to podmioty badań psychologicznych i, jak sama nazwa wskazuje, osoby, które są zaangażowane w badanie psychologiczne i aktywnie uczestniczą w tym procesie. W badaniach psychologicznych uczestnikami są często studenci. W rzeczywistości ogromna większość badań z różnych dyscyplin psychologii opierała się na studentach (Sears, 1986; Arnett, 2008). Lecz czy studenci są rzeczywiście reprezentatywni dla ogółu populacji? Są młodsi, lepiej wyedukowani, bardziej liberalni i mniej zróżnicowani niż ogół populacji. Choć wybór studentów jako podmiotów badań jest ogólnie przyjętą praktyką, to poleganie na tak ograniczonej puli uczestników może być problematyczne, ponieważ utrudnia generalizowanie wyników – tj. odnoszenie ich do szerszej populacji.

Nasz hipotetyczny eksperyment wymaga udziału studentów. Jeśli to możliwe, powinniśmy wybrać próbę losową (istnieją różne rodzaje prób, ale na potrzeby tego rozdziału skupimy się na próbie losowej). Próba losowa (ang. random sample) to podzbiór większej populacji, w którym każdy członek tej grupy ma równe szanse na bycie wybranym. Próby losowe są preferowane, ponieważ przy wystarczająco dużej liczbie uczestników można w sposób uzasadniony przypuszczać, że grupa wybrana do udziału w badaniu jest reprezentatywna dla szerszej populacji. Oznacza to, że rozkład procentowy cech w próbce (np. płeć, poziom inteligencji, status socjoekonomiczny i inne cechy mogące wpłynąć na wyniki) jest zbliżony do rozkładu w szerszej populacji.

W naszym przykładzie przyjmujemy, że interesującą nas populacją są studenci matematyki. Populacja studentów matematyki jest bardzo duża, więc potrzebujemy ją zawęzić; możemy zdecydować, że interesują nas studenci matematyki w wybranym mieście. By próba była bardziej reprezentatywna dla tej populacji, powinniśmy wybrać studentów z różnych części miasta, o różnej sytuacji rodzinnej, zarobkowej itd. Mając tak określoną, możliwą do przebadania populację, możemy zgłosić się do lokalnych uczelni i wybrać losową próbę około 200 studentów, którzy wezmą udział w eksperymencie.

Podsumowując, ponieważ nie jesteśmy w stanie przebadać wszystkich studentów matematyki na danym obszarze, chcemy znaleźć takich, którzy będą odzwierciedlali różnorodność całej tej populacji. Dzięki grupie reprezentatywnej możemy generalizować wyniki eksperymentu bez obaw, że nasza próbka (b) okaże się tendencyjna.

(a) A photograph shows an aerial view of crowds on a street. (b) A photograph shows s small group of children.
Rysunek 2.16 Badacze mogą pracować z (a) szeroką populacją lub (b) próbą, która jest podzbiorem większej populacji. (Źródło „tłum”: modyfikacja pracy Jamesa Cridlanda; źródło „uczniowie”: modyfikacja pracy Laurie Sullivan).

Następnym krokiem jest podział uczestników na grupę eksperymentalną i grupę kontrolną przez dobór losowy. Dzięki doborowi (przydziałowi losowemu) (ang. random assignment) wszyscy uczestnicy z takim samym prawdopodobieństwem mogą zostać włączeni do grupy eksperymentalnej, jak i do kontrolnej. Istnieje oprogramowanie, które losowo przydziela każdego z badanych do grupy eksperymentalnej lub kontrolnej.

Dobór losowy jest kluczowy dla rzetelnego planu eksperymentu (ang. experimental design). Przy dużej próbie (rzędu kilkuset osób) dobór losowy niemal wyklucza systematyczne różnice między grupami. Na przykład niemal niemożliwe byłoby otrzymanie jednej grupy złożonej wyłącznie z mężczyzn z danej klasy społecznej. To ważne, ponieważ jeśli grupy różniłyby się od siebie istotnie, nie wiedzielibyśmy, z czego wynikają różnice zaobserwowane podczas eksperymentu. Czy istniały już wcześniej, czy też zostały spowodowane manipulacją eksperymentalną? Dobór losowy pozwala założyć, że wszelkie różnice zaobserwowane między grupą eksperymentalną a grupą kontrolną wynikają z manipulacji zmienną niezależną (tą, której wpływ chcemy zbadać, w tym przypadku sposobem nauki algebry).

Problemy, które trzeba wziąć pod uwagę

Choć eksperymenty pozwalają badaczom wykazać związek przyczynowo-skutkowy, one także mają swoje ograniczenia. Miarodajne eksperymenty wymagają modyfikacji zmiennej niezależnej, co może być problematyczne w przypadku wielu pytań badawczych. Na przykład wyobraź sobie, że chcesz się dowiedzieć, jaki wpływ ma płeć (zmienna niezależna) na pamięć przestrzenną (zmienna zależna). Możesz na podstawie zadania sprawdzającego pamięć przestrzenną szukać różnic między kobietami a mężczyznami, ale nie możesz bezpośrednio kontrolować płci osoby. Tego typu badanie kwalifikujemy jako quasi-eksperymenty i przyznajemy, że w danych okolicznościach nie mamy możliwości ustalenia związku przyczynowo-skutkowego.

Eksperymenty są również ograniczone zasadami etycznymi. Nie wolno np. przeprowadzić eksperymentu sprawdzającego, czy przemoc wobec dzieci prowadzi do ich niższej samooceny w dorosłym życiu. By przeprowadzić taki eksperyment, należałoby losowo przypisać część jego uczestników do grupy, która doświadczałaby przemocy, a to byłoby nieetyczne.

Interpretowanie wyników eksperymentów

Po zebraniu danych z obu grup, eksperymentalnej i kontrolnej, przeprowadzamy ich analizę statystyczną (ang. statistical analysis), by dowiedzieć się, czy istnieją istotne różnice między nimi. Analiza statystyczna określa m.in. prawdopodobieństwo, że dana różnica między grupami może być przypadkowa (a co za tym idzie, bez znaczenia).

Przykładowo, jeśli zbadamy efektywność suplementów diety i nie zaobserwujemy istotnych statystycznie różnic między grupą eksperymentalną (przyjmującą dany specyfik) a kontrolną (otrzymującą placebo), to możemy wnioskować, że konkretne suplementy są nieskuteczne.

Generalnie w psychologii różnice między grupami są postrzegane jako istotne statystycznie, jeśli prawdopodobieństwo, że są one przypadkowe (grupy tak naprawdę nie różnią się od siebie) wynosi 5% lub mniej. Innymi słowy, chodzi o ograniczenie do maksymalnie 5% prawdopodobieństwa fałszywie potwierdzonych hipotez.

Najsilniejszą stroną eksperymentów jest możliwość uzyskania pewności, że jakakolwiek znacząca zmiana wyników jest spowodowana zmienną niezależną. Taką możliwość zapewnia losowy dobór uczestników do próby oraz takie planowanie eksperymentu, które ograniczy efekt oczekiwań eksperymentatora i uczestników. Dzięki temu tworzymy grupy o podobnym składzie, które traktowane są w ten sam sposób. Tym samym jakakolwiek różnica między grupami może zostać przypisana zmiennej niezależnej, co umożliwia nam stwierdzenie przyczynowości. Jeśli wykażemy, że wykorzystanie nowych technologii w nauczaniu daje takie same wyniki jak metody tradycyjne (a może nawet jest pod pewnymi względami skuteczniejsze), to możemy generalizować te wnioski i wykorzystać je np. w planowaniu efektywnej edukacji.

Publikowanie badań

Gdy psycholog zakończy projekt badawczy, zazwyczaj chce podzielić się uzyskanymi przez siebie wynikami z innymi naukowcami. Robi to za pośrednictwem publikacji pracy poświęconej swojemu badaniu w czasopismach naukowych. Czasopisma naukowe zazwyczaj publikują recenzowane artykuły naukowe (ang. peer-reviewed journal article) skierowane do osób zawodowo zajmujących się daną dziedziną oraz naukowców aktywnie zaangażowanych w pracę naukową.

Recenzowany artykuł jest czytany i oceniany przez kilku innych naukowców (zazwyczaj anonimowo) mających doświadczenie i znaczny dorobek w danej dziedzinie. Recenzenci przekazują informacje zwrotne, tj. swoje uwagi odnośnie do nadesłanej pracy, autorowi oraz redaktorowi danego czasopisma. Recenzenci skupiają się na istnieniu solidnych przesłanek do przeprowadzenia badania, jasnym opisie procedury badawczej oraz przestrzeganiu zasad etycznych. Jeśli występują jakiekolwiek nieścisłości czy naruszenia w zastosowanych metodach badawczych, założeniach czy interpretacji wyników, zwracają na nie uwagę. Ponadto recenzenci wypowiadają się na temat wartości, jaką przedstawia badanie dla rozwoju danej dyscypliny.

Pozwala to na uniknięcie duplikowania wyników badań w literaturze naukowej oraz, do pewnego stopnia, gwarantuje, że każdy nowy artykuł przedstawia nowe informacje. Na koniec redaktor pisma zbiera wszystkie opinie recenzentów i decyduje, czy artykuł zostanie opublikowany w nadesłanej formie (rzadki przypadek), z poprawkami czy w ogóle nie zostanie zaakceptowany do publikacji.

Recenzje zapewniają w pewnym stopniu kontrolę jakości badań psychologicznych. Źle przemyślane lub źle przeprowadzone badania zostają odrzucone, a nawet dobrze zaplanowane badanie może zostać ulepszone dzięki sugerowanym poprawkom. Recenzje gwarantują również, że badanie zostanie opisane wystarczająco jasno, by zapewnić jego powtarzalność (replikowalność) (ang. replicatability), tak by inni naukowcy mogli powtórzyć dany eksperyment przy użyciu różnych prób w celu określenia rzetelności wykonania badania. Czasami powtórki badań są wzbogacane o dodatkowe kryteria, które rozszerzają pierwotne wyniki.

W każdym przypadku replikacja zapewnia nowe dowody w danym obszarze badawczym. Udane powtórzenia opublikowanego badania sprawiają, że naukowcy są bardziej skłonni posługiwać się jego wynikami, a wielokrotnie nieudane powtórzenia skutkują zazwyczaj wątpliwościami co do słuszności oryginalnego artykułu i zachęcają naukowców do opierania się na innych dowodach. W ostatnich latach mamy do czynienia z tzw. „kryzysem replikacji” (ang. replication crisis), który dotknął wiele dziedzin nauki, w tym psychologię. Niektórych z najbardziej znanych wyników badań (prowadzonych przez słynnych naukowców) nie udało się zreplikować (zob. dyskusja w: Shrout i Rodgers, 2018). Nawet zdobywczyni Nagrody Nobla, amerykańska chemiczka Frances Arnold, wycofała opublikowany artykuł, ponieważ miała trudności z odtworzeniem swoich wyników (3 stycznia 2020 r.).

Tego rodzaju przypadki skłoniły niektórych naukowców do współpracy i bardziej otwartej wymiany, a niektórzy twierdzą, że obecny „kryzys” w rzeczywistości służy podwyższeniu standardów tworzenia nauki i dostarczania rzetelnych wyników (Aschwanden, 2018; Rodgers i Shrout, 2018).

Poznaj szczegóły

Mit wiążący szczepionki z autyzmem i wycofanie opublikowanych badań

W 1998 roku zespół kierowany przez Andrew Wakefielda opublikował w prestiżowym czasopiśmie „The Lancet” badanie, które wskazywało, że szczepionki dla dzieci powodują autyzm. Po latach dochodzeń, badań oraz batalii sądowych dowiedziono, że publikacja ta była spreparowanym oszustwem, w efekcie została wycofana z obiegu.

Opublikowana praca naukowa może zostać wycofana, gdy przedstawione w niej dane zostaną zakwestionowane, np. z powodu błędnego planu badawczego lub falsyfikacji wyników. Społeczność naukowa zostaje jednocześnie poinformowana, że dana publikacja nie była rzetelna. Wycofanie może zostać zainicjowane przez badacza prowadzącego, jego współpracowników, instytucję macierzystą badacza lub przez redakcję pisma, w którym pierwotnie ukazał się artykuł. W przypadku badania na temat szczepionek i autyzmu wycofanie nastąpiło z powodu istotnego konfliktu interesów. Okazało się, że dla głównego badacza ustalenie związku między dziecięcymi szczepionkami a autyzmem wiązało się z korzyściami finansowymi (Offit, 2008).

Niezliczone, zakrojone na szeroką skalę badania epidemiologiczne dowodzą, że szczepionki nie są przyczyną autyzmu i że szczepienie dzieci jest bezpieczne oraz konieczne dla zdrowia jednostki i całego społeczeństwa. Mimo to praca Wakefielda wyrządziła ogromną szkodę – w świadomości społecznej nadal funkcjonuje mit o szkodliwości szczepień. Rodzice nie szczepią dzieci z obawy przed nieistniejącym zagrożeniem, stwarzając realne zagrożenie epidemiczne dla swoich dzieci i dla populacji. W efekcie z roku na rok rośnie liczba zachorowań np. na odrę, jedną z najgroźniejszych chorób wirusowych, które dzięki szczepieniom niemal udało się wyeliminować.

(Rysunek 2.17). Aby uzyskać więcej informacji o tym, jak przebiegała sprawa badań nad szczepionkami i autyzmem oraz o jej konsekwencjach, przeczytaj książkę Paula Offita Fałszywi prorocy autyzmu: zła nauka, ryzykowna medycyna i poszukiwanie lekarstwa (ang. Autism's False Prophets: Bad Science, Risky Medcine, and the Search for a Cure).

A photograph shows a child being given an oral vaccine.
Rysunek 2.17 W świadomości społecznej nadal funkcjonuje mit, jakoby szczepionki powodowały autyzm. Źródłem tego mitu jest praca naukowa oparta na sfałszowanych danych. Fałszerstwo zostało udowodnione ponad wszelką wątpliwość i artykuł wycofano z czasopisma, w którym go pierwotnie opublikowano. (Źródło: modyfikacja pracy UNICEF Sverige).

Rzetelność i trafność

Rzetelność i trafność to wartości o ogromnym znaczeniu dla każdego procesu zbierania danych. Rzetelność (ang. reliability) danych oznacza możliwość dokładnego powtórzenia wyniku. W kontekście badań psychologicznych oznacza to, że każdy instrument czy narzędzie wykorzystane do gromadzenia danych można wielokrotnie wykorzystać w dokładny i powtarzalny sposób.

Istnieje wiele różnych rodzajów rzetelności. Niektóre z nich obejmują:

  • Spójność między oceniającymi (ang. inter-rater reliability), tj. stopień, w jakim dwóch lub więcej obserwatorów jest zgodnych w swoich wnioskach.

  • Spójność wewnętrzną (ang. internal consistency), tj. stopień, w jakim różne pozycje w testach, które mierzą to samo, korelują ze sobą.

  • Spójność testu w czasie (ang. test-retest reliability), tj. stopień, w jakim wyniki danego testu pozostają spójne przy kolejnych pomiarach danej osoby.

Niestety, dokładny pomiar nie jest zawsze równoznaczny z poprawnym pomiarem. By zilustrować ten problem, posłużmy się przykładem wagi kuchennej, którą wykorzystamy do zmierzenia masy zjadanych co rano płatków śniadaniowych. Jeśli waga nie jest dobrze skalibrowana, będzie za każdym razem spójnie zawyżała lub zaniżała masę ważonych płatków. Choć waga bardzo dokładnie podaje wyniki (np. ta sama ilość odważanych płatków daje za każdym razem ten sam wynik), to jednak wyniki nie są poprawne. I tu w grę zaczyna wchodzić trafność. Trafność (ang. validity) odnosi się do stopnia, w jakim dany instrument czy narzędzie mierzy to, co ma mierzyć. Podobnie jak w przypadku rzetelności testu, istnieje kilka rodzajów trafności. Najważniejsze z nich wymieniono poniżej:

  • Trafność ekologiczna (ang. ecological validity) to stopień, w jakim wyniki uzyskane z badań lub eksperymentów są reprezentatywne dla warunków w szerszym świecie; na przykład badania psychologiczne przeprowadzane wyłącznie wśród studentów uniwersytetów mogą mieć niską trafność ekologiczną, gdy dotyczą całej populacji.

  • Trafność teoretyczna (ang. construct validity) to cecha narzędzia pomiarowego obejmująca możliwie wyczerpującą liczbę logicznie ze sobą powiązanych pojęć i wskaźników, które mogą zostać wykorzystane do pomiaru jakiegoś obiektu, zjawiska itp. Narzędzie cechujące się trafnością teoretyczną powinno zatem umożliwiać pomiar badanego obiektu lub zjawiska w jego pełnym wymiarze.

Na przykład jedno z najpowszechniej wykorzystywanych narzędzi do pomiaru objawów stresu pourazowego (PTSD), Skala Wpływu Zdarzeń (ang. Impact of Event Scale (IES), w wersji pierwotnej ujmowało jedynie dwa z trzech definicyjnych objawów PTSD (obecność intruzji i unikania). Dopiero w zrewidowanej wersji IES - R (Weissi Marmar) uwzględniono trzy kluczowe wymiary PTSD, tj. intruzje, unikanie oraz pobudzenie – przejawiające się nadmierną czujnością oraz powracającymi, nieprzyjemnymi emocjami (Kosydar - Bochenek et al., 2016).

  • Trafność fasadowa (ang. face validity), tj. stopień, w jakim dana zmienna faktycznie wychwytuje lub mierzy to, co ma być zmierzone, czyli jest adekwatna do przedmiotu badania. Przykładem trafności fasadowej może być liczba przeczytanych recenzji książek i filmów w określonym czasie jako wskaźnik zainteresowania życiem kulturalnym. Akceptacja prawa do aborcji może być wskaźnikiem poglądów liberalnych i w tym sensie taki wskaźnik również cechowałby się trafnością fasadową. Poparcie dla partii prawicowej może być trafnym wskaźnikiem poglądów konserwatywnych itd.

Podczas gdy każdy trafny pomiar jest siłą rzeczy rzetelny, tak odwrotność tego twierdzenia nie zawsze jest prawdą. Badacze starają się wykorzystywać instrumenty, które są zarazem bardzo rzetelne i trafne.

Cytowanie i udostępnianie

Chcesz zacytować, udostępnić albo zmodyfikować treść tej książki? Została ona wydana na licencji, Creative Commons Attribution License 4.0 która wymaga od Ciebie uznania autorstwa OpenStax.

Cytowanie i udostępnienia
  • Jeśli rozpowszechniasz tę książkę w formie drukowanej, umieść na każdej jej kartce informację:
    Treści dostępne za darmo na https://openstax.org/books/psychologia-polska/pages/1-wprowadzenie
  • Jeśli rozpowszechniasz całą książkę lub jej fragment w formacie cyfrowym, na każdym widoku strony umieść informację:
    Treści dostępne za darmo nahttps://openstax.org/books/psychologia-polska/pages/1-wprowadzenie
Cytowanie

© 19 lip 2021 OpenStax. Treść książki została wytworzona przez OpenStax na licencji Creative Commons Attribution License 4.0. Nazwa OpenStax, logo OpenStax, okładki OpenStax, nazwa OpenStax CNX oraz OpenStax CNX logo nie podlegają licencji Creative Commons i wykorzystanie ich jest dozwolone wyłącznie na mocy uprzedniego pisemnego upoważnienia przez Rice University.