Metody jakościowe(badania etnograficzne, historyczne jako metody analizy jakościowej lokalnych mikrospołeczności, metoda studium przypadku, metoda biograficzna, metoda narracyjna) - interpretacja semantyczna danych. W przypadku stosowania metod jakościowych nie ma powiązania sformalizowanych operacji matematycznych pomiędzy etapem pozyskiwania danych pierwotnych a etapem sensownej analizy. Są to powszechnie znane i stosowane metody przetwarzania danych statystycznych.

Jednakże metody jakościowe obejmują pewne ilościowe metody gromadzenia i przetwarzania informacji: analizę treści; obserwacja; wywiad itp.

Przy podejmowaniu ważnych decyzji wykorzystuje się tzw. „drzewo decyzyjne” lub „drzewo celów”, które stanowi schematyczny opis problemu decyzyjnego, aby wybrać najlepszy sposób działania spośród dostępnych opcji. Schematy strukturalne celów można przedstawić w formie tabelarycznej i graficznej. Metoda grafowa ma szereg zalet w stosunku do metody tabelarycznej: po pierwsze pozwala na najbardziej ekonomiczne rejestrowanie i przetwarzanie informacji, po drugie można szybko stworzyć algorytm rozwoju, a po trzecie metoda grafowa jest bardzo wizualna. „Drzewo celów” stanowi podstawę wyboru najkorzystniejszych alternatyw, a także oceny stanu rozwijanych systemów i ich powiązań.

Podobnie skonstruowane są inne metody analizy jakościowej, w tym analogi ilościowych metod analizy czynnikowej.

Jak słusznie zauważył D.S. Klementiewa (21) efekt jakościowych metod badań socjologicznych jest możliwy tylko wtedy, gdy w odzwierciedleniu czynników społecznych dominują standardy etyczne. Socjolog, wybierając informację z masy wszelkiego rodzaju informacji, nie powinien ograniczać się jedynie do własnych preferencji. Ponadto, próbując odpowiedzieć na pytanie o faktyczny stan rzeczy w środowisku zarządzania, zbierając konkretne informacje – dane empiryczne, odwołując się do właściwości badanego zjawiska, socjolog nie powinien operować ogólnie przyjętymi przepisami” zdrowy rozsądek„, „zwykła logika” lub odwoływanie się do dzieł autorytetów religijnych i politycznych. Kompilując testy, socjolog musi unikać zniekształceń, które odzwierciedlają manipulację, a nie kontrolę. Kolejną podstawową normą dla socjologa jest uczciwość. Oznacza to, że osoba prezentująca wyniki badania, nawet jeśli nie są one dla niej satysfakcjonujące, nie powinna niczego ukrywać ani upiększać. Wymóg uczciwości obejmuje także przedstawienie pełnej dokumentacji istotnej dla sprawy. Musisz ponosić odpowiedzialność za wszelkie informacje wykorzystywane przez inne osoby krytyczna ocena metoda i wyniki badań. Należy o tym szczególnie pamiętać, aby uniknąć pokusy przedstawiania fałszywych informacji, co podważałoby wiarygodność ustaleń.

Metody ilościowe Badanie ilościowej pewności zjawisk i procesów społecznych odbywa się przy użyciu określonych narzędzi i metod. Są to obserwacja (bez zaangażowania i włączona), ankieta (rozmowy, kwestionariusze i wywiady), analiza dokumentów (ilościowa), eksperyment (kontrolowany i niekontrolowany).

Obserwacja jako metoda klasyczna nauki przyrodnicze reprezentuje specjalnie zorganizowane postrzeganie badanego obiektu. Organizacja obserwacji obejmuje określenie cech obiektu, celów i zadań obserwacji, wybór rodzaju obserwacji, opracowanie programu i procedury obserwacji, ustalenie parametrów obserwacji, opracowanie technik wykonywania wyników, analizę wyników i wniosków. W przypadku obserwacji nieuczestniczącej interakcja między obserwatorem a przedmiotem badań (na przykład systemem sterowania) jest zminimalizowana. Gdy ta opcja jest włączona, obserwator wchodzi w obserwowany proces jako uczestnik, tj. osiąga maksymalną interakcję z obiektem obserwacji, z reguły nie ujawniając w praktyce swoich zamierzeń badawczych. W praktyce obserwację najczęściej wykorzystuje się w połączeniu z innymi metodami badawczymi.

Ankiety Istnieją ciągłe i selektywne. Jeżeli badanie przeprowadza się obejmując całą populację respondentów (np. wszystkich członków organizacji społecznej), nazywa się je badaniem ciągłym. Podstawą badania reprezentacyjnego jest populacja próby jako zmniejszona kopia populacji ogólnej. Za populację ogólną uważa się całą populację lub tę jej część, którą socjolog zamierza badać. Próba – zbiór osób, z którymi socjolog przeprowadza wywiad (22).

Badanie można przeprowadzić za pomocą kwestionariuszy lub wywiadów. Wywiad- to sformalizowany rodzaj rozmowy. Wywiady z kolei mogą mieć charakter standaryzowany lub niestandaryzowany. Czasami uciekają się do rozmów telefonicznych. Osoba przeprowadzająca wywiad nazywana jest ankieterem.

Kwestionariusz- pisemny rodzaj ankiety. Kwestionariusz, podobnie jak wywiad, składa się z zestawu jasno sformułowanych pytań, które są zadawane respondentowi w formie pisemnej. Pytania mogą wymagać udzielenia odpowiedzi w formie dowolnej („kwestionariusz otwarty”) lub w formie zadanej („kwestionariusz zamknięty”), gdzie respondent wybiera jedną z proponowanych opcji odpowiedzi (23).

Kwestionowanie, ze względu na swoją specyfikę, ma szereg zalet w porównaniu z innymi metodami badawczymi: czas rejestracji odpowiedzi respondentów ulega skróceniu dzięki samodzielnemu liczeniu; formalizacja odpowiedzi stwarza możliwość zastosowania zmechanizowanego i zautomatyzowanego przetwarzania kwestionariuszy; Dzięki anonimowości możliwe jest osiągnięcie szczerości w odpowiedziach.

Często wykorzystuje się go w celu dalszego rozwijania kwestionariuszy skalowana metoda oceny ma zastosowanie. Metoda ma na celu uzyskanie informacji ilościowych poprzez pomiar stosunku specjalistów do przedmiotu badania w tej czy innej skali - nominalnej, rangowej, metrycznej. Konstrukcja skali ocen, która adekwatnie mierzy badane zjawiska, jest bardzo trudna trudne zadanie, lecz przetwarzanie wyników takiego badania, przeprowadzane metodami matematycznymi przy pomocy aparatury statystyka matematyczna, może dostarczyć cennych informacji analitycznych w ujęciu ilościowym.

Metoda analizy dokumentów pozwala na szybkie uzyskanie faktycznych danych o badanym obiekcie.

Sformalizowana analizaźródła dokumentalne (analiza treści), mające na celu wydobycie informacji socjologicznych z dużych zbiorów źródeł dokumentalnych niedostępnych tradycyjnej analizie intuicyjnej, opiera się na identyfikacji pewnych cech ilościowych tekstów (lub przekazów). Zakłada się, że ilościowe cechy treści dokumentów odzwierciedlają istotne cechy badanych zjawisk i procesów.

Po ustaleniu ilościowego wpływu badanych czynników na badany proces można zbudować probabilistyczny model zależności między tymi czynnikami. W tych modelach badane fakty będą pełnić funkcję funkcji, a czynniki ją determinujące będą działać jako argumenty. Nadając pewną wartość tym argumentom, uzyskuje się określoną wartość funkcji. Co więcej, wartości te będą prawidłowe tylko z pewnym stopniem prawdopodobieństwa. Aby uzyskać konkretną wartość liczbową parametrów tego modelu, należy odpowiednio przetworzyć dane z badania ankietowego i zbudować na ich podstawie wieloczynnikowy model korelacji.

Eksperyment podobnie jak metoda ankietowa jest testem, ale w przeciwieństwie do pierwszej ma na celu udowodnienie tego lub innego założenia lub hipotezy. Eksperyment jest zatem jednorazowym sprawdzianem danego wzorca zachowań (myślenia, zjawiska).

Eksperymenty można przeprowadzać w różne formy. Wyróżnia się eksperymenty mentalne i „naturalne”, dzieląc je na laboratoryjne i terenowe. Eksperyment myślowy to specjalna technologia interpretacji otrzymanych informacji o badanym obiekcie, która wyklucza ingerencję badacza w procesy zachodzące w obiekcie. Metodologicznie eksperyment socjologiczny opiera się na koncepcji determinizmu społecznego. W układzie zmiennych wyodrębnia się czynnik eksperymentalny, inaczej oznaczony jako zmienna niezależna.

Badania eksperymentalne formy społeczne przeprowadzanych w trakcie ich eksploatacji, dzięki czemu możliwe staje się rozwiązywanie problemów niedostępnych innymi metodami. W szczególności eksperyment pozwala zbadać, w jaki sposób można połączyć powiązania między zjawiskiem społecznym a zarządzaniem. Pozwala badać nie tylko poszczególne aspekty zjawisk społecznych, ale całokształt powiązań i relacji społecznych. Wreszcie eksperyment umożliwia zbadanie całego zespołu reakcji podmiotu społecznego na zmiany warunków działania (reakcja wyrażająca się zmianami wyników działania, jego charakteru, relacji między ludźmi, zmianami w ich ocenach, zachowaniu, itp.). Zmiany dokonane w trakcie eksperymentu mogą oznaczać albo utworzenie zasadniczo nowych form społecznych, albo mniej lub bardziej znaczącą modyfikację istniejących. We wszystkich przypadkach eksperyment stanowi praktyczną transformację określonego obszaru kontroli.

Ogólnie rzecz biorąc, algorytmiczny charakter metody ilościowej w wielu przypadkach pozwala dojść do podjęcia bardzo „trafnych” i uzasadnionych decyzji lub przynajmniej uprościć problem, sprowadzając go do etapowego znajdowanie rozwiązań pewnego zestawu prostszych problemów.

Efektem końcowym wszelkich badań socjologicznych jest identyfikacja i wyjaśnienie prawidłowości oraz zbudowanie na tej podstawie teorii naukowej, która pozwala przewidzieć przyszłe zjawiska i opracować praktyczne rekomendacje.

Zagadnienia do dyskusji

1. Jaka jest metoda socjologii zarządzania?

2. Jaka jest specyfika metod socjologii zarządzania?

3. Wymień znane Ci klasyfikacje metod socjologii zarządzania?

4. Czym różnią się jakościowe i ilościowe metody badań socjologicznych?

5. Ustalić istotę wywiadów, kwestionariuszy, sposób oceny skalowanej itp.

21 Klementyev D.S. Socjologia zarządzania: Podręcznik. dodatek. - wyd. 3, poprawione. i dodatkowe - M .: Wydawnictwo Moskiewskiego Uniwersytetu Państwowego, 2010. - P.124

22 Yadov V.A. Badania socjologiczne: Metodologia, program, metody. - M., 1987. - s. 22-28.

23 Ilyin G.L. Socjologia i psychologia zarządzania: instruktaż dla uczniów wyższy podręcznik zakłady / G.L. Ilyin. - wyd. 3, skreślone. - M: Ośrodek Wydawniczy „Akademia”, 2010. - s. 19.

Strona główna > Dokument

V. V. NIKANDROV

NIEEMPIRYCZNE METODY PSYCHOLOGII

PRZEMÓWIENIE

Petersburg 2003

BBK 88,5 N62

Wydrukowano dekretem

rada redakcyjna i wydawnicza

Uniwersytet Państwowy w Petersburgu

Recenzenci: Doktor psychologii L. V. Kulikov, Kandydat nauk psychologicznych Yu I. Filimonenko. Nikandrov V.V. H62 Nieempiryczne metody psychologii: Podręcznik. dodatek. - St. Petersburg: Rech, 2003. - 53 s. Podręcznik zawiera podstawowe informacje na temat metod organizacji badań psychologicznych, przetwarzania materiału empirycznego i interpretacji wyników, ujęte pod nazwą „nieempiryczne metody psychologii”. Podręcznik adresowany jest do studentów, doktorantów i innych kategorii studiujących studentów kierunki psychologiczne. BBK 88.5 ISBN 5-9268-0174-5 ISBN 5-9268-0174-5 © V. V. Nikandrov, 2003 © Wydawnictwo Rech, 2003 © P. V. Borozenets, projekt okładki, 2003

Wprowadzenie 7 1. Metody organizacyjne 11 1.1. Metoda porównawcza 11 1.2. Metoda podłużna 12 1.3. Metoda złożona 15 2. Metody przetwarzania danych 16 2.1. Metody ilościowe 18 2.1.1. Podstawowe metody przetwarzania 18 2.1.2. Metody przetwarzania wtórnego 19 2.1.2.1. Przegląd ogólny o przetwarzaniu wtórnym 19 2.1.2.2. Kompleksowe obliczanie statystyk 25 2.1.2.3. Analiza korelacji 25 2.1.2.4. Analiza wariancji 26 2.1.2.5. Analiza czynnikowa 26 2.1.2.6. Analiza regresji 27 2.1.2.7. Analiza taksonomiczna 28 2.1.2.8. Skalowanie 28 2.2. Metody jakościowe 38 2.2.1. Klasyfikacja 38 2.2.2. Typologia 40 2.2.3. Systematyzacja 43 2.2.4. Periodyzacja 43 2.2.5. Kazuistyka psychologiczna 44

3. Metody interpretacyjne 45

3.1. Metoda genetyczna 45 3.2. Metoda strukturalna 46 3.3. Metoda funkcjonalna 47 3.4. Metoda złożona 48 3.5. Metoda systemowa 49 Literatura 52

Wstęp

Nieempiryczne metody psychologii- są to techniki badań naukowo-badawczych, polegające na pracy psychologicznej poza ramami kontaktu (bezpośredniego lub pośredniego) badacza z przedmiotem badań. Techniki te, po pierwsze, przyczyniają się do organizacji pozyskiwania informacji psychologicznej metodami empirycznymi, a po drugie, umożliwiają przekształcenie tych informacji w wiarygodne wiedza naukowa. Jak wiadomo, w pierwszym przybliżeniu wszelkie badania naukowe, w tym psychologiczne, przechodzą przez trzy etapy: 1) przygotowawczy; 2) główny; 3) ostateczne. Na pierwszym etapie formułuje się cele i zadania badań, ukierunkowuje się na zasób wiedzy w tym zakresie, sporządza się program działań, rozwiązuje kwestie organizacyjne, rzeczowe i finansowe. NA scena główna Dokonuje się właściwy proces badawczy: naukowiec za pomocą specjalnych metod wchodzi w kontakt (bezpośredni lub pośredni) z badanym obiektem i zbiera o nim dane. To właśnie ten etap zazwyczaj najlepiej odzwierciedla specyfikę badań: badaną rzeczywistość w postaci badanego przedmiotu i przedmiotu, obszar wiedzy, rodzaj badań, wyposażenie metodologiczne. NA Ostatni etap Otrzymane dane są przetwarzane i przekształcane w pożądany wynik. Wyniki są korelowane z wyznaczonymi celami, wyjaśniane i włączane do istniejącego systemu wiedzy w tej dziedzinie. Powyższe etapy można podzielić, a następnie uzyskać bardziej szczegółowy schemat, którego analogi w tej czy innej formie podano w literaturze naukowej:

I. Etap przygotowawczy:

1. Opis problemu; 2. Zaproponowanie hipotezy; 3. Planowanie nauki. II. Etap główny (empiryczny): 4. Zbieranie danych. III. Etap końcowy: 5. Przetwarzanie danych; 6. Interpretacja wyników; 7. Wnioski i włączenie wyników do systemu wiedzy. W pierwszym i trzecim etapie badań stosuje się metody nieempiryczne, w drugim – metody empiryczne. W nauce istnieje wiele klasyfikacji metod psychologicznych, jednak większość z nich dotyczy metod empirycznych. Metody nieempiryczne przedstawiono w kilku klasyfikacjach, z których najwygodniejsze są te oparte na kryterium etapów procesu psychologicznego. Wśród nich najbardziej udana i powszechnie uznawana jest klasyfikacja metody psychologiczne, zaproponowany przez B. G. Ananyeva, który z kolei oparł się na klasyfikacji bułgarskiego naukowca G. Pirowa. Uważa się, że B. G. Ananyev „opracował klasyfikację odpowiadającą współczesnemu poziomowi nauki i stał się bodźcem do dalszych badań nad tym kluczowym problemem dla metodologii psychologii”. Podział przebiegu badań psychologicznych na etapy według B. G. Ananyeva, choć nie do końca pokrywa się z tym, co podaliśmy powyżej, jest nadal bardzo bliski: A) etap organizacyjny (planowanie); B) etap empiryczny (gromadzenie danych); B) przetwarzanie danych; D) interpretacja wyników. Po nieznacznej zmianie i uzupełnieniu klasyfikacji B. G. Ananyeva otrzymamy szczegółowy system metod, który polecamy jako punkt odniesienia podczas studiowania narzędzi psychologicznych:

I. Metody organizacyjne (podejścia).

1. Porównawczy. 2. Podłużny. 3. Kompleksowe.

P. Metody empiryczne.

1. Obserwacyjny (obserwacja): a) obserwacja obiektywna; b) introspekcja (introspekcja). 2. Metody komunikacji werbalnej. konwersacja; b) ankieta (wywiad i kwestionariusz). 3. Metody eksperymentalne: a) eksperyment laboratoryjny; b) eksperyment naturalny; c) eksperyment formacyjny. 4. Metody psychodiagnostyczne: a) testy psychodiagnostyczne; b) metody psychosemantyczne; c) metody psychomotoryczne; d) metody socjopsychologicznej diagnostyki osobowości. 5. Metody psychoterapeutyczne. 6. Metody badania produktów działalności: a) metoda rekonstrukcji; b) sposób badania dokumentów (metoda archiwalna); c) grafologia. 7. Metody biograficzne. 8. Metody psychofizjologiczne: a) metody badania pracy układu autonomicznego system nerwowy; b) metody badania funkcjonowania somatycznego układu nerwowego; c) metody badania funkcjonowania ośrodkowego układu nerwowego. 9. Metody praksymetryczne: a) metody ogólne badania indywidualne ruchy i działania; b) specjalne metody badania operacji i działań związanych z pracą. 10. Modelowanie. 11. Specyficzne metody nauk psychologicznych.

III. Metody przetwarzania danych:

1. Metody ilościowe; 2. Metody jakościowe.

IV. Metody (podejścia) interpretacyjne:

1. Genetyczne; 2. Strukturalny; 3. Funkcjonalny; 4. Kompleksowe; 5. Systemowe. [ 9] Powyższa klasyfikacja nie pretenduje do charakteru wyczerpującego i ściśle systematycznego. I za B. G. Ananyevem możemy powiedzieć, że „sprzeczności współczesnej metodologii, metod i technik psychologii znajdują dość głębokie odzwierciedlenie w proponowanej klasyfikacji”. Niemniej jednak nadal daje ogólne pojęcie o systemie metod stosowanych w psychologii oraz metodach o ugruntowanych oznaczeniach i nazwach w praktyce ich stosowania. Zatem na podstawie zaproponowanej klasyfikacji mamy trzy grupy metod nieempirycznych: organizacyjne, przetwarzania danych i interpretacyjne. Przyjrzyjmy się im jeden po drugim.

    METODY ORGANIZACYJNE

Metody te należy raczej nazwać podejściami, gdyż reprezentują nie tyle konkretną metodę badawczą, ile strategię proceduralną. Wybór tej lub innej metody organizacji badań jest z góry określony przez ich cele. Z kolei wybrane podejście determinuje zbiór i kolejność stosowania określonych metod gromadzenia danych o przedmiocie i przedmiocie badań.

1.1. Metoda porównawcza

Metoda porównawcza polega na porównaniu różnych obiektów lub różnych aspektów jednego przedmiotu badań w pewnym momencie. Dane pobrane z tych obiektów porównuje się ze sobą, co pozwala na identyfikację zależności pomiędzy nimi. Sub-ruch pozwala na naukę zróżnicowanie przestrzenne, relacje I ewolucja zjawiska psychiczne. Różnorodność i relacje bada się albo poprzez porównanie różnych przejawów psychiki w jednym obiekcie (osobie, zwierzęciu, grupie) w określonym momencie, albo poprzez jednoczesne porównanie różni ludzie(zwierzęta, grupy) według dowolnego typu (lub zespołu) przejawów mentalnych. Na przykład bada się zależność szybkości reakcji od rodzaju modalności sygnału u konkretnej osoby oraz od płci, pochodzenia etnicznego lub cechy wieku- na kilka osób. Jasne jest, że „jednoczesność”, podobnie jak „pewny moment w czasie”, w tym przypadku są pojęciami względnymi. Determinuje je czas trwania badania, który można mierzyć w godzinach, dniach, a nawet tygodniach, ale będzie on nieistotny w porównaniu z cyklem życia badanego obiektu. [ 11] Szczególnie jasny metoda porównawcza przejawia się w ewolucyjnych badaniach psychiki. Porównaniu podlegają obiekty (i ich wskaźniki) odpowiadające poszczególnym etapom filogenezy. Naczelne, archantropy, paleoantropy porównuje się ze współczesnymi ludźmi, o czym danych dostarcza zoopsychologia, antropologia, paleopsychologia, archeologia, etologia i inne nauki o zwierzętach i pochodzeniu człowieka. Nauka zajmująca się taką analizą i uogólnieniami nazywa się „psychologią porównawczą”. Poza metodą porównawczą cała psychologia różnic (psychologia różnicowa) jest nie do pomyślenia. Ciekawa modyfikacja metody porównawczej jest szeroko rozpowszechniona w psychologii rozwojowej i nazywa się ją „metodą przekrojową”. Przekroje poprzeczne to zbiór danych o osobie na określonych etapach jej ontogenezy (niemowlęctwo, dzieciństwo, starość itp.), uzyskanych w badaniach odpowiednich populacji. Takie dane w uogólnionej formie mogą pełnić rolę standardów poziomu rozwój mentalny osoba w określonym wieku w określonej populacji. Metoda porównawcza pozwala na zastosowanie dowolnej metody empirycznej przy zbieraniu danych o przedmiocie badań.

1.2. Metoda podłużna

Metoda podłużna (łac. long - long) - długotrwałe i systematyczne badanie tego samego obiektu. Takie długoterminowe śledzenie obiektu (zwykle według wcześniej opracowanego programu) pozwala określić dynamikę jego istnienia i przewidzieć jego dalszy rozwój. W psychologii metoda podłużna jest szeroko stosowana w badaniu dynamiki wieku, głównie w dzieciństwo. Specyficzną formą realizacji jest metoda „przekrojów podłużnych”. Przekroje podłużne to zbiór danych o danej osobie w określonym okresie jej życia. Okresy te można mierzyć w miesiącach, latach, a nawet dekadach. Efektem metody longitudinalnej jako sposobu organizacji wieloletniego cyklu badawczego „jest indywidualna monografia lub zbiór takich monografii opisujących przebieg rozwoju umysłowego, obejmujący szereg faz okresów życia człowieka. Porównanie takich pojedynczych monografii pozwala w miarę w pełni przedstawić zakres wahań norm wiekowych i momenty przejścia z jednej fazy rozwoju do drugiej. Jednakże skonstruowanie szeregu testów funkcjonalnych i metod eksperymentalnych, powtarzanych okresowo podczas badania tej samej osoby, jest sprawą niezwykle trudną, gdyż dostosowanie podmiotu do warunków eksperymentalnych i specjalny trening mogą wpływać na obraz rozwoju. Ponadto wąska baza takiego badania, ograniczona do niewielkiej liczby wybranych obiektów, nie daje podstaw do konstruowania syndromów związanych z wiekiem, co z powodzeniem realizuje się metodą porównawczą „przekrojów”. Dlatego wskazane jest łączenie, jeśli to możliwe, metod podłużnych i porównawczych. J. Shvantsara i V. Smekal proponują następującą klasyfikację typów badań podłużnych: A. W zależności od czasu trwania badania: 1. Obserwacja krótkoterminowa; 2. Długoterminowa obserwacja; 3. Szybsza obserwacja. B. W zależności od kierunku badania: 1. Obserwacja retrospektywna; 2. Prospektywna (prospektywna) obserwacja; 3. Obserwacja łączona. B. W zależności od zastosowanych metod: 1. Prawdziwa obserwacja podłużna; 2. Obserwacja mieszana; 3. Obserwacja pseudopodłużna. Krótkoterminowe Zaleca się prowadzenie obserwacji w celu zbadania etapów ontogenezy, bogatych w zmiany i skoki rozwojowe. Na przykład niemowlęcy okres niemowlęcy, okres dojrzewania w okresie dojrzewania - młodość itp. Jeśli celem badania jest zbadanie dynamiki okresów rozwoju na dużą skalę, związku między poszczególnymi okresami a indywidualnymi zmianami, to jest polecany Tak długoterminowy wzdłużny Przyśpieszony opcja przeznaczona jest do badania długich okresów rozwoju, ale w krótkim czasie. Stosowany głównie w psychologii dziecięcej. Obserwacji podlega kilka jednocześnie grupy wiekowe. Przedział wiekowy każdej grupy zależy od celu badania. W praktyce monitorowania dzieci jest to zwykle 3-4 lata. Sąsiednie grupy nakładają się na siebie przez rok do dwóch lat. Równoległa obserwacja szeregu takich grup pozwala na połączenie danych wszystkich grup w jeden cykl, obejmujący cały zbiór tych grup od najmłodszej do najstarszej. Zatem badanie prowadzone przez, powiedzmy, 2-3 lata może dostarczyć wycinka podłużnego obejmującego 10-20 lat ontogenezy. Z mocą wsteczną forma pozwala prześledzić rozwój osoby lub jej indywidualnych cech w przeszłości. Odbywa się to poprzez zbieranie informacji biograficznych i analizę produktów działalności. W przypadku dzieci są to przede wszystkim rozmowy autobiograficzne, zeznania rodziców i dane z wywiadu. Perspektywiczny, Lub spodziewany, metodą są bieżące obserwacje rozwoju człowieka (zwierzęcia, grupy) do określonego wieku. Łączny badanie zakłada włączenie elementów retrospektywnych do prospektywnego badania podłużnego. PRAWDA podłużna to klasyczna długoterminowa obserwacja jednego obiektu. Mieszany Uważa się ją za metodę badań podłużnych, w której prawdziwą obserwację podłużną na niektórych etapach uzupełniają przekroje, które dostarczają informacji porównawczych o innych obiektach tego samego typu co badany. Metoda ta jest korzystna w przypadku obserwacji grup, które z czasem „roztapiają się”, czyli ich skład maleje z okresu na okres. Pseudopodłużny Badanie polega na uzyskaniu „norm” dla poszczególnych grup wiekowych i chronologicznym uporządkowaniu tych wskaźników. Normę uzyskuje się poprzez przekroje grupy, czyli poprzez uśrednione dane dla każdej grupy. Tutaj wyraźnie widać niedopuszczalność kontrastujących przekrojów poprzecznych i podłużnych, ponieważ te ostatnie, jak widzimy, można uzyskać poprzez sekwencyjną (chronologiczną) serię przekrojów poprzecznych. Nawiasem mówiąc, w ten sposób uzyskano „większość znanych dotychczas norm psychologii ontogenetycznej”. [ 14]

1.3. Metoda złożona

Metoda zintegrowana (podejście) polega na zorganizowaniu kompleksowego badania obiektu. W istocie jest to z reguły badanie interdyscyplinarne poświęcone badaniu przedmiotu wspólnego dla kilku nauk: przedmiot jest jeden, ale przedmioty badań są różne. [ 15]

    METODY PRZETWARZANIA DANYCH

Przetwarzanie danych ma na celu rozwiązanie następujących problemów: 1) uporządkowanie materiału źródłowego, przekształcenie zbioru danych w całościowy system informacji, na podstawie którego możliwy jest dalszy opis i wyjaśnienie badanego przedmiotu i tematu; 2) wykrywanie i eliminowanie błędów, niedociągnięć, luk informacyjnych; 3) identyfikowanie trendów, wzorców i powiązań ukrytych przed bezpośrednim postrzeganiem; 4) odkrycie nowych faktów, których się nie spodziewano i które nie zostały dostrzeżone w procesie empirycznym; 5) określanie poziomu rzetelności, rzetelności i dokładności zbieranych danych oraz uzyskiwanie na ich podstawie wyników o charakterze naukowym. Przetwarzanie danych ma aspekty ilościowe i jakościowe. Przetwarzanie ilościowe następuje manipulacja zmierzonymi cechami badanego obiektu (obiektów), z jego „uprzedmiotowionymi” właściwościami w zewnętrznej manifestacji. Wysokiej jakości obróbka- jest to metoda wstępnego wniknięcia w istotę przedmiotu poprzez identyfikację jego niemierzalnych właściwości na podstawie danych ilościowych. Przetwarzanie ilościowe ma na celu głównie formalne, zewnętrzne badanie obiektu, podczas gdy przetwarzanie jakościowe ma na celu głównie znaczące, wewnętrzne jego badanie. W badaniach ilościowych dominuje analityczny komponent poznania, co znajduje odzwierciedlenie w nazwach ilościowych metod przetwarzania materiału empirycznego, które zawierają kategorię „analiza”: analiza korelacji, analiza czynnikowa itp. Głównym efektem przetwarzania ilościowego jest uporządkowana zestaw „zewnętrznych” wskaźników obiektu (obiektów). Przetwarzanie ilościowe odbywa się przy użyciu metod matematycznych i statystycznych. W przetwarzaniu jakościowym dominuje syntetyczny składnik poznania, w tej syntezie dominuje składnik unifikacyjny, w mniejszym stopniu składnik uogólniający. Generalizacja jest prerogatywą kolejnego etapu procesu badań interpretacyjnych. W fazie jakościowego przetwarzania danych nie chodzi o to, aby ujawnić istotę badanego zjawiska, lecz na razie jedynie o odpowiednie przedstawienie informacji na jego temat, zapewniając jego dalsze studia teoretyczne. Zazwyczaj wynikiem przetwarzania jakościowego jest zintegrowana reprezentacja zbioru właściwości obiektu lub zbioru obiektów w formie klasyfikacji i typologii. Przetwarzanie jakościowe w dużej mierze odwołuje się do metod logiki. Kontrast między przetwarzaniem jakościowym i ilościowym (a co za tym idzie, odpowiednimi metodami) jest raczej arbitralny. Tworzą organiczną całość. Analiza ilościowa bez późniejszego przetwarzania jakościowego nie ma sensu, ponieważ sama w sobie nie jest w stanie przekształcić danych empirycznych w system wiedzy. A jakościowe badanie obiektu bez podstawowych danych ilościowych w wiedzy naukowej jest nie do pomyślenia. Bez danych ilościowych poznanie jakościowe jest procedurą czysto spekulatywną, a nie charakterystyczną nowoczesna nauka. W filozofii kategorie „jakość” i „ilość”, jak wiadomo, łączy się w kategorię „miara”. Jedność ilościowego i jakościowego rozumienia materiału empirycznego wyraźnie ujawnia się w wielu metodach przetwarzania danych: analizie czynnikowej i taksonomicznej, skalowaniu, klasyfikacji itp. Ponieważ jednak tradycyjnie w nauce podział na cechy ilościowe i jakościowe, ilościowe i jakościowe metody naturalne, ilościowe i opisy jakościowe, ilościowe i jakościowe aspekty przetwarzania danych przyjmiemy jako niezależne fazy jednego etapu badawczego, któremu odpowiadają określone metody ilościowe i jakościowe. Wysokiej jakości obróbka w naturalny sposób skutkuje opis I wyjaśnienie badanych zjawisk, co stanowi kolejny poziom ich badania, realizowany na tym etapie interpretacje wyniki. Przetwarzanie ilościowe odnosi się w całości do etapu przetwarzania danych.

2.1. Metody ilościowe

Proces ilościowego przetwarzania danych składa się z dwóch faz: podstawowy I wtórny.

2.1.1. Podstawowe metody przetwarzania

Przetwarzanie pierwotne celuje w aranżacja informację o przedmiocie i przedmiocie studiów uzyskano pod adresem etap empiryczny badania. Na tym etapie „surowe” informacje są grupowane według określonych kryteriów, wprowadzane do tabel zbiorczych i dla przejrzystości prezentowane graficznie. Wszystkie te manipulacje umożliwiają, po pierwsze, wykrycie i wyeliminowanie błędów popełnionych przy zapisywaniu danych, a po drugie, identyfikację i usunięcie z ogólnego szeregu śmiesznych danych uzyskanych w wyniku naruszenia procedury sprawdzającej, nieprzestrzegania instrukcji ze strony tematy itp. Dodatkowo wstępnie przetworzone dane, przedstawione w dogodnej do przeglądania formie, dają badaczowi pierwsze przybliżenie natury całego zbioru danych jako całości: ich jednorodność – niejednorodność, zwartość – rozproszenie, klarowność – rozmycie itp. Informacje te są łatwo czytelne na wizualnych formach prezentacji danych i kojarzą się z koncepcjami „dystrybucji danych”. Główne metody pierwotnego przetwarzania obejmują: zestawienie, tj. przedstawienie informacji ilościowych w formie tabelarycznej, oraz diagramowanie(Ryż. I), histogramy (ryc. 2), wielokąty rozkładu (ryc. 3) I krzywe rozkładu(ryc. 4). Diagramy odzwierciedlają rozkład danych dyskretnych; inne formy graficzne służą do przedstawienia rozkładu danych ciągłych. Łatwo jest przejść od histogramu do wykresu wielokąt rozkładu częstotliwości, a od tego ostatniego - do krzywej rozkładu. Wielokąt częstotliwości konstruuje się poprzez połączenie górnych punktów osi środkowych wszystkich odcinków histogramu odcinkami prostymi. Jeśli połączysz wierzchołki sekcji gładkimi zakrzywionymi liniami, otrzymasz krzywa dystrybucji wyniki pierwotne. Przejście z histogramu na krzywą rozkładu pozwala poprzez interpolację znaleźć te wartości badanej zmiennej, których nie uzyskano w eksperymencie. [ 18]

2.1.2. Metody przetwarzania wtórnego

2.1.2.1. Zrozumienie recyklingu

Przetwarzanie wtórne leży głównie w Analiza statystyczna wyniki pierwotnego przetwarzania. Tabelowanie i kreślenie wykresów, ściśle rzecz biorąc, to także przetwarzanie statystyczne, które wraz z obliczaniem miar tendencji centralnej i rozproszenia wchodzi w skład jednego z działów statystyki, a mianowicie opisowe statystyki. Kolejna część statystyk - statystyka indukcyjna- sprawdza zgodność danych próby z całą populacją, czyli rozwiązuje problem reprezentatywności wyników i możliwości przejścia od wiedzy prywatnej do wiedzy ogólnej. Trzecia duża sekcja - statystyki korelacji- identyfikuje powiązania pomiędzy zjawiskami. Generalnie trzeba zrozumieć, że „statystyka to nie matematyka, ale przede wszystkim sposób myślenia i żeby ją stosować wystarczy mieć odrobinę zdrowego rozsądku i znać podstawy matematyki”. Analiza statystyczna cały zestaw danych uzyskanych w badaniu pozwala na jego scharakteryzowanie w niezwykle skompresowanej formie, gdyż pozwala na udzielenie odpowiedzi trzy główne pytania: 1) Która wartość jest najbardziej typowa dla próbki?; 2) czy rozrzut danych w stosunku do tej wartości charakterystycznej jest duży, czyli jaka jest „niejasność” danych?; 3) czy istnieje związek pomiędzy danymi osobniczymi w istniejącej populacji oraz jaki jest charakter i siła tych powiązań? Odpowiedzi na te pytania dostarczają niektóre wskaźniki statystyczne badanej próby. Aby rozwiązać pierwsze pytanie, wykonaj obliczenia miary tendencji centralnej(Lub Lokalizacja), drugi - miary zmienności(Lub dyspersja, rozpraszanie), trzeci - środki komunikacyjne(Lub korelacje). Te wskaźniki statystyczne mają zastosowanie do danych ilościowych (porządkowych, przedziałowych, proporcjonalnych). Miary tendencji centralnej(m.c.t.) to wielkości, wokół których grupowana jest reszta danych. Wartości te są niejako wskaźnikami uogólniającymi całą próbę, co po pierwsze pozwala na ocenę na ich podstawie całej próby, a po drugie pozwala porównać ze sobą różne próbki, różne serie. Do miar tendencji centralnej zalicza się: średnia arytmetyczna, mediana, moda, średnia geometryczna, średnia harmoniczna. W psychologii zwykle używane są pierwsze trzy. Średnia arytmetyczna (M) jest wynikiem podzielenia sumy wszystkich wartości (X) według ich liczby (N): M = EX / N. Mediana (Ja) - jest to wartość, powyżej i poniżej której liczba różnych wartości jest taka sama, tj. jest to wartość środkowa w kolejnym ciągu danych. Przykłady: 3,5,7,9,11,13,15; Ja = 9. 3,5,7,9, 11, 13, 15, 17; Ja = 10. Z przykładów jasno wynika, że ​​mediana nie musi pokrywać się z istniejącym pomiarem, jest to punkt na skali. Dopasowanie występuje w przypadku nieparzystej liczby wartości (odpowiedzi) na skali, rozbieżność występuje w przypadku liczby parzystej. Moda (poniedziałek)- jest to wartość, która występuje najczęściej w próbie, czyli wartość występująca z największą częstotliwością. Przykład: 2, 6, 6, 8, 9, 9, 9, 10; Mo = 9. Jeżeli wszystkie wartości w grupie występują jednakowo często, wówczas uważa się, że żadnej mody(na przykład: 1, 1, 5, 5, 8, 8). Jeśli dwie sąsiednie wartości mają tę samą częstotliwość i są większe niż częstotliwość jakiejkolwiek innej wartości, istnieje tryb przeciętny te dwie wartości (na przykład: 1, 2, 2, 2, 4, 4, 4, 5, 5, 7; Mo = 3). Jeśli to samo dotyczy dwóch wartości niesąsiadujących ze sobą, to istnieją dwie mody i grupa oszacowań dwumodalny(na przykład: 0, 1, 1, 1, 2, 3, 4, 4, 4, 7; Mo = 1 i 4). Zwykle średnią arytmetyczną stosuje się, gdy dąży się do największej dokładności i gdy trzeba później obliczyć odchylenie standardowe. Mediana - gdy seria zawiera „nietypowe” dane, które ostro wpływają na średnią (na przykład: 1, 3, 5, 7, 9, 26, 13). Moda - gdy nie jest wymagana duża dokładność, ale liczy się szybkość wyznaczania m.c. T. Miary zmienności (rozproszenie, rozproszenie)- są to wskaźniki statystyczne charakteryzujące różnice pomiędzy wartościami poszczególnych próbek. Pozwalają one ocenić stopień jednorodności otrzymanego zbioru, jego zwartość, a pośrednio także wiarygodność uzyskanych danych i wynikających z nich wyników. Najczęściej używany w badania psychologiczne wskaźniki: rozstęp, odchylenie średnie, rozproszenie, odchylenie standardowe, odchylenie półkwartylowe. Huśtawka (P) jest odstępem między wartościami maksymalnymi i minimalnymi cechy. Wyznacza się go łatwo i szybko, jednak jest on wrażliwy na losowość, zwłaszcza przy małej liczbie danych. Przykłady: (0, 2, 3, 5, 8; P = 8); (-0,2, 1,0, 1,4, 2,0; P - 2,2). Średnie odchylenie (MD) jest średnią arytmetyczną różnicy (wg całkowita wartość) pomiędzy każdą wartością w próbie a jej średnią: MD = Id / N, gdzie: d = |X-M|; M - średnia próbki; X - konkretna wartość; N to liczba wartości. Zbiór wszystkich konkretnych odchyleń od średniej charakteryzuje zmienność danych, ale jeśli nie zostaną one przyjęte w wartości bezwzględnej, to ich suma będzie równa zeru i nie otrzymamy informacji o ich zmienności. MD pokazuje stopień stłoczenia danych wokół średniej. Nawiasem mówiąc, czasami przy określaniu tej cechy próbki zamiast średniej (M) przyjmuje się inne miary tendencji centralnej - modę lub medianę. Dyspersja (D)(z łac. dissus - rozproszony). Innym sposobem pomiaru stopnia zatłoczenia danych jest unikanie sumy zerowej różnic specyficznych (d = X-M) nie poprzez ich wartości bezwzględne, ale poprzez ich podniesienie do kwadratu. W tym przypadku uzyskuje się tzw. dyspersję: D = Σd 2 / N – dla dużych próbek (N > 30); D = Σd 2 / (N-1) - dla małych próbek (N< 30). Odchylenie standardowe (δ). Ze względu na kwadraturę poszczególnych odchyleń d przy obliczaniu dyspersji, otrzymana wartość okazuje się odległa od początkowych odchyleń i dlatego nie daje o nich jasnego wyobrażenia. Aby tego uniknąć i uzyskać charakterystykę porównywalną ze średnim odchyleniem, przeprowadza się odwrotną operację matematyczną - z wariancji wyodrębnia się pierwiastek kwadratowy. Jego wartość dodatnia i jest przyjmowana jako miara zmienności zwana średnią kwadratową lub odchyleniem standardowym: MD, D i d mają zastosowanie do danych przedziałowych i proporcjonalnych. W przypadku danych porządkowych zwykle przyjmuje się miarę zmienności odchylenie półkwartylowe (Q), nazywane również współczynnik półkwartylowy Lub rozstęp półkwartylowy. Wskaźnik ten oblicza się w następujący sposób. Cały obszar dystrybucji danych jest podzielony na cztery równe części. Jeżeli obserwacje liczone są od wartości minimalnej na skali pomiarowej (na wykresach, wielokątach, histogramach liczenie odbywa się zwykle od lewej do prawej), wówczas pierwszą ćwiartkę skali nazywa się pierwszym kwartylem, a punkt oddzielający ją od pozostała część skali jest oznaczona symbolem Q,. Drugie 25% rozkładu to drugi kwartyl, a odpowiadający mu punkt na skali to Q 2 . Między trzecią a czwartą kwartą punkt Q znajduje się w rozkładzie. Współczynnik półkwartalny definiuje się jako połowę odstępu między pierwszym a trzecim kwartylem: Q = (Q.-Q,) / 2. Oczywiste jest, że przy rozkładzie symetrycznym punkt Q 0 pokrywa się z medianą (a zatem z średniej), a następnie można obliczyć współczynnik Q charakteryzujący rozrzut danych względem środka rozkładu. Przy asymetrycznym rozkładzie to nie wystarczy. Następnie obliczane są dodatkowo współczynniki dla sekcji lewej i prawej: Q Lew = (Q2-Q,) / 2; Q prawa= (Q, - Q 2) / 2. Środki komunikacyjne Poprzednie wskaźniki, zwane statystykami, charakteryzują całość danych według jednej szczególnej cechy. Ta zmieniająca się cecha nazywana jest wartością zmienną lub po prostu „zmienną”. Miary powiązania ujawniają relacje między dwiema zmiennymi lub między dwiema próbkami. Te powiązania lub korelacje (z łac. correlatio - „korelacja, związek”) ustala się poprzez obliczenia współczynniki korelacji (R), jeśli zmienne są ze sobą powiązane liniowo. Uważa się, że większość zjawisk psychicznych jest precyzyjnie podporządkowana zależności liniowe, co przesądziło o powszechnym stosowaniu metod analizy korelacji. Jednak obecność korelacji nie oznacza, że ​​istnieje związek przyczynowy (lub funkcjonalny) pomiędzy zmiennymi. Zależność funkcjonalna jest szczególny przypadek korelacje. Nawet jeśli związek ma charakter przyczynowy, wskaźniki korelacji nie są w stanie wskazać, która z dwóch zmiennych jest przyczyną, a która skutkiem. Ponadto wszelkie powiązania odkryte w psychologii z reguły istnieją z powodu innych zmiennych, a nie tylko dwóch rozważanych. Poza tym połączenia objawy psychologiczne są tak złożone, że trudno stwierdzić konsekwentność ich determinowania przez jedną przyczynę; są one determinowane przez wiele przyczyn. Rodzaje korelacji: I. Ze względu na bliskość związku: 1) Zupełny (doskonały): R = 1. Stwierdza się obowiązkową współzależność pomiędzy zmiennymi. Tutaj możemy już mówić o zależności funkcjonalnej. 2) nie zidentyfikowano żadnego połączenia: R = 0. [ 23] 3) Częściowe: 0 2) Krzywoliniowe.

Jest to zależność, w której jednolita zmiana jednej cechy łączy się z nierównomierną zmianą drugiej. Sytuacja ta jest typowa dla psychologii. Wzory na współczynnik korelacji: Stosuj przy porównywaniu danych porządkowych współczynnik korelacji rang według Ch. Spearmana (ρ): ρ = 6Σd 2 / N (N 2 - 1), gdzie: d jest różnicą rang (miejsc porządkowych) dwóch wielkości, N jest liczbą porównywanych par wartości dwie zmienne (X i Y). Porównując dane metryczne, użyj współczynnik korelacji produktu wg K. Pearsona (r): r = Σ xy / Nσ x σ y gdzie: x to odchylenie indywidualnej wartości X od średniej próbki (M x), y jest takie samo dla Y, O x to odchylenie standardowe dla X, a - to samo dla Y, N - liczba par wartości X i Y. Wprowadzenie technologii komputerowej do badań naukowych pozwala szybko i dokładnie określić dowolne cechy ilościowe dowolnych tablic danych . Opracowano różne programy komputerowe, za pomocą których można przeprowadzić odpowiednią analizę statystyczną niemal każdej próbki. Spośród masy technik statystycznych w psychologii najczęściej stosowane są: 1) złożone obliczenia statystyczne; 2) analiza korelacji; 3) analiza wariancji; 4) analiza regresji; 5) analiza czynnikowa; 6) analiza taksonomiczna (klasterowa); 7) skalowanie.

2.1.2.2. Kompleksowe obliczenia statystyczne

Za pomocą standardowych programów obliczane są zarówno główne zestawy statystyk przedstawione powyżej, jak i dodatkowe, nieuwzględnione w naszym przeglądzie. Czasami badacz ogranicza się do uzyskania tych cech, ale częściej całość tych statystyk stanowi jedynie blok zawarty w szerszym zestawie wskaźników badanej próby, uzyskanych przy użyciu bardziej złożonych programów. W tym programy realizujące metody analizy statystycznej podane poniżej.

2.1.2.3. Analiza korelacji

Sprowadza się do obliczania współczynników korelacji w szerokiej gamie relacji między zmiennymi. Zależności ustala badacz, a zmienne są równoważne, tzn. co jest przyczyną, a co skutkiem, nie da się ustalić poprzez korelację. Oprócz bliskości i kierunku połączeń metoda pozwala na ustalenie formy połączenia (liniowość, nieliniowość). Należy zaznaczyć, że powiązań nieliniowych nie można analizować metodami matematycznymi i statystycznymi ogólnie przyjętymi w psychologii. Związane z danymi do stref nieliniowych (np. w miejscach zerwania połączeń, w miejscach gwałtownych zmian) scharakteryzujemy poprzez sensowne opisy, powstrzymując się od ich formalnej prezentacji ilościowej. Czasami do opisu zjawisk nieliniowych w psychologii można zastosować nieparametryczne metody i modele matematyczne i statystyczne. Wykorzystuje się na przykład matematyczną teorię katastrofy.

2.1.2.4. Analiza wariancji

W przeciwieństwie do analizy korelacji metoda ta pozwala na identyfikację nie tylko związku, ale także zależności pomiędzy zmiennymi, czyli wpływu różnych czynników na badaną cechę. Wpływ ten ocenia się za pomocą relacji dyspersji. Zmiany badanej cechy (zmienność) mogą być spowodowane działaniem poszczególnych znanych badaczowi czynników, ich interakcją oraz działaniem czynników nieznanych. Analiza wariancji umożliwia wykrycie i ocenę udziału każdego z tych wpływów w ogólnej zmienności badanej cechy. Metoda pozwala na szybkie zawężenie pola warunków wpływających na badane zjawisko, eksponując najważniejsze z nich. Zatem analiza wariancji to „badanie wpływu czynników zmiennych na zmienną badaną za pomocą wariancji”. W zależności od liczby zmiennych wpływających wyróżnia się analizę jedno-, dwu- i wieloczynnikową, a w zależności od charakteru tych zmiennych - analizę z efektami stałymi, losowymi lub mieszanymi. Analiza wariancji jest szeroko stosowana w projektowaniu eksperymentów.

2.1.2.5. Analiza czynników

Metoda pozwala na redukcję wymiaru przestrzeni danych, czyli rozsądne zmniejszenie liczby mierzonych cech (zmiennych) poprzez połączenie ich w pewne agregaty, które pełnią funkcję integralnych jednostek charakteryzujących badany obiekt. W tym przypadku te jednostki złożone nazywane są czynnikami, od których należy odróżnić czynniki analizy wariancji, reprezentujące które są cechami indywidualnymi (zmiennymi). Uważa się, że to ogół znaków w pewnych kombinacjach może charakteryzować zjawisko psychiczne lub wzór jego rozwoju, natomiast znaki te pojedynczo lub w innych kombinacjach nie dostarczają informacji. Z reguły czynniki nie są widoczne dla oka, ukryte przed bezpośrednią obserwacją. Analiza czynnikowa jest szczególnie skuteczna w badaniach wstępnych, gdy konieczne jest zidentyfikowanie, w pierwszym przybliżeniu, ukrytych wzorców w badanym obszarze. Podstawą analizy jest macierz korelacji, czyli tablice współczynników korelacji każdej cechy ze wszystkimi pozostałymi (zasada „wszyscy ze wszystkimi”). W zależności od liczby czynników w macierzy korelacji istnieją jednoczynnikowy(według Spearmana), dwuczynnikowy(według Holzingera) i wieloczynnikowe(według Thurstona) analiz. Ze względu na charakter zależności między czynnikami metodę dzieli się na analizę z ortogonalnym(niezależny) i z ukośnym czynniki (zależne). Istnieją inne odmiany tej metody. Bardzo złożony aparat matematyczno-logiczny analizy czynnikowej często utrudnia wybór opcji metody adekwatnej do postawionych zadań badawczych. Niemniej jednak jego popularność w świecie naukowym rośnie z roku na rok.

2.1.2.6. Analiza regresji

Metoda pozwala na badanie zależności wartości średniej jednej wielkości od zmian innej (innej) wielkości. Specyfika metody polega na tym, że rozpatrywane wielkości (lub przynajmniej jedna z nich) mają charakter losowy. Następnie opis zależności dzieli się na dwa zadania: 1) określenie ogólnego typu zależności oraz 2) wyjaśnienie tego typu poprzez obliczenie oszacowań parametrów zależności. Nie ma standardowych metod rozwiązania pierwszego problemu i tutaj przeprowadza się analizę wizualną macierzy korelacji w połączeniu z analizą jakościową charakteru badanych wielkości (zmiennych). Wymaga to od badacza wysokich kwalifikacji i erudycji. Drugim zadaniem jest zasadniczo znalezienie krzywej aproksymującej. Najczęściej tego przybliżenia dokonuje się matematyczną metodą najmniejszych kwadratów. Pomysł metody należy do F. Galto- cóż, który zauważył, że bardzo wysocy rodzice mają dzieci nieco niższe, a bardzo niscy rodzice mają wyższe dzieci. Nazwał to regresją wzorca.

2.1.2.7. Analiza taksonomiczna

Metoda jest matematyczną techniką grupowania danych w klasy (taksony, skupiska) w taki sposób, że obiekty zawarte w jednej klasie są pod pewnymi względami bardziej jednorodne w porównaniu z obiektami zaliczanymi do innych klas. W rezultacie możliwe staje się określenie w tej czy innej metryce odległości między badanymi obiektami i przedstawienie uporządkowanego opisu ich relacji na poziomie ilościowym. Ze względu na niedostateczne opracowanie kryterium efektywności i dopuszczalności procedur klastrowych, metodę tę stosuje się najczęściej w połączeniu z innymi metodami ilościowej analizy danych. Natomiast sama analiza taksonomiczna wykorzystywana jest jako dodatkowe zabezpieczenie wiarygodności wyników uzyskanych innymi metodami ilościowymi, w szczególności analizą czynnikową. Istota analizy skupień pozwala uznać ją za metodę jawnie łączącą przetwarzanie ilościowe dane z ich analiza jakościowa. Dlatego też najwyraźniej nieuzasadnione jest jednoznaczne zaklasyfikowanie jej jako metody ilościowej. Ponieważ jednak procedura tej metody ma głównie charakter matematyczny, a wyniki można przedstawić liczbowo, wówczas metodę jako całość można sklasyfikować jako ilościową.

2.1.2.8. skalowanie

Skalowanie w jeszcze większym stopniu niż analiza taksonomiczna łączy w sobie cechy ilościowego i jakościowego badania rzeczywistości. Aspekt ilościowy Skalowanie polega na tym, że jego procedura w zdecydowanej większości przypadków obejmuje pomiar i numeryczną reprezentację danych. Aspekt jakościowy skalowanie wyraża się w tym, że po pierwsze pozwala manipulować nie tylko danymi ilościowymi, ale także danymi, które nie mają po drugie, zawiera elementy metod jakościowych (klasyfikacja, typologia, systematyzacja). Kolejną podstawową cechą skalowania, która utrudnia określenie jego miejsca w ogólnym systemie metod naukowych, jest łączenie procedur gromadzenia i przetwarzania danych. Przy skalowaniu można nawet mówić o jedności procedur empirycznych i analitycznych. Nie tylko w konkretnym badaniu trudno jest wskazać kolejność i separację tych zabiegów (często są one wykonywane jednocześnie i łącznie), ale także w ujęciu teoretycznym nie da się wykryć hierarchii etapowej (nie da się powiedzieć, co jest pierwotne i to, co wtórne). Trzecim punktem, który nie pozwala jednoznacznie przypisać skalowania tej czy innej grupie metod, jest jego organiczny „wzrost” w określone obszary wiedzy i jej zdobywanie wraz ze znakami ogólna metoda naukowa oznaki bardzo specyficzne. Jeśli inne metody o ogólnym znaczeniu naukowym (na przykład obserwacja lub eksperyment) można dość łatwo przedstawić zarówno w formie ogólnej, jak i w konkretnych modyfikacjach, wówczas bardzo trudno jest scharakteryzować skalowanie na poziomie ogólnym bez utraty niezbędnych informacji. Powód tego jest oczywisty: połączenie procedur empirycznych z przetwarzaniem danych w skalowaniu. Empiryka jest konkretna, matematyka jest abstrakcyjna, dlatego połączenie ogólnych zasad analizy matematycznej z konkretnymi metodami gromadzenia danych daje wskazany efekt. Z tego samego powodu naukowe pochodzenie skalowania nie zostało dokładnie określone: ​​kilka nauk rości sobie pretensje do miana jego „rodzica”. Wśród nich znajduje się psychologia, gdzie nad teorią i praktyką skalowania pracowali tak wybitni naukowcy jak L. Thurston, S. Stevens, V. Torgerson, A. Pieron. Mając na uwadze wszystkie te czynniki, nadal umieszczamy skalowanie w tej kategorii metody ilościowe przetwarzania danych, gdyż w praktyce badań psychologicznych skalowanie ma miejsce m.in dwie sytuacje. Pierwszy jest budowałuski, a drugie - ich stosowanie. W przypadku konstrukcji wszystkie wspomniane cechy skalowania ujawniają się w pełni. Kiedy są używane, znikają w tle, ponieważ użycie gotowych skal (na przykład „standardowych” skal do testów) polega po prostu na porównaniu. Porównanie z nimi wskaźników uzyskanych na etapie zbierania danych. Zatem tutaj psycholog wykorzystuje jedynie owoce skalowania i to na etapach następujących po zebraniu danych. Sytuacja ta jest zjawiskiem powszechnym w psychologii. Ponadto formalna konstrukcja skal z reguły odbywa się poza zakresem bezpośrednich pomiarów i gromadzenia danych o obiekcie, tj. główne działania tworzące skalę o charakterze matematycznym przeprowadzane są po zebraniu danych , co jest porównywalne z etapem ich przetwarzania. W najogólniejszym sensie skalowanie to sposób rozumienia świata poprzez modelowanie rzeczywistości za pomocą systemów formalnych (głównie numerycznych). Metoda ta stosowana jest niemal we wszystkich dziedzinach wiedzy naukowej (w naukach przyrodniczych, ścisłych, humanistycznych, społecznych, technicznych) i ma szerokie znaczenie aplikacyjne. Najbardziej rygorystyczna definicja wydaje się następująca: skalowanie to proces odwzorowywania zbiorów empirycznych na zbiory formalne według zadanych reguł. Pod zbiór empiryczny odnosi się do dowolnego zbioru realnych obiektów (ludzi, zwierząt, zjawisk, właściwości, procesów, zdarzeń), które pozostają ze sobą w określonych relacjach. Relacje te można przedstawić czterema typami (operacjami empirycznymi): 1) równość (równość - nierówność); 2) kolejność rang (więcej - mniej); 3) równość przedziałów; 4) równość stosunków. Przez W naturze zbioru empirycznego skalowanie dzieli się na dwa typy: fizyczny I psychologiczny. W W pierwszym przypadku skalowaniu podlegają obiektywne (fizyczne) cechy obiektów, w drugim – subiektywne (psychologiczne). Pod zestaw formalny rozumiany jest jako dowolny zbiór symboli (znaków, liczb) połączonych ze sobą pewnymi relacjami, które zgodnie z relacjami empirycznymi opisywane są czterema rodzajami operacji formalnych (matematycznych): 1) „równe - nierówne” (= ≠); 2) „więcej - mniej” (><); 3) «сло-жение - вычитание» (+ -); 4) «умножение - деление» (* :). При шкалировании обязательным условием является zgodność jeden do jednego między elementami zbioru empirycznego i formalnego. Oznacza to, że każdy element pierwszej wielokrotności Tylko jeden element drugiego musi sobie odpowiadać i odwrotnie. W tym przypadku nie jest konieczna zgodność jeden do jednego typów relacji pomiędzy elementami obu zbiorów (izomorfizm struktur). Jeżeli struktury te są izomorficzne, tzw bezpośredni (subiektywny) przeprowadza się skalowanie przy braku izomorfizmu pośredni (obiektywny) skalowanie. Rezultatem skalowania jest konstrukcja waga(łac. scala - „drabina”), tj. niektóre modele znakowe (numeryczne) badanej rzeczywistości, za pomocą których można tę rzeczywistość zmierzyć. Zatem wagi są przyrządami pomiarowymi. Ogólne pojęcie o całej gamie skal można uzyskać z prac, w których podano ich system klasyfikacji i podano krótkie opisy każdego rodzaju skali. Relacje pomiędzy elementami zbioru empirycznego a odpowiadającymi im dopuszczalnymi operacjami matematycznymi (dopuszczalnymi przekształceniami) wyznaczają poziom skalowania i rodzaj uzyskanej skali (wg klasyfikacji S. Stevensa). Pierwszy, najprostszy typ relacji (= ≠) odpowiada relacji najmniej informatywnej skale nazw, drugi (><) - wagi zamówieniowe, trzeci (+ -) - skale interwałowe, czwarty (*:) - najbardziej pouczający skale relacji. Proces skalowanie psychologiczne można warunkowo podzielić na dwa główne etapy: empiryczny, w którym zbierane są dane o zbiorze empirycznym (w tym przypadku o zestawie cech psychologicznych badanych obiektów lub zjawisk) oraz etapie formalizowanie, czyli matematyczne i statystyczne przetwarzanie danych w pierwszym etapie. Cechy każdego etapu determinują techniki metodologiczne dla konkretnej realizacji skalowania. W zależności od przedmiotu badań skalowanie psychologiczne występuje w dwóch odmianach: psychofizycznej lub psychometrycznej. Skalowanie psychofizyczne polega na konstruowaniu skal do pomiaru subiektywnych (psychologicznych) cech obiektów (zjawisk), które mają fizyczne korelaty z odpowiadającymi im fizycznymi jednostkami miary. Na przykład subiektywne cechy dźwięku (głośność, wysokość, barwa) odpowiadają właściwościom fizycznym parametry drgań dźwięku: amplituda (w decybelach), częstotliwość (w hercach), widmo (w zakresie tonów składowych i obwiedni). Skalowanie psychofizyczne pozwala zatem zidentyfikować związek pomiędzy wartościami pobudzenia fizycznego a reakcją psychiczną, a także wyrazić tę reakcję w obiektywnych jednostkach miary. W rezultacie uzyskuje się wszelkiego rodzaju skale pośrednie i bezpośrednie wszystkich poziomów pomiaru: skale nazw, porządku, przedziałów i stosunków. Skalowanie psychometryczne polega na konstruowaniu skal do pomiaru subiektywnych cech obiektów (zjawisk), które nie mają fizycznych korelatów. Na przykład cechy osobowości, popularność artystów, spójność zespołu, ekspresja obrazów itp. Skalowanie psychometryczne realizowane jest za pomocą niektórych metod skalowania pośredniego (obiektywnego). W rezultacie otrzymuje się skale ocenowe, które zgodnie z typologią dopuszczalnych przekształceń należą zazwyczaj do skal porządkowych, rzadziej do skal przedziałowych. W tym drugim przypadku jednostki miary są wskaźnikami zmienności sądów (odpowiedzi, ocen) respondentów. Najbardziej charakterystycznymi i powszechnymi skalami psychometrycznymi są skale ocen i oparte na nich skale postaw. Skalowanie psychometryczne leży u podstaw rozwoju większości testów psychologicznych, a także metod pomiaru w psychologii społecznej (metody socjometryczne) i stosowanych dyscyplinach psychologicznych. Ponieważ oceny leżące u podstaw procedury skalowania psychometrycznego można zastosować również do fizycznej stymulacji sensorycznej, procedury te mają również zastosowanie do identyfikacji zależności psychofizycznych, ale w tym przypadku powstałe skale nie będą miały obiektywnych jednostek miary. Skalowanie zarówno fizyczne, jak i psychologiczne może być jednowymiarowe lub wielowymiarowe. Skalowanie jednowymiarowe to proces mapowania zbioru empirycznego na zbiór formalny według jednego kryterium. Powstałe jednowymiarowe skale odzwierciedlają albo relacje między jednowymiarowymi obiektami empirycznymi (lub tymi samymi właściwościami obiektów wielowymiarowych), albo zmiany jednej właściwości obiektu wielowymiarowego. Skalowanie jednowymiarowe realizowane jest zarówno metodą bezpośrednią (subiektywną), jak i pośrednią (obiektywną). Pod skalowanie wielowymiarowe rozumie się proces mapowania zbioru empirycznego na zbiór formalny jednocześnie według kilku kryteriów. Skale wielowymiarowe odzwierciedlają albo relacje między obiektami wielowymiarowymi, albo jednoczesne zmiany kilku cech jednego obiektu. Proces skalowania wielowymiarowego, w odróżnieniu od skalowania jednowymiarowego, charakteryzuje się większą pracochłonnością drugiego etapu, czyli formalizacji danych. W tym zakresie wykorzystuje się potężny aparat statystyczny i matematyczny, na przykład analizę skupień lub analizę czynnikową, która jest integralną częścią metod skalowania wielowymiarowego. Badanie problemów skalowania wielowymiarowego wiąże się z Z nazwany na cześć Richardsona i Torgersona, którzy zaproponowali swoje pierwsze modele. Shepard zapoczątkował rozwój niemetrycznych metod skalowania wielowymiarowego. Najbardziej rozpowszechniony i pierwszy teoretycznie uzasadniony algorytm skalowania wielowymiarowego zaproponował Kruskal. M. Davison podsumował informacje dotyczące skalowania wielowymiarowego. Specyfika skalowania wielowymiarowego w psychologii znajduje odzwierciedlenie w pracach G.V. Paramei. Rozwińmy wspomniane wcześniej koncepcje skalowania „pośredniego” i „bezpośredniego”. Pośredni, Lub obiektyw, skalowanie to proces mapowania zbioru empirycznego na zbiór formalny przy wzajemnej niespójności (braku izomorfizmu) pomiędzy strukturami tych zbiorów. W psychologii rozbieżność ta opiera się na pierwszym postulatie Fechnera o niemożności bezpośredniej subiektywnej oceny wielkości doznań. Do ilościowego określenia doznań stosuje się zewnętrzne (pośrednie) jednostki miary, oparte na różnych ocenach osób badanych: ledwo zauważalne różnice, czas reakcji (RT), wariancja dyskryminacji, rozrzut ocen kategorycznych. Pośrednie skale psychologiczne, zgodnie ze sposobem ich budowy, założeniami wyjściowymi i jednostkami miary, tworzą kilka grup, z których najważniejsze to: 1) skale akumulacji Lub skale logarytmiczne; 2) skale oparte na pomiarze ciśnienia krwi; 3) skale ocen(porównawczy i kategoryczny). Wyrażeniom analitycznym tych skal nadano status praw, których nazwy kojarzone są z nazwiskami ich autorów: 1) prawo logarytmiczne Webera-Fechnera; 2) za- oszustwo Pierona (dla prostej reakcji sensomotorycznej); 3) Prawo sądów porównawczych Thurstona i 4) Prawo sądów kategorycznych Tor-gersona. Największy potencjał aplikacyjny mają skale ocen. Pozwalają mierzyć dowolne zjawiska psychiczne, realizują skalowanie zarówno psychofizyczne, jak i psychometryczne, a także zapewniają możliwość skalowania wielowymiarowego. Zgodnie z typologią dopuszczalnych przekształceń, skale pośrednie reprezentowane są głównie przez skale rzędu i przedziałów. Bezpośredni, Lub subiektywne, skalowanie to proces mapowania zbioru empirycznego na zbiór formalny z korespondencją jeden do jednego (izomorfizmem) struktur tych zbiorów. W psychologii zgodność ta opiera się na założeniu możliwości bezpośredniej subiektywnej oceny wielkości doznań (zaprzeczenie pierwszego postulatu Fechnera). Skalowanie subiektywne realizuje się za pomocą procedur, które określają, ile razy (lub o ile) odczucie wywołane jednym bodźcem jest większe lub mniejsze od odczucia wywołanego przez inny bodziec. Jeśli dokonuje się takiego porównania dla odczuć o różnych modalnościach, wtedy mówimy subiektywne skalowanie międzymodalne. Skale bezpośrednie, ze względu na sposób ich budowy, dzielą się na dwie główne grupy: 1) skale oparte na definicji relacje sensoryczne; 2) skale oparte na definicji wielkości zachęt. Druga opcja otwiera drogę do skalowania wielowymiarowego. Znaczna część skal bezpośrednich jest dobrze aproksymowana funkcją potęgową, co udowodnił S. Stevens, korzystając z dużej ilości materiału empirycznego, od którego pochodzi nazwa analitycznego wyrażenia skal bezpośrednich – prawo potęgi Stevensa. Aby określić ilościowo doznania podczas subiektywnego skalowania, stosuje się psychologiczne jednostki miary, wyspecjalizowane dla określonych modalności i warunków eksperymentalnych. Wiele z tych jednostek ma ogólnie przyjęte nazwy: „synowie” dla głośności, „brils” dla jasności, „podmuchy” dla smaku, „warzywa” dla ciężkości itp. Zgodnie z typologią dopuszczalnych przekształceń skale bezpośrednie reprezentowane są głównie przez skale przedziały i relacje. Podsumowując przegląd metody skalowania, należy zwrócić uwagę na problem jej powiązania pomiar. Naszym zdaniem problem ten wynika z powyższych cech skalowania: 1) połączonych wprowadzenie empirycznych procedur gromadzenia danych i procedur analitycznych przetwarzania danych; 2) jedność ilościowych i jakościowych aspektów procesu skalowania; 3) połączenie nauki ogólnej i wąskiego profilu, czyli „fuzja” ogólnych zasad skalowania ze specyficznymi procedurami określonych technik. Niektórzy badacze w sposób wyraźny lub ukryty utożsamiają pojęcia „skalowania” i „pomiaru”. Pogląd ten szczególnie mocno popiera autorytet S. Stevensa, który zdefiniował pomiar jako „nadawanie przedmiotom lub zdarzeniom form liczbowych według określonych reguł” i od razu wskazał, że takie postępowanie prowadzi do konstrukcji skal . Ponieważ jednak proces opracowywania skali jest procesem skalowania, w efekcie otrzymujemy wniosek, że pomiar i skalowanie to jedno i to samo. Stanowisko przeciwne jest takie, że z pomiarem porównuje się jedynie skalowanie metryczne związane z konstrukcją skal przedziałowych i proporcjonalnych. Wydaje się, że drugie stanowisko jest bardziej rygorystyczne, gdyż pomiar zakłada ilościowe wyrażenie tego, co jest mierzone, a co za tym idzie, obecność metryki. Surowość dyskusji można usunąć, jeśli pomiar rozumieć nie jako metodę badawczą, ale jako instrumentalne wsparcie tej czy innej metody, w tym skalowania. Nawiasem mówiąc, metrologia (nauka o pomiarach) obejmuje pojęcie „pomiaru” jako obowiązkowej cechy przyrządu pomiarowego. Do skalowania (przynajmniej w przypadku skalowania niemetrycznego) przyrządy pomiarowe nie są potrzebne. To prawda, że ​​​​metrologia interesuje się głównie parametrami fizycznymi obiektów, a nie psychologicznymi. Natomiast psychologia zajmuje się przede wszystkim cechami subiektywnymi (duży, ciężki, jasny, przyjemny itp.). Pozwala to niektórym autorom przyjąć samą osobę jako środek pomiaru. Oznacza to nie tyle użycie części ludzkiego ciała, ile jednostek miary (łokieć, arshin, sążń, stade, stopa, cal itp.), ale raczej jego zdolność do subiektywnej ilościowej oceny wszelkich zjawisk. Jednak nieskończona zmienność indywidualnych różnic u ludzi, w tym zmienność zdolności oceniających, nie może dostarczyć informacji powszechnie stosowane jednostki miary na etapie zbierania danych o obiekcie. Innymi słowy, w empirycznej części skalowania podmiot nie może być traktowany jako przyrząd pomiarowy. Rolę tę można mu z dużym naciągnięciem przypisać dopiero po manipulacji już nie zbiorami empirycznymi, lecz formalnymi. Następnie sztucznie uzyskuje się metrykę subiektywną, najczęściej w postaci wartości przedziałowych. Na te fakty wskazuje G.V. Sukhodolsky, gdy mówi, że porządkowanie (i tym właśnie zajmuje się podmiot na etapie „oceny” obiektów empirycznych) „jest operacją przygotowawczą, a nie pomiarową”. I dopiero wtedy, na etapie przetwarzania pierwotnych danych subiektywnych, odpowiednie działania tworzące skalę (według Suchodolskiego, ranking) „metryzują jednowymiarową przestrzeń topologiczną uporządkowanych obiektów i. dlatego mierzą „wielkość” obiektów.” Dwuznaczność związku między pojęciami „skalowanie” i „pomiar” w psychologii wzrasta, gdy porównuje się je z pojęciami „test” i „testowanie”. wątpliwości, czy testy zalicza się do narzędzi pomiarowych, jednakże ich zastosowanie w psychologii ma dwa aspekty: pierwszy to wykorzystanie testu w procesie testowania, czyli badania (psychodiagnostyki) określonych obiektów psychologicznych, drugi to opracowywanie, czyli konstruowanie W pierwszym przypadku nie bez powodu można mówić o pomiarze, gdyż do badanego obiektu (osoby badanej) „przykładana” jest miara odniesienia – skala wzorcowa. W drugim przypadku jest to oczywiście bardziej poprawne mówić o skalowaniu, gdyż kwintesencją konstrukcji testów jest proces konstruowania skali standardowej i z nią związanych. Są to operacje definiowania zbiorów empirycznych i formalnych, których niezawodność i izomorfizm zapewnia między innymi standaryzacja procedury zbierania danych empirycznych i gromadzenia wiarygodnych „statystyk”. Inny aspekt problemu wynika z faktu, że test jako narzędzie pomiarowe składa się z dwóch części: 1) zestawu zadań (pytań), z którymi podmiot ma bezpośrednio do czynienia na etapie zbierania danych o nim oraz 2) skali standardowej. z którym test jest porównywany.Dane empiryczne zbierane są na etapie interpretacji. Gdzie mówić o pomiarze, gdzie o skalowaniu, jeśli to nie to samo? Wydaje nam się, że empiryczna część procesu testowania, czyli wykonanie przez osobę badaną zadania testowego, nie jest procedurą czysto pomiarową, ale niezbędną do skalowania. Argumentacja jest następująca: działania podejmowane przez sam podmiot nie są miarą nasilenia diagnozowanych cech. Dopiero wynik tych działań (czas, liczba błędów, rodzaj odpowiedzi itp.), określony nie przez osobę badaną, ale przez diagnostę, stanowi „surową” wartość skali, którą następnie porównuje się z wartościami wzorcowymi. Wskaźniki rezultatów działań podmiotu nazywane są tutaj „surowymi” z dwóch powodów. Przede wszystkim oni. Z reguły podlegają one przełożeniu na inne jednostki wyrazu. Często - w „beztwarzowe”, abstrakcyjne punkty, ściany itp. Po drugie, w testowaniu powszechną rzeczą jest wielowymiarowość badanego zjawiska mentalnego, która zakłada dla jego oceny rejestrację kilku zmieniających się parametrów, które następnie są syntetyzowane w pojedynczy wskaźnik. Zatem dopiero etapy przetwarzania danych i interpretacji wyników badań, podczas których „surowe” dane empiryczne zostają przełożone na porównywalne i te ostatnie odniesione do „miarki”, czyli skali wzorcowej, można nazwać pomiarem bez rezerwacje. Ten problematyczny węzeł zostaje jeszcze mocniej zaciśnięty w związku z wyodrębnieniem i rozwinięciem takich działów naukowych jak „Psychometria” i „Psychologia matematyczna” w odrębne dyscypliny. Każdy z nich traktuje omawiane przez nas koncepcje jako własne kluczowe kategorie. Psychometrię można uznać za metrologię psychologiczną, obejmującą „cały zakres zagadnień związanych z pomiarem w psychologii”. Nic więc dziwnego, że w tym „zakresie zagadnień” mieści się skalowanie. Psychometria nie wyjaśnia jednak jej związku z pomiarem. Co więcej, sprawę zagmatwa różnorodność interpretacji samej nauki psychometrycznej i jej przedmiotu. Na przykład psychometrię rozważa się w kontekście psychodiagnostyki. „Często terminy „psychometria” i „eksperyment psychologiczny” są używane jako synonimy… Bardzo popularna jest opinia, że ​​psychometria to statystyka matematyczna uwzględniająca specyfikę psychologii… Stabilne rozumienie psychometrii: aparat matematyczny psychodiagnostyka... Psychometria to nauka wykorzystująca modele matematyczne w badaniu zjawisk psychicznych. Jeśli chodzi o psychologię matematyczną, jej status jest jeszcze bardziej niejasny. „Treść i struktura psychologii matematycznej nie uzyskały jeszcze ogólnie przyjętej formy; wybór i systematyzacja modeli i metod matematyczno-psychologicznych jest w pewnym stopniu arbitralna”. Niemniej jednak istnieje już tendencja do wchłaniania psychometrii do psychologii matematycznej. Trudno w dalszym ciągu powiedzieć, czy wpłynie to na omawiany problem relacji między skalowaniem a pomiarem i czy wyjaśni się ich miejsce w ogólnym systemie metod psychologicznych.

2.2. Metody jakościowe

Metody jakościowe (QM) pozwalają na identyfikację najistotniejszych aspektów badanych obiektów, co pozwala na uogólnienie i usystematyzowanie wiedzy o nich, a także zrozumienie ich istoty. Bardzo często CM opierają się na informacjach ilościowych. Najczęstsze techniki to: klasyfikacja, typologizacja, systematyzacja, periodyzacja, kazuistyka.

2.2.1. Klasyfikacja

Klasyfikacja(łac. klasyczny - ranga, facere - do zrobienia) to podział wielu obiektów na grupy (klasy) w zależności od ich wspólnych cech. Redukcję do klas można przeprowadzić zarówno poprzez obecność cechy uogólniającej, jak i przez jej brak. Wynikiem takiego postępowania jest zbiór klas, który podobnie jak sam proces grupowania nazywany jest klasyfikacją. Procedura klasyfikacji jest zasadniczo dedukcyjną operacją dzielenia (rozkładem): znany zbiór elementów dzieli się na podzbiory (klasy) według jakiegoś kryterium. Klasy buduje się poprzez zdefiniowanie granic podzbiorów i włączenie określonych elementów w obrębie tych granic. Elementy o cechach wykraczających poza granice danej klasy umieszczane są w innych klasach lub usuwane z klasyfikacji. Istniejąca w nauce opinia o dwóch możliwych sposobach realizacji procedury klasyfikacyjnej, a mianowicie dedukcyjnej i indukcyjnej, wydaje nam się błędna. Klasyfikacji może podlegać jedynie znany zbiór obiektów, czyli zbiór „zamknięty”, gdyż kryterium klasyfikacji jest wybrane z góry i jest takie samo dla wszystkich elementów zbioru. W związku z tym można jedynie dzielić na klasy. Nie ma możliwości „dodania” jednej klasy do drugiej, gdyż w trakcie takiego postępowania nie wiadomo z góry, czy kolejne obiekty będą miały cechy odpowiadające wybranemu kryterium. A proces tworzenia takiej grupy staje się niepraktyczny i pozbawiony znaczenia. Jeśli jednak za pomocą tej procedury uda się zmienić kryteria łączenia (lub rozcieńczania) elementów, wówczas otrzymamy proces tworzenia określonej grupy, oparty nie na indukcji (a zwłaszcza nie na dedukcji), ale na transdukcji. Dlatego w wyniku takiego postępowania uzyskuje się „grupowania sąsiadujące”, a dedukcyjne – głównie „klasyfikacje hierarchiczne”. Według G. Selye „klasyfikacja jest najstarszą i najprostszą metodą naukową. Służy jako warunek wstępny wszelkiego rodzaju konstrukcji teoretycznych, w tym złożonej procedury ustalania związków przyczynowo-skutkowych łączących sklasyfikowane obiekty. Bez klasyfikacji nie moglibyśmy nawet rozmawiać. Tak naprawdę podstawą każdego rzeczownika pospolitego (człowiek, nerka, gwiazda) jest rozpoznanie klasy obiektów, która się za nim kryje. Zdefiniowanie pewnej klasy obiektów (na przykład kręgowców) oznacza ustalenie tych zasadniczych cech (kręgosłup), które są wspólne dla wszystkich elementów tworzących tę klasę. Klasyfikacja polega zatem na identyfikacji tych mniejszych elementów, które stanowią część większego elementu (samej klasy). Wszystkie klasyfikacje opierają się na wykryciu takiego czy innego porządku. Nauka nie zajmuje się pojedynczymi przedmiotami jako takimi, ale uogólnieniami, to znaczy klasami i prawami, według których uporządkowane są przedmioty tworzące klasę. Dlatego klasyfikacja jest podstawowym procesem umysłowym. Jest to z reguły pierwszy krok w rozwoju nauki.” Jeżeli klasyfikacja opiera się na cesze, która jest istotna dla tych obiektów, wówczas nazywa się klasyfikację naturalny. Na przykład katalog tematyczny w bibliotekach, klasyfikacja wrażeń według modalności. Jeśli kryterium nie jest istotne dla samych obiektów, a jedynie wygodne dla dowolnego ich uporządkowania, to otrzymujemy sztuczny Klasyfikacja. Na przykład alfabetyczny katalog biblioteki, klasyfikacja wrażeń według lokalizacji receptorów.

2.2.2. Typologia

Typologia- jest to grupowanie obiektów według najważniejszych dla nich systemów znaków. Grupowanie to opiera się na rozumieniu typu jako jednostki podziału badanej rzeczywistości i określonego idealnego modelu obiektów rzeczywistości. W wyniku typologii otrzymujemy typologia, czyli całość typy. Proces typologizacji, w przeciwieństwie do klasyfikacji, jest operacją indukcyjną (kompozycyjną): elementy pewnego zbioru grupowane są wokół jednego lub większej liczby elementów mających standardowe cechy. Podczas identyfikacji typów nie ustala się granic między nimi, ale ustala się strukturę typu. Pozostałe elementy są z nim skorelowane na zasadzie równości lub podobieństwa. Jeśli zatem klasyfikacja jest grupowaniem opartym na różnicach, to typologizacja jest grupowaniem opartym na podobieństwach. Istnieją dwa podstawowe podejścia do rozumienia i opisywania typu: 1) typ jako przeciętny(skrajnie uogólnione) i 2) typu as skrajny(niezwykle osobliwy). W pierwszym przypadku obiekt typowy to taki, którego właściwości są w swoim wyrażeniu bliskie wartości średniej próbki. W drugim - z najbardziej wyraźnymi właściwościami. Następnie w pierwszym przypadku mówią o typowym przedstawicielu danej grupy (podzbioru), a w drugim – o wybitnym przedstawicielu grupy, o przedstawicielu z silnym przejawem cech charakterystycznych dla tej grupy. Zatem definicję „typowego przedstawiciela inteligencji” należy przypisać opcji pierwszej i „doprecyzować”. intelektualny” do drugiego. Pierwsze rozumienie typu jest charakterystyczne dla fikcji i sztuki, skąd wywodzą się typy. Druga interpretacja jest nieodłącznie związana z naukowymi opisami tego typu. Obydwa podejścia obserwuje się w codziennej praktyce. Każda opcja prowadzi do powstania całościowego obrazu - standardu, z którym porównuje się rzeczywiste obiekty. Obie odmiany tego typu mają identyczny skład, ponieważ przejawiają się w pomysłach na temat struktury wiodących cech tego typu. Różnice między nimi powstają na etapie korelacji z nimi rzeczywistych obiektów. Typ jako przeciętny (typ artystyczny) pełni rolę modelu, za pomocą którego należy ustalić stopień podobieństwa i bliskości konkretnego obiektu. Co więcej, „podobieństwo” tego ostatniego można określić zarówno od strony braku ekspresji jakościowej („nie spełnia” normy), jak i od strony nadmiaru ekspresji (przekracza normę). Typ jako skrajność (typ naukowy) służy jako standard, według którego określa się różnicę między konkretnym obiektem i stopień, w jakim ten ostatni od niego odbiega. Typ naukowy jest zatem ideałem, czymś w rodzaju wzoru do naśladowania. Typ artystyczny jest zatem niezwykle uogólnionym przykładem łączenia obiektów na podstawie stopnia podobieństwa układów ich istotnych cech. Typ naukowy to niezwykle unikalny standard łączenia obiektów w oparciu o stopień różnicy pomiędzy systemami ich istotnych cech, co formalnie (ale nie w istocie!) przybliża typologizację do klasyfikacji. Pokazuje to analiza typologii psychologicznych psychologiczne typy naukowe mają wiele specyficznych cech. Nie posiadają metryki, czyli miary nasilenia cech – wszystkie te opisy mają charakter jakościowy. Nie ma hierarchii cech, nie ma wskazań na cechy wiodące i podrzędne, podstawowe i dodatkowe. Obraz jest amorficzny i subiektywny. Dlatego bardzo trudno jest przypisać obiekt rzeczywisty do jednego typu. Opisy takie charakteryzują się niejednoznacznością terminologiczną. Tak zwana „aureola” jest powszechna, gdy za cechy typu uważa się nie jego cechy, ale wynikające z nich konsekwencje. Przykładowo, opisując typy temperamentu, podaje się obszary efektywnego działania osób o podobnym temperamencie. Znany w psychologii cztery typy typologii: 1) konstytucyjne (typologie E. Kretschmera i W. Sheldona); 2) psychologiczne (typologie K. Junga, K. Leonharda, A. E. Lichko, G. Szmi-szeka, G. Eysencka); 3) społeczne (rodzaje zarządzania i przywództwa); 4) as-tropsychologiczne (horoskopy). Rozumienie typu psychologicznego jako zbioru maksymalnie wyrażonych właściwości „pozwala wyobrazić sobie stan psychiczny dowolnej konkretnej osoby w wyniku przecięcia się cech uniwersalnych typów ludzkich”. Jak widzimy, klasyfikacja i typologia to dwa różne sposoby jakościowego przetwarzania danych empirycznych, prowadzące do dwóch zupełnie różnych typów reprezentacji wyników badań - klasyfikacji jako zbioru grup (klas) i typologii jako zbioru typów. Nie sposób więc zgodzić się z dość powszechnym pomieszaniem tych pojęć, a tym bardziej z ich identyfikacją. Klasa jest pewnym zbiorem podobnych obiektów rzeczywistych, oraz typ- jest to próbka idealna, do której w pewnym stopniu przypominają rzeczywiste obiekty. Zasadnicza różnica między klasą a typem przesądza o zasadniczym rozdzieleniu procedur typologii i klasyfikacji oraz kategorycznym rozróżnieniu między wynikami tych procedur - typologią i klasyfikacją. Niejasne jest w tym względzie stanowisko części socjologów, którzy z jednej strony sceptycznie podchodzą do braku rozróżnienia pomiędzy klasyfikacją a typologią, z drugiej zaś uważają, że można traktować klasyfikację jako sposób konstruowania typologii: „jeśli użyty termin „typologia” jest ściśle powiązany ze znaczeniem odpowiedniego podziału populacji na grupy, przy pewnym poziomie wiedzy, to termin „klasyfikacja” nie ma podobnej właściwości. Nie nadajemy temu żadnego znaczenia epistemologicznego. Potrzebujemy tego tylko dla wygody, abyśmy mogli mówić o zgodności formalnych metod podziału populacji na grupy ze znaczącym wyobrażeniem o typach obiektów. Jednak taka „wygoda” prowadzi do faktycznej identyfikacji dwóch zupełnie odmiennych i przeciwnie skierowanych procesów: procedurę klasyfikacyjną definiuje się „jako podział pierwotnego zbioru obiektów na klasy” oraz „proces typologizacji jako proces podziału pewnego rodzaju na typy, pojęcia na odpowiadające im elementy.” Jedyna różnica polega na tym, że klasy najwyraźniej oznaczają grupy jednopoziomowe, a rodzaje i gatunki oznaczają grupy wielopoziomowe. Istota obu procesów jest taka sama: dzielenie zbioru na podzbiory. Nic więc dziwnego, że badacze ci narzekają, że „przy rozwiązywaniu problemów typologicznych za pomocą formalnych metod klasyfikacji nie zawsze okazuje się, że powstałe w ten sposób klasy odpowiadają typom w znaczącym sensie interesującym socjologa”.

2.2.3. Systematyzacja

Systematyzacja to uporządkowanie obiektów w klasach, klas między sobą i zbiorów klas z innymi zbiorami klas. Jest to uporządkowanie elementów w ramach systemów różnych poziomów (obiekty w klasach, klasy w ich zbiorze itp.) i łączenie tych systemów z innymi systemami jednopoziomowymi, co pozwala uzyskać systemy o wyższym poziomie organizacji i ogólność. W skrajnym przypadku systematyzacja to identyfikacja i wizualna reprezentacja maksymalnej możliwej liczby połączeń wszystkich poziomów w zbiorze obiektów. W praktyce skutkuje to wielopoziomową klasyfikacją. Przykłady: taksonomia flory i fauny; systematyka nauk (w szczególności nauk humanistycznych); taksonomia metod psychologicznych; taksonomia procesów mentalnych; taksonomia cech osobowości; taksonomia stanów psychicznych.

2.2.4. Periodyzacja

Periodyzacja- jest to chronologiczny porządek istnienia badanego obiektu (zjawiska). Polega na podziale cyklu życia obiektu na znaczące etapy (okresy). Każdemu etapowi odpowiadają zazwyczaj istotne zmiany (ilościowe lub jakościowe) w obiekcie, które można skorelować z kategorią filozoficzną „skok”. Przykłady periodyzacji w psychologii: periodyzacja ontogenezy człowieka; etapy socjalizacji osobowości; periodyzacja antropogenezy; etapy i fazy rozwoju grupy (dynamika grupy) itp. [ 43]

2.2.5. Kazuistyka psychologiczna

Kazuistyka psychologiczna to opis i analiza zarówno najbardziej typowych, jak i wyjątkowych przypadków dla badanej rzeczywistości. Technika ta jest typowa dla badań z zakresu psychologii różnicowej. Indywidualne podejście w psychologicznej pracy z ludźmi przesądza także o powszechnym stosowaniu kazuistyki w psychologii praktycznej. Wyraźnym przykładem zastosowania kazuistyki psychologicznej może być metoda incydentalna stosowana w badaniach zawodowych. [ 44]

3. METODY INTERPRETACJI

Metody te, nawet bardziej niż organizacyjne, zasługują na tę nazwę podchodzi do, są bowiem przede wszystkim zasadami objaśniającymi, które wyznaczają kierunek interpretacji wyników badań. W praktyce naukowej rozwinęły się genetyczne, strukturalne, funkcjonalne, złożone I podejścia systemowe. Stosowanie tej czy innej metody nie oznacza rezygnacji z innych. Wręcz przeciwnie, w psychologii powszechne jest łączenie podejść. I dotyczy to nie tylko praktyki badawczej, ale także psychodiagnostyki, poradnictwa psychologicznego i psychokorekty.

3.1. Metoda genetyczna

Metoda genetyczna to sposób badania i wyjaśniania zjawisk (w tym psychicznych), oparty na analizie ich rozwoju zarówno w planie ontogenetycznym, jak i filogenetycznym. Wymaga to ustalenia: I) warunków początkowych wystąpienia zjawiska, 2) głównych etapów oraz 3) głównych kierunków jego rozwoju. Celem metody jest identyfikacja powiązania badanych zjawisk w czasie, prześledzenie przejścia od form niższych do wyższych. Zatem wszędzie tam, gdzie konieczne jest określenie dynamiki czasowej zjawisk psychicznych, metoda genetyczna jest dla psychologa integralnym narzędziem badawczym. Nawet jeśli badania mają na celu poznanie cech strukturalnych i funkcjonalnych zjawiska, nie można wykluczyć efektywnego wykorzystania metody. Zatem twórcy dobrze znanej teorii działań percepcyjnych w mikrostrukturach W nowej analizie percepcji zauważyli, że „najodpowiedniejsza okazała się metoda badań genetycznych”. Oczywiście metoda genetyczna jest szczególnie charakterystyczna dla różnych gałęzi psychologii rozwojowej: psychologii porównawczej, rozwojowej, historycznej. Jest oczywiste, że każde badanie podłużne zakłada zastosowanie danej metody. Podejście genetyczne można ogólnie uznać za metodologiczną realizację jednej z podstawowych zasad psychologii, a mianowicie zasada rozwoju. Dzięki tej wizji inne możliwości realizacji zasady rozwoju można uznać za modyfikacje podejścia genetycznego. Na przykład, historyczny I podejścia ewolucyjne.

3.2. Metoda strukturalna

Podejście strukturalne- kierunek skupiony na identyfikacji i opisie struktury obiektów (zjawisk). Charakteryzuje się: dogłębną dbałością o opis aktualnego stanu obiektów; wyjaśnienie ich nieodłącznych, ponadczasowych właściwości; zainteresowanie nie leży w izolowanych faktach, ale w relacjach między nimi. W efekcie budowany jest system powiązań pomiędzy elementami obiektu na różnych poziomach jego organizacji. Zwykle w podejściu strukturalnym nie podkreśla się relacji części z całością w obiekcie oraz dynamiki zidentyfikowanych struktur. W takim przypadku rozkład całości na części (rozkład) można przeprowadzić według różnych opcji. Ważną zaletą metody strukturalnej jest względna łatwość wizualnej prezentacji wyników w postaci różnych modeli. Modele te można podać w formie opisów, zestawienia elementów, diagramu graficznego, klasyfikacji itp. Niewyczerpanym przykładem takiego modelowania jest reprezentacja struktury i typów osobowości: model trójelementowy według 3. Freuda; typy osobowości Junga; „Krąg Eysencka”; model wieloczynnikowy R. Assagioli. Nasza rodzima nauka nie pozostaje w tyle za psychologią zagraniczną w tej kwestii: endo- i egzopsychika według A.F. Lazursky'ego i rozwój jego poglądów przez V.D. Balina; struktura osobowości ty z czterech kompleksów według B. G. Ananyeva; indywidualny-indywidualny schemat V. S. Merlina; listy A. G. Kowalowa i P. I. Iwanowa; dynamiczna struktura funkcjonalna osobowości według K. K. Płatonowa; schemat A.I. Shcherbakova itp. Podejście strukturalne jest cechą wszelkich badań poświęconych badaniu konstytucyjnej organizacji psychiki i struktury jej materialnego podłoża - układu nerwowego. Można tu wspomnieć o typologii DNB autorstwa I. P. Pawłowa i jego opracowaniu przez B. M. Teplova, V. D. Nebylicyna i innych. Modele V. M. Rusalova, odzwierciedlające morfologiczną, neuro- i psychodynamiczną budowę człowieka, zyskały szerokie uznanie. W pracach prezentowane są modele strukturalne psychiki człowieka w aspekcie przestrzennym i funkcjonalnym. Klasycznymi przykładami rozważanego podejścia są psychologia skojarzeniowa F. Hartleya i jej konsekwencje (w szczególności psychofizyka „czystych wrażeń” XIX w.), a także psychologia strukturalna W. Wundta i E. Titchenera. Swoistą konkretyzacją podejścia jest metoda analizy mikrostrukturalnej, która obejmuje elementy podejścia genetycznego, funkcjonalnego i systemowego.

3.3. Metoda funkcjonalna

Podejście funkcjonalne Naturalnie koncentruje się na identyfikacji i badaniu funkcji obiektów (zjawisk). Niejednoznaczność interpretacji pojęcia „funkcji” w nauce utrudnia zdefiniowanie tego podejścia, a także utożsamienie z nim pewnych obszarów badań psychologicznych. Będziemy trzymać się poglądu, że funkcja jest przejawem właściwości obiektów w pewnym układzie relacji, a właściwości są przejawem jakości obiektu w jego interakcji z innymi obiektami. Zatem funkcją jest realizacja relacji pomiędzy przedmiotem a otoczeniem, a także „zgodność pomiędzy środowiskiem a systemem”. Dlatego też interesuje nas głównie podejście funkcjonalne powiązania badanego obiektu z otoczeniem. Opiera się na zasadzie samoregulacji i utrzymywania równowagi obiektów rzeczywistości (w tym psychiki i jej nośników). [ 47] Przykładami realizacji podejścia funkcjonalnego w historii nauki są tak znane kierunki, jak „psychologia funkcjonalna” i „behawioryzm”. Klasycznym przykładem ucieleśnienia idei funkcjonalnej w psychologii jest słynna teoria pola dynamicznego K. Lewina. We współczesnej psychologii podejście funkcjonalne wzbogaca się o elementy analizy strukturalnej i genetycznej. Zatem idea wielopoziomowego i wielofazowego charakteru wszystkich funkcji umysłowych człowieka, działających jednocześnie na wszystkich poziomach jako jedna całość, została już mocno ugruntowana. Powyższe przykłady struktur osobowości, układu nerwowego i psychiki można słusznie potraktować jako ilustrację podejścia funkcjonalnego, ponieważ większość autorów odpowiednich modeli uważa również elementy tych struktur za jednostki funkcjonalne, które ucieleśniają pewne powiązania między osobą i rzeczywistość.

3.4. Metoda złożona

Złożone podejście- jest to kierunek, który traktuje przedmiot badań jako zbiór elementów, które należy badać za pomocą odpowiedniego zestawu metod. Komponentami mogą być zarówno stosunkowo jednorodne części całości, jak i jej heterogeniczne strony, charakteryzujące badany obiekt w różnych aspektach. Często podejście zintegrowane polega na badaniu złożonego obiektu metodami kompleksu nauk, czyli organizowaniu badań interdyscyplinarnych. Jest oczywiste, że podejście zintegrowane zakłada wykorzystanie w takim czy innym stopniu wszystkich dotychczasowych metod interpretacji. Uderzającym przykładem wdrożenia zintegrowanego podejścia w nauce jest koncepcja wiedzy ludzkiej, zgodnie z którą człowiek, jako najbardziej złożony przedmiot badań, podlega skoordynowanym badaniom dużego zespołu nauk. W psychologii tę koncepcję złożoności badań nad człowiekiem jasno sformułował B. G. Ananyev. Osoba jest uważana jednocześnie za przedstawiciela gatunku biologicznego homo sapiens (jednostka), jako nośnik świadomości i element aktywny aktywność poznawcza i przekształcająca rzeczywistość (podmiot), jako podmiot relacji społecznych (osobowość) i jako wyjątkowa jedność społecznie znaczących cech biologicznych, społecznych i psychologicznych (indywidualność). Takie spojrzenie na człowieka pozwala badać jego treść psychologiczną w kategoriach: podporządkowania (hierarchicznego) i koordynacji. W pierwszym przypadku zjawiska psychiczne traktowane są jako układy podrzędne: bardziej złożone i ogólne, podrzędne oraz obejmują prostsze i bardziej elementarne. W drugim zjawiska psychiczne są uważane za twory stosunkowo autonomiczne, ale ściśle ze sobą powiązane i oddziałujące na siebie. Takie kompleksowe i wyważone badanie człowieka i jego psychiki w istocie wiąże się już z podejściem systemowym.

3.5. Metoda systemowa

Podejście systemowe- jest to kierunek metodologiczny w badaniu rzeczywistości, traktujący każdy jej fragment jako system. Najbardziej namacalnym impulsem do zrozumienia podejścia systemowego jako integralnego składnika metodologicznego i metodologicznego wiedzy naukowej oraz do jego ścisłego naukowego sformułowania była praca austroamerykańskiego naukowca L. Bertalanffy'ego (1901-1972), w której opracował ogólna teoria systemów. System istnieje pewna integralność, która oddziałuje z otoczeniem i składa się z wielu elementów pozostających ze sobą w określonych relacjach i powiązaniach. Organizacja tych połączeń między elementami nazywa się Struktura. Czasami konstrukcję interpretuje się szeroko, przenosząc jej rozumienie do objętości systemu. Taka interpretacja jest typowa dla naszej codziennej praktyki: „struktury komercyjne”, „struktury państwowe”, „struktury polityczne” itp. Niekiedy w nauce spotyka się takie spojrzenie na strukturę, choć z pewnymi zastrzeżeniami. Element- najmniejsza część układu zachowująca swoje właściwości w obrębie danego układu. Dalsze rozczłonkowanie tej części prowadzi do utraty odpowiednich właściwości. Zatem atom jest pierwiastkiem o określonych właściwościach fizycznych - my, cząsteczka - o właściwościach chemicznych, komórka - element o właściwościach życia, osoba (osobowość) - element stosunków społecznych. O właściwościach elementów decyduje ich położenie w konstrukcji, co z kolei determinuje właściwości układu. Ale właściwości układu nie sprowadzają się do sumy właściwości elementów. System jako całość syntetyzuje (łączy i uogólnia) właściwości części i elementów, w wyniku czego posiada właściwości wyższego poziomu organizacji, które w interakcji z innymi systemami mogą ujawnić się jako jego Funkcje. Z jednej strony każdy system można uznać za łączenie prostszych (mniejszych) podsystemów z jego właściwościami i funkcjami, a z drugiej - jak podsystem bardziej złożonych (większych) systemów. Na przykład każdy żywy organizm to układ narządów, tkanek i komórek. Jest także elementem odpowiedniej populacji, która z kolei jest podsystemem świata zwierząt, roślin itp. Badania systemowe prowadzone są z wykorzystaniem analizy i syntezy systemowej. W trakcie analiza system jest izolowany od otoczenia, określa się jego skład (zestaw elementów), strukturę, funkcje, integralne właściwości i charakterystyki, czynniki systemotwórcze oraz relacje z otoczeniem. W trakcie synteza tworzony jest model rzeczywistego systemu, zwiększa się poziom uogólnienia i abstrakcji opisu systemu, określa się kompletność jego składu i struktur, wzorce jego rozwoju i zachowania. Opis obiektów jako systemów, tj. opisy systemów, spełniają te same funkcje, co inne opisy naukowe: wyjaśniające i predykcyjne. Co jednak ważniejsze, opisy systemów pełnią funkcję integrującą wiedzę o obiektach. Systematyczne podejście w psychologii pozwala ujawnić wspólność zjawisk psychicznych z innymi zjawiskami rzeczywistości. Umożliwia to wzbogacenie psychologii o idee, fakty, metody innych nauk i odwrotnie, penetrację danych psychologicznych do innych obszarów wiedzy. Pozwala zintegrować i usystematyzować wiedzę psychologiczną, wyeliminować nadmiarowość w zgromadzonych informacjach, zmniejszyć objętość i zwiększyć przejrzystość opisów oraz zmniejszyć subiektywizm w interpretacji zjawisk psychicznych. Pomaga dostrzec luki w wiedzy o konkretnych obiektach, wykryć je kompletność, wyznaczają zadania dalszych badań, a czasami przewidują właściwości obiektów, o których nie ma informacji, poprzez ekstrapolację i interpolację dostępnych informacji. W działaniach edukacyjnych systematyczne metody opisu pozwalają przedstawić informacje edukacyjne w formie bardziej wizualnej i adekwatnej do percepcji i zapamiętywania, dać bardziej całościowy obraz oświetlonych obiektów i zjawisk, a wreszcie odejść od prezentacji indukcyjnej psychologii na dedukcyjno-indukcyjną. Poprzednie podejścia są w rzeczywistości organicznymi składnikami podejścia systemowego. Czasami uważa się je nawet za jego odmiany. Niektórzy autorzy porównują te podejścia z odpowiadającymi im poziomami cech ludzkich, które stanowią przedmiot badań psychologicznych. Obecnie większość badań naukowych prowadzona jest w podejściu systemowym. Najpełniejsze omówienie podejścia systemowego w odniesieniu do psychologii znaleziono w następujących pracach. [ 51]

Literatura

    Ananyev B. G. O problemach współczesnej nauki o człowieku. M., 1977. Ananyev B.G. O metodach współczesnej psychologii // Metody psychologiczne w kompleksowym badaniu podłużnym studentów. L., 1976. Ananyev B. G. Człowiek jako przedmiot wiedzy. L.. 1968. Balin V.D. Refleksja mentalna: Elementy psychologii teoretycznej. Petersburg, 2001. Balin V.D. Teoria i metodologia badań psychologicznych. L., 1989. Bendatalafanri L. Zastosowanie korelacji i analizy spektralnej. M., 1983. Bertalanfanry L. Historia i status ogólnej teorii systemów // Badania systemowe. M.. 1973. Bertalanffy L. Ogólna teoria systemów - przegląd problemów i wyników // Badania systemowe. M., 1969. Blagus P. Analiza czynnikowa z uogólnieniami. M., 1989. Borowkow A.A. Statystyka matematyczna: Estymacja parametrów. Testowanie hipotez. M.. 1984. Braverman E.M.,Muchnik I.B. Strukturalne metody przetwarzania danych empirycznych, M.. 1983. Burdun G.V., Markov, S.M. Podstawy metrologii. M., 1972. Ganzen V.A. Założenia do kursu „Metody systemowe w psychologii”. L., 1987. Ganzen V.A. Opisy systemów w psychologii. L., 1984. Ganzen V.A. Podejście systematyczne w psychologii. L., 1983. Ganzen V. A., Fomin A. A. O pojęciu typu w psychologii // Biuletyn SNbSU. ser. 6, 1993, wydanie. 1 (nr 6). Ganzen V. A., Khoroshilov B. M. Problem systematycznego opisu zmian jakościowych obiektów psychologicznych. Dep. VINITI, 1984, nr 6174-84. Glass J., Stanley J. Metody statystyczne w pedagogice i psychologii. M.. 1976. Godefroy J. Czym jest psychologia? T. 1-2. M., 1992. Gordon V. M., Zinchenko V. P. Systemowo-strukturalna analiza aktywności poznawczej // Ergonomia, tom. 8. M., 1974. Gusiew E. K., Nikandrov V. V. Psychofizyka. L., 1987. Gusiew E.K., Nikandrov V.V. Psychofizyka. Część P. Skalowanie psychologiczne. L., 1985. Draneper I..Smith G. Stosowana analiza regresji. W 2 książkach. wydanie 2. M.. 1987. Druzhinin V.I. Psychologia eksperymentalna. M.. 1997. Davison M. Skalowanie wielowymiarowe. Metody wizualnej prezentacji danych. M., 1988. Durand B., Odell P. Analiza skupień. M., 1977. Ezekiel M., Fox K.A. Metody analizy korelacji i regresji. M.. 1966. Zaroczentsew K.D., Chudyakow A.I. Podstawy psychometrii. Petersburg, 1996. Zinchenko V. P. O mikrostrukturalnej metodzie badania aktywności poznawczej//Ergonomia, vy. 3. M., 1972. Zinchenko V. P., Zinchenko T. P. Percepcja//Psychologia ogólna/Wyd. L. W. Pietrowski. wyd. 2. M.. 1976. Iberla K. Analiza czynników. M., 1980. Itelson L.B. Metody matematyczne i cybernetyczne w pedagogice. M., 1964. Kagan MS Systematyczne podejście i wiedza humanitarna. L.. 1991. Kołkot E. Kontrola znaczenia. M.. 1978. Kornilova G.V. Wprowadzenie do eksperymentu psychologicznego. M., 1997. Koryukin V.I. Pojęcia poziomów we współczesnej wiedzy naukowej. Swierdłowsk, 1991. Kryłow A.A. Podejście systematyczne jako podstawa badań w psychologii inżynierskiej i psychologii pracy // Metodologia badań w psychologii inżynierskiej i psychologii pracy, część 1. Leningrad, 1974. Kuźmin V.P. Zasady systematyczne w teorii i metodologii K. Marksa. wyd. 2. M.. 1980. Kuźmin V.P. Różne kierunki rozwoju podejścia systemowego i ich podstawy epistemologiczne // Pytania filozofii, 1983, nr 3. Kulikov L.V. Badania psychologiczne. Zalecenia metodologiczne dotyczące przeprowadzenia. 6. wyd. Petersburg, 2001. Kyun Yu. Statystyka opisowa i indukcyjna. M., 1981. Leman E. L. Testowanie hipotez statystycznych. wydanie 2. M., 1979. Lomov B.F. Metodologiczne i teoretyczne problemy psychologii. M., 1984. Lomov B.F. O podejściu systemowym w psychologii // Zagadnienia psychologii, 1975, nr 2. Lomov B.F. O drogach rozwoju psychologii // Zagadnienia psychologii. 1978. Nr 5. Lawley D., Maxwell L. Analiza czynnikowa jako metoda statystyczna. M., 1967. Maziłow V. A. O związku teorii i metody w psychologii // Lektury Ananyevye - 98 / Materiały z badań naukowych i praktycznych. konferencje. Petersburg, 1998. Malikov S. F., Tyurin N. I. Wprowadzenie do metrologii. M, 1965. Psychologia matematyczna: teoria, metody, modele. M., 1985. Mirkin B. G. Analiza cech i struktur jakościowych. M.. 1980. Miroshnikov S.A. Badanie poziomów organizacji ludzkiej aktywności umysłowej // Teoretyczne i stosowane zagadnienia psychologii, tom. 1, część II. Petersburg, 1995. Mondel I.D. Analiza skupień. M., 1988. Nikaidrov V.V. O systematycznym opisie funkcjonalnej struktury psychiki // Teoretyczne i stosowane zagadnienia psychologii, tom. 1. Petersburg, 1995. Nikandrov V.V. Psychologia historyczna jako samodzielna dyscyplina naukowa//Biuletyn Leningradzkiego Uniwersytetu Państwowego, ser. 6. 1991, wyd. 1 (nr 6). Nikandrov V.V. O związku między psychologicznymi makrocharakterystykami osoby // Biuletyn Państwowego Uniwersytetu w Petersburgu, tom. 3. 1998. Nikandrov V.V. Przestrzenny model struktury funkcjonalnej ludzkiej psychiki // Biuletyn Uniwersytetu Państwowego w Petersburgu, 1999, nr. 3, nr 20. Okun Ja. Analiza czynników. M., 1974. Paramey G.V. Zastosowanie skalowania wielowymiarowego w badaniach psychologicznych // Biuletyn Moskiewskiego Uniwersytetu Państwowego, ser. 14. 1983, nr 2. Pirow G. D. Psychologia eksperymentalna. Sofia, 1968. Pirow G. D. Klasyfikacja metod psychologii // Psychodiagnostyka w krajach socjalistycznych. Bratysława, 1985. Plokhinsky N.A. Biometria. wydanie 2. M., 1970. Poston T., Stewart I. Teoria katastrofy i jej zastosowania. M., 1980. Warsztaty z psychodiagnostyki. Psychometria różnicowa/wyd. V. V. Stolina, A. G. Shmeleva. M., 1984. Zasada rozwoju w psychologii / Rep. wyd. L. I. Antsyferova. M., 1978. Problem poziomów i systemów wiedzy naukowej. Mińsk, 1970. Pfanzagl I. Teoria pomiarów. M., 1976. PierroiA. Psychofizyka//Psychologia eksperymentalna, tom. 1-2. M.. 1966. Rappoport A. Podejście systematyczne w psychologii // Czasopismo psychologiczne, 1994, nr 3. Rogovin M. S. Teorie poziomu strukturalnego w psychologii. Jarosław, 1977. Rudestam K. Psychoterapia grupowa. M., 1980. Rusałow V. M. Biologiczne podstawy indywidualnych różnic psychologicznych. M., 1979. Selye G. Od marzenia do odkrycia: jak zostać naukowcem. M., 1987. Sierżanci V.F. Wprowadzenie do metodologii współczesnej biologii. L., 1972. Sierżanci V.F. Człowiek, jego natura i sens istnienia. L., 1990. Sidorenko E. V. Metody przetwarzania matematycznego w psychologii. Petersburg, 2001. Systematyczne podejście do problemu psychofizjologicznego / Rep. wyd. V. B. Szwyrkow. M., 1982. Steven S.S. Matematyka, pomiar i psychofizyka // Psychologia eksperymentalna / Wyd. SS Stephen. T. 1. M.. 1960. Stephen SS O prawie psychofizycznym // Problemy i metody psychofizyki. M., 1974. Sukhodolsky G.V. Psychologia matematyczna. Petersburg.. 1997. Sukhodolsky G.V. Podstawy statystyki matematycznej dla psychologów. L., 1972. Thurston L.L. Analiza psychologiczna // Problemy i metody psychofizyki. M., 1974. Typologia i klasyfikacja w badaniach socjologicznych//Odpowiedzialny. wyd. V. G. Andreenkov, Yu. N. Tolstova. M., 1982. Uemov A.I. Podejście systemowe i ogólna teoria systemów. M., 1978. Czynnikowa analiza dyskryminacyjna i skupieniowa / wyd. I. S. Enyu-kova. M., 1989. Harman G. G. Nowoczesna analiza czynnikowa. M., 1972. Shvaitsara I. i inne Diagnostyka rozwoju umysłowego. Praga, 1978. Sheffe G. Analiza wariancji. M., 1963. Schreiber D. Problemy skalowania // Proces badań społecznych. M., 1975. Bertalanffy L. Ogólna teoria systemów. Podwaliny. Rozwój, aplikacje. Nowy Jork, 1968. Choynowski M. Die Messung in der Psychologic /7 Die Probleme der mathematischen Psychologic Warschaw, 1971. Guthjahr W. Die Messung psychischer Eigenschaftcn. Berlinie, 1971. Leinfellner W. Einfuhrung in die Erkenntnis und Wisscnschafts-theorie. Mannheima, 1965. Lewina K. Dynamiczna teoria osobowości. Nowy Jork, 1935. Lewina K. Podstawy psychologii topologicznej. N. Y., 1936. Sixtl F. Mesmethoden der psychologic Weinheim, 1966, 1967. Stevens SS Sensoryczne skale intensywności smaku // Percept, a. Psychofizyka. 1969 tom. 6. Torgerson W. S. Teoria i metody skalowania. Nowy Jork, 1958.
  1. Instruktaż. St.Petersburg: Wydawnictwo Rech, 2003. 480 s. BBC88

    Instruktaż

    W podręczniku psychologia eksperymentalna jest traktowana jako niezależna dyscyplina naukowa, która rozwija teorię i praktykę badań psychologicznych, a głównym przedmiotem badań jest system metod psychologicznych.

  2. Andreeva G. M., Bogomolova N. N., Petrovskaya L. A. „Zagraniczna psychologia społeczna XX wieku. Podejścia teoretyczne” (1)

    Dokument
  3. Andreeva G. M., Bogomolova N. N., Petrovskaya L. A. „Zagraniczna psychologia społeczna XX wieku. Podejścia teoretyczne” (2)

    Dokument

    Pierwsze wydanie tej książki ukazało się w 1978 r. (G. M. Andreeva, N. N. Bogomolova, L. A. Petrovskaya „Psychologia społeczna na Zachodzie”). Jeśli weźmiemy pod uwagę, że w tamtym czasie „ścieżka wydawnicza” była bardzo długa, stanie się jasne, że rękopis

  4. Program egzaminu państwowego z pedagogiki i psychologii kierunku pedagogicznego

    Program

    Standardowy okres opanowania głównego programu edukacyjnego dla studiów magisterskich na kierunku 050700.68 Pedagogika na studiach stacjonarnych wynosi 6 lat.

  5. Psychologia XXI wieku tom 2

    Dokument

    Członkowie Komitetu Organizacyjnego: Akopov G.V., Bazarov T.Yu., Zhuravlev A.L., Znakov V.V., Erina S.I., Kashapov S.M., Klyueva N.V., Lvov V.M. , Manuilov G.M., Marchenko V.

Dane ilościowe i jakościowe w eksperymentach i innych metodach badawczych.

Dane jakościowe– tekst, opis w języku przyrodniczym. Można uzyskać poprzez zastosowanie metod jakościowych (obserwacja, badanie itp.)

Dane ilościowe– kolejny krok w porządkowaniu danych jakościowych.

Rozróżnij ilościowe przetwarzanie wyników od pomiaru zmiennych.

Jakość – np. obserwacja. Postulat bezpośredniości danych obserwacyjnych polega na przedstawieniu obserwacji rzeczywistości psychologicznej. Aktywność obserwatora w organizacji procesu obserwacji i zaangażowanie obserwatora w interpretację uzyskanych faktów.

Różne podejścia do istoty pomiaru psychologicznego:

1. Prezentacja problemu przypisywanie liczb na skali zmiennej psychologicznej w celu uporządkowania obiektów psychologicznych i postrzeganych właściwości psychologicznych. Założenie, że Właściwości skali pomiarowej odpowiadają uzyskanym empirycznie wynikom pomiarów . Zakłada się również, że zaprezentowane kryteria statystyczne przetwarzania danych są adekwatne do zrozumienia przez badaczy różnych typów skal , ale dokumenty są obniżone.

2. Sięga do tradycji eksperymentu psychofizycznego, gdzie Ostatecznym celem procedury pomiarowej jest opisanie fenomenalnych właściwości w kategoriach zmian celu (stimulus_h-k. Zasługa Stevensa)

Wprowadził rozróżnienie pomiędzy rodzajami skal:

nazwy, porządek (tutaj jest spełnienie warunku monotoniczności, możliwe jest rankingowanie), przedziały (na przykład wskaźniki IQ, tutaj odpowiedź na pytanie „ile” jest możliwa), stosunki (tutaj odpowiedź na pytanie „ile” , zero absolutne i jednostki miary - psychofizyka)

Dzięki temu pomiar psi zaczął pełnić nie tylko funkcję ustalania ilościowych zależności psychofizycznych, ale także w szerszym kontekście pomiaru zmiennych psi.

Opis jakościowy– 2 rodzaje: opis w słowniku języka naturalnego i opracowanie systemów symboli, znaków, jednostek obserwacji. Obserwacja kategoryczna – redukcja jednostek do kategorii – uogólnienie. Przykładem jest standaryzowana procedura obserwacji Balesa służąca do opisu interakcji członków małej grupy w rozwiązywaniu problemu. System kategorii(w wąskim znaczeniu) – zbiór kategorii obejmujący wszystkie teoretycznie dopuszczalne przejawy badanego procesu.

Ocena ilościowa): 1) wydarzenie-próbowanie– pełny słowny opis zdarzeń behawioralnych, ich późniejsza lektura i rekonstrukcja psychologiczna. Wąskie znaczenie tego terminu: dokładne, czasowe lub częstotliwościowe odbicie „jednostek” opisu przez obserwatora. 2) czas-próbowanie– obserwator rejestruje określone przedziały czasowe, tj. określa czas trwania wydarzeń. Technika próbkowania czasowego. Opracowany również specjalnie do oceny ilościowej skale subiektywne(Przykład: Sheldon, temperamenty somatotypowe).

Metody przetwarzania danych można podzielić na jakościowe i ilościowe. Obróbka jakościowa to szczególny sposób wniknięcia w istotę przedmiotu poprzez rozpoznanie jego niemierzalnych właściwości, mający na celu przede wszystkim sensowne, wewnętrzne poznanie przedmiotu. W jakościowym przetwarzaniu wyników badań dominują syntetyczne metody poznania i metody logiczne. Jakościowe przetwarzanie wyników badań zmierza do opisu i wyjaśnienia badanych zjawisk, co stanowi kolejny poziom ich badania na etapie interpretacji wyników.

Pierwotne przetwarzanie danych może polegać na sporządzaniu tabel zbiorczych uzyskanych wyników, w których rejestrowane są dane ilościowe i jakościowe (częstotliwość ich występowania, wskaźniki przeliczone na rangi, kody liczbowe parametrów jakościowych itp.). Dane uzyskane w wyniku badania, pogrupowane w tabele, można łatwo i wygodnie przetwarzać za pomocą metod statystycznego przetwarzania danych, tj. za pomocą wzorów matematycznych pewne metody obliczeń ilościowych, dzięki którym można uogólniać wskaźniki, wprowadzać do systemu, ujawniając ukryte w nich wzorce.

Wszystkie metody przetwarzania danych statystycznych można podzielić na pierwotne i wtórne. Metody pierwotne analiza statystyczna to metody uzyskiwania wskaźników bezpośrednio odzwierciedlających wyniki psychodiagnostyki.Do podstawowych metod przetwarzania statystycznego należą:

1. Definicja średnia próbki , tj. średnia ocena jakości psychologicznej badanej w badaniu. Średnią próbkę określa się według wzoru:

Gdzie x śr-średnia wartość próbki lub średnia arytmetyczna próbki;

P - liczba osób w próbie lub prywatne wskaźniki psychodiagnostyczne, na podstawie których obliczana jest wartość średnia;

x k - prywatne wartości wskaźników dla poszczególnych przedmiotów. Suma takich wskaźników P, więc indeks k zmienna ta przyjmuje wartości od 1 do P;



- znak przyjęty w matematyce do sumowania wartości zmiennych znajdujących się po prawej stronie tego znaku.

Wyrażenie odpowiednio oznacza sumę wszystkiego X z indeksem k od 1 do n.

2. Odchylenie próbki - wartość charakteryzująca stopień odchylenia poszczególnych wartości od wartości średniej w danej próbce. Im większa wariancja, tym większe odchylenie lub rozproszenie danych i odwrotnie. Dyspersję określa się według wzoru:

Gdzie - wariancja próbki lub po prostu wariancja;

- wyrażenie oznaczające to dla każdego x k od pierwszej do ostatniej w danej próbie należy obliczyć różnice pomiędzy wartościami cząstkowymi i średnimi, podnieść te różnice do kwadratu i zsumować;

P - liczba osób w próbie lub wartości pierwotne, z których obliczana jest wariancja.

3. Wybiórcza moda - jest to wartość ilościowa badanej cechy, najczęściej spotykana w próbie. Tryb jest określony wzorem:

Gdzie Pon– moda,

x 0– wartość początku przedziału modowego,

H– wielkość przedziału modalnego,

f Pon– częstotliwość przedziału modowego,

f Mo-1– częstotliwość przedziału znajdującego się przed modalem,

fMo1– częstotliwość interwału po modalnym.

4. Przykładowa mediana - jest to wartość badanej cechy, dzieląca próbę uporządkowaną według wartości tej cechy na pół. Jeśli liczba wartości jest nieparzysta, wówczas mediana będzie odpowiadać wartości środkowej szeregu, którą określa wzór:

Gdzie Nie ja– numer wartości odpowiadającej medianie,

N– liczba wartości w zbiorze danych.

Następnie mediana będzie oznaczona jako

Jeżeli liczba danych jest parzysta, to znaczy zamiast jednej znajdują się dwie wartości środkowe, wówczas przyjmuje się średnią arytmetyczną z dwóch wartości centralnych:

Metodami wtórnymi Przetwarzanie statystyczne to metody, dzięki którym na podstawie danych pierwotnych ujawniają się ukryte w nich wzorce statystyczne. Do metod wtórnych najczęściej stosowanych w badaniach psychologicznych należą:

1. Porównanie średnich wartości próbek należących do dwóch populacji, określenie wiarygodności różnic między nimi pod względem Test t-Studenta . Oblicza się go według wzoru:

,

gdzie x 1 jest średnią wartością zmiennej dla jednej próbki danych;

x 2 -średnia wartość zmiennej na podstawie innej próbki danych;

t 1 I t 2 - zintegrowane wskaźniki odchyleń wartości cząstkowych z dwóch porównywanych próbek od odpowiadających im wartości średnich.

t 1 I t 2 z kolei oblicza się za pomocą następujących wzorów:

gdzie jest wariancją pierwszej zmiennej (dla pierwszej próby);

Wariancja próbki drugiej zmiennej (na podstawie drugiej próby);

P ] - liczba prywatnych wartości zmiennej w pierwszej próbie;

str. 2 - liczba wartości cząstkowych zmiennej w drugiej próbce.

Po określeniu wskaźnika za pomocą tego wzoru T, zgodnie z tabelą 5 dla danej liczby stopni swobody równej nr 1 + nr 2- 2 i dla wybranego prawdopodobieństwa akceptowalnego błędu zostaje znaleziona wymagana wartość z tabeli T i porównaj z nimi obliczoną wartość T. Jeżeli obliczona wartość T większe lub równe tabeli, wówczas dochodzą do wniosku, że porównywane wartości średnie z dwóch próbek rzeczywiście różnią się istotnie statystycznie, a prawdopodobieństwo błędu dopuszczalnego jest mniejsze lub równe wybranemu.

Tabela 5. Wartości krytyczne testu t-Studenta dla danej liczby stopni swobody i prawdopodobieństw dopuszczalnych błędów równych 0,05; 0,01 i 0,001

Liczba stopni swobody (n 1 + n 2 -2) Prawdopodobieństwo akceptowalnego błędu
0,05 0,01 0,001
Wartości krytyczne wskaźnika T
2,78 5,60 8,61
2,58 4,03 6,87
2,45 3,71 5,96
2,37 3,50 5,41
2,31 3,36 5,04
2,26 3,25 4,78
2,23 3,17 4,59
2,20 3,11 4,44
2,18 3,05 4,32
2,16 3,01 4,22
2,14 2,98 4,14
2,13 2,96 4,07
2,12 2,92 4,02
2,11 2,90 3,97
2,10 2,88 3,92
2,09 2,86 3,88
2,09 2,85 3,85
2,08 2,83 3,82
2,07 2,82 3,79
2,07 2,81 3,77
2,06 2,80 3,75
2,06 2,79 3,73
2,06 2,78 3,71
2,05 2,77 3,69
2,05 2,76 3,67
2,05 2,76 3,66
2,04 2,75 3,65
2,02 2,70 3,55
2,01 2,68 3,50
2,00 2,66 3,46
1,99 2,64 3,42
1,98 2,63 3,39

2. Porównanie częstotliwości, np. procentowych, rozkładów danych za pomocą Test χ2 – test Pearsona. Oblicza się go według wzoru:

Gdzie Pk-. częstotliwość wyników obserwacji przed eksperymentem;

Vk- częstotliwość wyników obserwacji po eksperymencie;

T- łączna liczba grup, na które podzielono wyniki obserwacji.

Po określeniu wskaźnika χ 2 za pomocą tego wzoru , Korzystając z tabeli dla danej liczby stopni swobody i wybranego prawdopodobieństwa błędu dopuszczalnego, znajdź wymaganą tabelę wartości χ 2 i porównaj z nimi obliczoną wartość χ 2 . Jeżeli obliczona wartość χ 2 jest większa lub równa wartości z tabeli, wówczas stwierdza się, że porównywane wartości z dwóch próbek rzeczywiście różnią się istotnie statystycznie z prawdopodobieństwem akceptowalnego błędu mniejszym lub równym wybranemu .

3. Metoda Korelacja rang Spearmana to metoda pozwalająca określić bliskość (siłę) i kierunek korelacji pomiędzy dwiema cechami lub dwoma profilami (hierarchiami) cech. Jego formuła jest następująca:

gdzie R s jest współczynnikiem korelacji rang Spearmana;

czy ja - różnica między rangami wskaźników tych samych podmiotów w uporządkowanych szeregach;

P - liczba obiektów lub danych cyfrowych (rankingów) w skorelowanych seriach.

4.Analiza czynników jest metodą określania ogółu powiązań wewnętrznych i ewentualnych związków przyczynowo-skutkowych w materiale badawczym. W wyniku analizy czynnikowej identyfikowane są czynniki, które w tym przypadku są rozumiane jako przyczyny wyjaśniające wiele częściowych (sparowanych) zależności korelacyjnych. Analiza czynnikowa obejmuje obliczenie macierzy korelacji dla wszystkich zmiennych objętych analizą, wyodrębnienie czynników, rotację czynników w celu stworzenia uproszczonej struktury oraz interpretację czynników. Matematyczny model analizy czynnikowej można przedstawić w następujący sposób:

V ja = ZA i,1 fa 1 + A i,2 fa 2 + ... + A i,k fa k + U,

gdzie V i to wartość i-tej zmiennej, która jest wyrażona jako liniowa kombinacja k wspólnych czynników, A i,k to współczynniki regresji pokazujące udział każdego z k czynników w tej zmiennej; F 1...k - czynniki wspólne dla wszystkich zmiennych; U jest czynnikiem charakterystycznym tylko dla zmiennej Vi.

Warsztat

Ćwiczenie 1. Zdefiniuj eksperyment jako metodę badań psychologicznych. Czym różni się eksperyment od innych metod badawczych (obserwacja, badanie korelacyjne)?

Zadanie 2. Zdefiniuj hipotezę eksperymentalną. Jakie rodzaje hipotez znasz (przynajmniej 5)? Podaj przykłady tych hipotez.

Zadanie 3. Jakie znasz typy zmiennych? Zidentyfikuj je. Jakie zmienne są głównymi i uwzględniane przy formułowaniu głównej hipotezy eksperymentalnej? Podaj przykłady zmiennych.

Zadanie 4. Wskaż NP i GP, cechy NP (intersubiektywny lub intrasubiektywny, kontrolowany lub subiektywny), określ, jaki projekt eksperymentu został zastosowany.

Aby zbadać wpływ stłoczenia na rozwiązywanie problemów, uczestnicy zostali poproszeni o rozwiązanie serii łamigłówek słownych w dużych lub małych pokojach. Aby uzyskać ten sam średni werbalny IQ we wszystkich grupach, badacze zmierzyli inteligencję werbalną uczestników, a następnie przypisali ich do dwóch warunków.

Zadanie 5. Czym różni się eksperyment jednoczynnikowy od eksperymentu wieloczynnikowego? Daj przykłady.

Zadanie 6. Korzystając z podanego tekstu wskaż, jakich metod w psychologii można uznać za twórcę F. Galtona. Czy zgadzasz się, że wyniki testów dyskryminacji sensorycznej mogą pomóc w ocenie inteligencji?

W 1884 roku na Wystawie Światowej i w Londynie Francis Galton zorganizował laboratorium antropometryczne, w którym za opłatą 3 pensy zwiedzający mieli badać ostrość wzroku, słuch, siłę mięśni i mierzyć niektóre cechy fizyczne. F. Galton uważał, że testy dyskryminacji sensorycznej mogą służyć do oceny inteligencji (w szczególności odkrył, że w przypadku idiotyzmu upośledzona jest zdolność rozróżniania ciepła, zimna i bólu).

Zadanie 7. Połącz wymienione parametry w dwie grupy, charakteryzujące cechy testów indywidualnych i grupowych. Wyjaśnij zalety i wady obu rodzajów badań.

Biorąc pod uwagę indywidualne cechy; swoboda podmiotów w odpowiadaniu na pytania i zadania; możliwość objęcia dużych grup tematycznych; niemożność uwzględnienia czynników losowych (choroba, zmęczenie, dyskomfort emocjonalny); umiejętność osiągnięcia wzajemnego zrozumienia z tematem; prezentowanie zadań przez mikrofon; uzyskanie dużej ilości danych; możliwość monitorowania sposobu realizacji zadania; przedstawianie zadań w najbardziej sformalizowanej formie; techniki projekcyjne; uproszczenie instrukcji; obiektywizm w przetwarzaniu danych; zapisywanie materiału testowego; łatwość gromadzenia danych; szybkość zbierania danych (oszczędność czasu); wykorzystanie elastycznych zadań testowych.

Zadanie 8. Popraw błędy w podanym tekście.

Celem obserwacji jest dokładne i szczegółowe opisanie przeżyć, stanów psychicznych i zachowań. Należy ograniczyć się do bezstronnego rejestrowania faktów zachowań, bez próby wnikania w ich przyczyny. Obserwacja pełni jedynie funkcje pomocnicze, umożliwiające gromadzenie materiału empirycznego i praktycznie nie jest stosowana jako metoda samodzielna. Nie ma sytuacji, w których obserwacja mogłaby być zastosowana jako jedyna obiektywna metoda.

Zadanie 9. Sformułuj swój stosunek do stwierdzenia:

„Metoda to pierwsza, podstawowa rzecz. Powaga badań zależy od metody, od sposobu działania. Wszystko zależy od dobrej metody. Przy dobrej metodzie nawet niezbyt utalentowana osoba może wiele zdziałać. A przy złej metodzie nawet genialny człowiek będzie pracował na próżno i nie otrzyma żadnej wartościowej, dokładnej wiedzy.

1. Nikandrov V.V. Badania psychologiczne i ich wsparcie metodologiczne. Petersburg, 2003.

2. Druzhinin V.N. Psychologia eksperymentalna. M., 2006.

3. Nikandrov V.V. Obserwacja i eksperyment w psychologii. Petersburg, 2001.

4. Nikandrov V.V. Psychologia eksperymentalna. Petersburg, 2003.

5. Warsztaty z psychologii ogólnej i eksperymentalnej / wyd. AA Kryłowa. L., 1990.

6. Warsztaty z psychologii ogólnej, eksperymentalnej i stosowanej. wydanie 2. / wyd. AA Kryłow, SA Maniczew. Petersburg, 2000.

W psychologii istnieją dwa główne podejścia do gromadzenia danych – jakościowe i ilościowe. W podejściu ilościowym informacje przekształca się w liczby. Przykładem może być wypełnienie kwestionariusza lub udzielenie odpowiedzi na pytania dotyczące stopnia, w jakim ludzie zgadzają się lub nie z określonymi stwierdzeniami. Odpowiedzi można oceniać w punktach odpowiadających poglądom respondentów. Jedną z zalet metody ilościowej jest możliwość testowania hipotez i łatwego dokonywania porównań pomiędzy różnymi grupami społecznymi – np. osobami pracującymi i bezrobotnymi. Główną wadą jest to, że prawdziwe wypowiedzi ludzi są ukryte za abstrakcyjnymi liczbami.

Prowadząc badania jakościowe, zostaje zachowane bogactwo i różnorodność ludzkich uczuć i myśli. W tym przypadku szeroko stosowane są również ankiety, ważne jest jednak to, co później zrobi się z uzyskanymi danymi, które można przeliczyć na liczby. Na przykład, analizując ilościowo odpowiedzi Johna, można policzyć, ile słów użył, które wskazują na jego przygnębiony stan psychiczny. Analiza jakościowa polega na przeanalizowaniu znaczenia tych odpowiedzi – na przykład tego, co Jan ma na myśli poprzez słowo „bezrobocie”. Metodologia jakościowa bada powiązania między wydarzeniami i działaniami oraz bada, jak ludzie wyobrażają sobie te powiązania.

Za pomocą analiz ilościowych i jakościowych można badać także osobowość. Analiza ilościowa lub wariacyjno-statystyczna polega na obliczeniu współczynników prawidłowego rozwiązania problemu oraz częstotliwości powtarzania się obserwowanych zjawisk psychicznych. Do porównania wyników badań dotyczących różnej liczby zadań lub innego składu ilościowego grupy nie stosuje się wskaźników bezwzględnych, lecz względnych, głównie procentowych. Przy ilościowej analizie wyników badań często stosuje się średnią arytmetyczną wszystkich badań konkretnego procesu psychicznego lub indywidualnej cechy psychologicznej. W celu wyciągnięcia wniosków na temat prawdopodobieństwa średniej arytmetycznej obliczany jest współczynnik odchyleń od niej poszczególnych wskaźników. Im mniejsze odchylenie wskaźników poszczególnych badań od średniej arytmetycznej, tym bardziej wskazuje to na badania cech psychologicznych jednostki.

Analiza jakościowa przeprowadzana jest w oparciu o analizę ilościową, ale nie ogranicza się do niej. W analizie jakościowej wyjaśnia się przyczyny wysokich lub niskich wskaźników, ich zależność od wieku i indywidualnych cech jednostki, warunków życia i nauki, relacji w zespole, stosunku do aktywności itp.

Ilościowa i jakościowa analiza danych badawczych daje podstawę do uzyskania charakterystyki psychologiczno-pedagogicznej jednostki oraz wniosków na temat działań edukacyjnych.