Pobierz psychologia procesów poznawczych - główne podejście w badaniach nad poznaniem człowieka i więcej Notatki w PDF z Psychologia tylko na Docsity!
Główne podejście w badaniach nad poznaniem człowieka
- eksperymentalna psychologia poznawcza
- doświadczenie -podejście behawioralne
- zbiera obserwacje behawioralne w eksperymentach
- bazowanie na zmiennych zależnych i niezależnych (przyczynowo skutkowość)
- dążymy do precyzji metodologicznej – dzięki temu badania dają się replikować
- systematycznie zbiera wyniki eksperymentów
- większość teorii dotyczących poznania człowieka powstaje właśnie w ramach tego podejścia
- minus -> eksperymentalnie da się zbadać dość niewiele zjawisk
- neuronauka poznawcza
- to podejście też korzysta z danych behawioralnych ale przede wszystkim działa na badaniach mózgu
- techniki to między innymi EEG, rezonans magnetyczny, tomografia
- badanie funkcjonalnej specjalizacji rejonów mózgu
- badanie relacji między rejonami mózgu
- większość z tych technik dostarcza danych korelacyjnych (jaka aktywność w mózgu współwystępuje z danym zachowaniem poznawczy)
- zaczynają się pojawiać metody badające te zależności na bazie przyczynowo skutkowej (przedczaszkowa stymulacja magnetyczna, gdzie zakłócamy działanie mózgu w danym miejscu; jest to krótko trwałe zaburzenie funkcjonowanie mózgu)
- dawniej prowadzono również wiele badań na zwierzętach
- neuropsychologia poznawcza
- podejście od dość długiej tradycji -padanie pacjentów z uszkodzeniem mózgu – wnioskujemy coś o poznaniu na podstawie tego jak dana osoba ma uszkodzony mózg np. przypadek mężczyzn pracujący na kolei amerykańskiej
- korzysta z metod neuronauk poznawczych
- głównym sposobem poszerzania informacji jest podwójna dysocjacja; sugeruje to że konkretny obszar w mózgu prezentuje odrębne funkcje (np. afazje)
- ograniczenia w tym podejściu to: *wnioskowanie na podstawie mózgu chorego o mózgu zdrowy (np. stosowanie kompensacji przez chorego); *nie są tu prowadzone badania eksperymentalne, bo oznaczałoby to specjalne i trwałe uszkodzenie mózgu badanego *badania na małych próbach *wnioskowanie na podstawie pojedynczego przypadku
- komutacyjna kognitywistka
- podejście bliskie informatyki
- opracowuje modele obliczeniowe tego jak przebiegają procesy poznawcze
- modelowanie obliczeniowe – naśladowanie funkcjonowanie poznawcze człowieka przez komputery
- sztuczna inteligencja tworząca procesy dające inteligentne rezultaty, ale nie naśladują konkretnych procesów poznawczych człowieka (komputer nie myśli jak człowiek ale jego efekty działań mają być inteligentne)
- tworzymy programy komputerowe które mają obliczać w taki sposób żeby obrazowało to w jaki sposób myślą ludzie
- podstawową wartością jest to, że gdy tworzymy teorię w języku programu komputerowego to
mamy konkretne zdania/ formuły, w których jest wprost napisane co zachodzi (w języku naturalnym jest zawsze masa ukrytych założeń i niedopowiedzeń); wiemy jakie mamy założenia, możemy je łatwo ocenić i precyzyjnie wyprowadzić wnioski. Systemy produkcyjne - klasyczne programy komputerowe, które składają się z konkretnych reguł np. „jeśli…to…”. W tego typu modelach zakłada się że nasza pamięć długo trwała zapisuje dużo reguł w powyższym schemacie. Wiele aspektów poznania można ująć w tego typu łańcuchy połączeń. Sieci koncesyjne – inaczej modele koneksjonistyczne/sieci neuronowe – zakładają, że poznanie odbywa się przez przetwarzanie w jednostkach połączonych ze sobą; jednostki działają na inne pobudzając je lub hamując. Potraktowanie węzłów/połączeń jak neuronów w układzie nerwowym u ludzi.
Teoria Sztucznej Inteligencji
- z angielskiego Artificial Intelligence (AI)
- twórca -John McCarthy ( konferencja w 1956)
- głównym założeniem jest arytmetyzacja pojęć – odwzorowywanie w liczbach różnych zagadnienie, które same nie są liczbami
- tworzenie systemów eksperckich – czyli dużych baz danych pomocnych dla różnych grup zawodowych (np. Mycin - pogram doboru antybiotyków)
- robotyka – pionierem był Grey Walter; interdyscyplinarny kierunek badań łączący zagadnienia inżynierii mechanicznej, elektrotechniki, automatyki i informatyki, którego celem jest tworzenie robotów, w tym sterowanie ich ruchem; domeną robotyki są również rozważania nad sztuczną inteligencją – w niektórych środowiskach robotyka jest wręcz z nią utożsamiana
- myślenie a maszyny liczące – próba rozstrzygnięcia czy przyrównanie procesów poznawczych człowieka do operacji komputerowych ma sens; rola testu Turing – przejście tego testu oznacza, że maszyna jest inteligenta, czyli myśli jak człowiek; tworzenie kryteriów operacyjnych
- John Searl – argument chińskiego pokoju – system operuje pewnymi regułami bez ich rozumienia (syntaktyka bez semantyki)