forumsklepmapakontakt

głównakognitywistykaencyklopedianauki o mózguSI i robotykaartykułyksiążkiz krajuwydarzenialinkio stroniepomoc
baner

Przejdź niżej

_

Przejrzyj dział

_

Dorobek Redakcji strony

Marek Kasperski
okładka2007, konsultacja merytoryczna: D. Casacuberta, Umysł. Czym jest i jak działa, Świat Książki.

_

okładka2006, redakcja merytoryczna: T. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress.

_

okładka2005, redakcja merytoryczna: J. Hawkins, S. Blakeslee, Istota inteligencji, Onepress.

_

okładka2003, książka autorska: M. Kasperski, Sztuczna Inteligencja, Helion, (nakład wyczerpany).

_

Tomasz Komendziński
okładkaredaktor pisma: "Theoria et Historia Scientiarum. An International Interdisciplinary Studies".

_

okładka2003, redakcja: O myśleniu procesualnym: Charles Hartshorne i Charles Sanders Peirce, Wyd. UMK.

_

okładka2002, redakcja merytoryczna: S. Pinker, Jak działa umysł, Książka i Wiedza.

_

okładka2002, redakcja wraz z A. Szahajem: Filozofia amerykańska dziś, Wyd. UMK.

_

Leszek Nowaczyk
2006, redakcja merytoryczna: Rusz głową -  jak szybko podnieść poziom swojej inteligencji, Świat Książki.
_

 

 
Tu jesteś: kognitywistyka - rys / historia

_

10 sierpnia 2010
ostatnia modyfikacja

wstęp

W przypadku kognitywistyki perspektywa historyczna jej powstania i rozwoju to nie tylko dodatek do wprowadzenia, ale jego integralna część. O początkach kognitywistyki zwykle mówi się w kontekście wydarzeń na arenie akademickiej Stanach Zjednoczonych w latach 50. ubiegłego wieku. Chodzi tu o „pierwszą rewolucję kognitywną”, dokonaną za sprawą językoznawcy Noama A. Chomsky’ego, psychologa Geoerge’a A. Millera oraz ‘ojców’ Sztucznej Inteligencji. Interesujące są jednak odstępstwa od tej nomenklatury, ponieważ rzucają światło na to, co moglibyśmy nazwać prehistorią nauk kognitywnych.

 

_

prehistoria

_

I tak sam Noam Chomsky za „pierwszą rewolucję poznawczą” skłonny byłby uznać raczej intelektualne osiągnięcia wieków 17. i 18. Przypomnijmy, że był to okres radykalnej zmiany w europejskim sposobie poznawania przyrody: okres odrzucenia scholastycznej spuścizny, kiedy wyłaniały się kluczowe dyscypliny akademickie (fizyka, chemia, biologia) i zyskiwała tożsamość nowożytna nauka. Natomiast w filozofii ciężar rozważań przeniósł się z ontologii właśnie na szeroko rozumiane kwestie ludzkiego poznania, najpierw za sprawą Kartezjusza, potem brytyjskich empirystów i wreszcie Immanuela Kanta.

Z kolei prof. Klawiter za „pierwszą rewolucję kognitywną” uważa powstanie naukowej psychologii w drugiej połowie XIX wieku w Niemczech. Duże znaczenie miały prace Ernsta Webera i Gustava Fechnera (prawo psychofizyczne), a później Hermanna Ebbinghausa (krzywa zapominania), które wykazały, że umysł nie jest czymś niewymiernym i naukowo nieuchwytnym, lecz przynajmniej pewne jego aspekty są mierzalne i podlegają matematycznemu opisowi. Kluczowa była działalność Wilhelma Wundta, który stworzył podwaliny instytucjonalne pod rozwój nowej dyscypliny, a także ‘unaukowił’ metodę introspekcji. W rezultacie psychologia mogła oddzielić się od filozofii jako odmienny sposób badania umysłu, [-] się odrębną metodologią i empirycznym charakterem.

 

_

zalążki

_

Pierwsze impulsy dla powstania kognitywistyki dała II wojna światowa. Towarzyszący jej rozwój technologii militarnej bezpośrednio doprowadził do powstania cyfrowych komputerów (m.in. słynny ENIAC), a wielu uczonych ważnych dla losów computer science (m.in. Claude Shannon, Alan Turing, John von Neumann) zdobywało szlify przy projektach wojskowych, m.in. w zakresie broni nuklearnej i kryptologii. Zadaniem psychologów była selekcja wyspecjalizowanych kadr, np. pilotów; zupełna nieprzydatność w tym względzie ‘anyumysłowych’ teorii behawiorystycznych (zob. dalej) doprowadziła do osłabienia pozycji tychże, co zaowocowało podatnym gruntem pod późniejszy przewrót.

Być może przełomowym wydarzeniem była odbywająca się corocznie od 1942 roku konferencja fundacji Josiaha Macy. Celem konferencji miała być współpraca najwybitniejszych badaczy z różnych dziedzin mająca na celu zapobieżenie kolejnym wojnom, jednak faktycznie stała się ona platformą interdyscyplinarnej wymiany idei między naukowcami zainteresowanymi ludzkim poznaniem i przyczyniła się zwłaszcza do powstania cybernetyki.

 

_

początki

_

W 1956 roku w Stanach Zjednoczonych odbyły się dwie ważne konferencje poświęcone przetwarzaniu informacji. Letnie seminarium w Darthmouth College, od którego tytułu (Artificial Intelligence) nazwę wzięła dziedzina Sztuczna Inteligencja, zgromadziło późniejszych klasyków tej dyscypliny, m.in. Claude’a Shannona, Marvina Minsky’ego, Johna McCarthy’ego, Allena Newella i Herberta Simona. Jeszcze tego samego roku miejsce miała konferencja w Massachusetts Institute of Technology. Oprócz Newella i Simona, którzy przedstawili tam pierwszy program potrafiący dowodzić twierdzeń logicznych, wzięli w niej udział m.in. psycholog George Miller i językoznawca Noam Chomsky. Miller omówił swoje badania ograniczeń ludzkiej pamięci krótkotrwałej, natomiast Chomsky przedstawił zręby swej teorii gramatyki transformacyjno-generatywnej. Wszystkie ww. koncepcje odwoływały się do operacji na wewnętrznych symbolach i dzięki tej zbieżności powstało przekonanie, że „psychologia doświadczalna, językoznawstwo teoretyczne oraz symulacje komputerowe stanowią kawałki większej całości” (G. Miller).

W owym czasie pejzaż intelektualny, zwłaszcza w USA, zdominowany był przez podejście behawiorystyczne. Popularność behawioryzmu [termin zaproponowany przez Jamesa B. Watsona w 1913] spowodowana była szczególnie jego krytyką introspekcyjnych teorii psychologicznych, które potępiano jako „nienaukowe”. W behawioryzmie nie tyle odrzucano pojęcie „umysłu” (poszczególni jego przedstawiciele różnili się w tym względzie), co twierdzono, że umysł to czarna skrzynka” zasadniczo niedostępna naukowej eksploracji: to, co nieobserwowalne nie podlega naukowemu badaniu, a obserwować możemy jedynie bodźce i wzmocnienia – oraz zachowania, które są ich efektem. Behawioryzm doczekał się także sukcesów, m.in. na polu programów terapeutycznych.

W latach 50. zaczynała narastać krytyka behawioryzmu i pojawiały się podejścia alternatywne. Jednak za decydujący cios, który przesądził o upadku tej koncepcji powszechnie uważa się napisaną w 1959 przez Chomsky’ego recenzję behawiorystycznej książki B. F. Skinnera: Verbal Behavior. Chomsky wykazał, że redukcja ludzkich wyższych procesów i zdolności umysłowych – zwłaszcza zdolności nabywania i używania języka – do opisu w kategoriach bodźca, wzmocnienia i reakcji jest całkowicie bezowocna, a skinnerowskie pojęcia są albo bezsensowne, albo w zawoalowany sposób pokrywają się z pojęciami tradycyjnymi. Przede wszystkim zaś nabywania języka przez ludzi nie da się wyjaśnić nie wykorzystując pojęcia reprezentacji mentalnych. Recenzja Chomsky’ego spotkała się z gigantycznym odzewem i okazała się przełomowa, a zmierzch behawioryzmu oznaczał początek epoki kognitywistyki.

Na miejscu będzie tu jednak pewne zastrzeżenie: początki ‘intelektualne’ kognitywistyki nie nakładają się w czasie z początkami instytucjonalnymi. Te drugie to tak naprawdę dopiero lata 70.. Pierwszy numer pisma "Cognitive Science” wyszedł w 1977, w 1979 powstało Society of Cognitive Science, również w 1979 zorganizowano pierwszą konferencję pod jego egidą, zaś w latach 80-tych pojawiły się pierwsze studia kognitywistyczne.

Dla porównania, analogiczne daty w Polsce to: 1996 (pierwszy nr pisma „Kognitywistyka i Media w Edukacji”), 2001 (powstanie Polskiego Towarzystwa Kognitywistycznego) oraz 2005 (pierwsze pełnowymiarowe studia magisterskie z kognitywistyki, które utworzono na uniwersytecie Adama Mickiewicza w Poznaniu).

 

_

okres wczesny

_

W początkowym okresie rozwoju, kognitywistyka była inspirowana ideą myślącej maszyny i postępami próbujących wcielić ją w życie nauk komputerowych. Na tym polu najbardziej przełomowa data to 1950, kiedy to wybitny logik i matematyk Alan Turing, uważany za ‘ojca’ nauk komputerowych, opublikował tekst Maszyny liczące i inteligencja. Turing dowodził, że nie ma żadnych powodów natury zasadniczej, dla których niemożliwe byłoby istnienie maszyny potrafiącej „myśleć” – jeśli tylko będziemy skłonni zrezygnować z mglistości tego pojęcia i odpowiednio je zoperacjonalizować. W tym celu Turing zaproponował kryterium „myślenia” – słynny test nazwany później jego nazwiskiem.

Czym jest myślenie? Wydaje się, że można je rozumieć jako sekwencję dyskretnych (wyraźnie różniących się od siebie) stanów mentalnych, które zmieniają się jeden po drugim, nie przypadkowo, lecz według pewnych reguł. Jeśli tak jest w istocie, to taki sam proces można zrealizować w sztucznej maszynie: można ją zaprogramować tak, by jej stany zmieniały się zgodnie z zasadami wyspecyfikowanymi w programie.

Szeroko rozumiana AI szybko zdominowana została przez jedno podejście, obecnie znane jako podejście klasyczne lub symbolowe (symbolic). W ramach tej koncepcji komputer cyfrowy wykonuje szeregowo – jedna po drugiej – operacje na abstrakcyjnych symbolach. Kolejne operacje są ściśle zdefiniowane według z góry ustalonych reguł obliczeniowych. AI ze swej strony dostarczyła kognitywistyce „metaforę komputerową”: mózg to nic innego jak wersja cyfrowego komputera, którego zadaniem jest wykonywanie obliczeń na symbolach. Metafora komputerowa umysłu bezpośrednio prowadziła, albo przynajmniej sprzyjała przyjęciu pewnej wizji umysłu, scharakteryzowanej niżej:

  • umysł charakteryzuje się racjonalnością a jego działanie jest dobrze opisywane przez logikę,

  • umysł to przede wszystkim procesy wysokopoziomowe, takie jak komunikowanie się w języku, planowanie, rozwiązywanie problemów – głównie procesy dostępne świadomości i werbalizowalne (mające format językowy),

  • umysł jest abstrakcyjny w dwóch sensach: po pierwsze, w sensie funkcjonalistycznym: choć zawsze musi mieć podłoże fizyczne (np. mózg, albo hardware komputera), można go rozpatrywać w oderwaniu od własności mikrostrukturalnych konkretnej fizycznej architektury – skoro umysł jest programem, nie może działać bez ‘komputera’, ale nie jest ważne, na jakim konkretnie modelu go uruchomimy,

  • po drugie, umysł jest niezależny od procesów niskopoziomowych, takich jak percepcja, propriocepcja, czy kontrola motoryczna. Dostarczają one jedynie danych wejściowych lub wykonują polecenia, ale nie są ważne z punktu widzenia procesów wysokopoziomowych i są z tymi ostatnimi rozłączne,

  • myśl, choć niekoniecznie zależna od języka, ma mimo to podobną formę, m.in. również posiada własności syntaktyczne i logiczne.

 

_

okres obecny

_

Współczesna kognitywistyka wyrosła z częściowej krytyki założeń przyjętych we wczesnym okresie, przy czym nie odrzuciła ich całkowicie i zachowuje z nimi ciągłość. Chcąc oddzielić kognitywistykę wczesną od współczesnej mamy niewątpliwie co najmniej kilka równoprawnych kryteriów do wyboru. Daje się jednak zauważyć pewna nadrzędna, ogólna tendencja, mianowicie tendencja do poszerzania się kognitywistyki. Obok zmiany oblicza nauk kognitywnych jesteśmy przede wszystkim świadkami ich wzbogacenia o wiele nowych kierunków badań, które mają związek z umysłem i zazębiają się w charakterystyczny dla kognitywistyki sposób.

Na stronie prezentującej problematykę kognitywistyki wymienione są ważniejsze źródła krytyki ww. założeń wczesnych nauk kognitywnych.

 

2006-06-18
autor: Sławek Wacewicz

 

_

historia w skrócie

_

Okres "tuż przed"

Powstanie nauk kognitywnych [cognitive science] poprzedziły następujące istotne wydarzenia w filozofii i nauce:

1943 – publikacje teoretyczne tego, co dziś nazywa się cybernetyką. Równocześnie Norbert Wiener, Artur Rosenblueth i Julian H. Bigelow z MIT zaproponowali pewne sposoby wbudowywania w maszyny celów i dążeń. Warren S. McCulloch z Uniwersytetu Illinois i Walter Pitts z MIT pokazali, jak maszyny mogą posługiwać się pojęciami logicznymi i abstrakcyjnymi, a K. J. W. Craik z Uniwersytetu Cambridge podsunął myśl, że maszyny mogą przy rozwiązywaniu problemów stosować modele i analogie.

1956 – Konferencja w MIT [Massachusetts Institute of Technology]. W czasie jej trwania miały miejsce trzy bardzo ważne wystąpienia, a zasadnicze dla ukonstytuowania się psychologii poznawczej i kształtowania się pierwszych rysów cognitive science:

  • Prezentacja wyników badań nad pamięcią i zaproponowanie modelu 7 ± 2 przez G. Millera;

  • Prezentacja przez Chomsky'ego swojej generatywnej teorii języka, jednoznacznie stwierdzającej, że język nie jest zdolnością uczenia się (jak chcieli behawioryści), a oparty jest na jakieś wewnętrznej strukturze umysłowej (a być może nawet mózgowej);

  • Prezentacja przez dwu naukowców z kręgu computer science, noblisty H. A. Simona i A. Newella, programu Logic Theorist Machine (znanego również pod nazwą Logic Theorist [LT]). Program ten dowodził twierdzeń z Principia Mathematica, autorstwa B. Russella i W. Whiteheade'a. W ten sposób powstał pierwszy program symulujący ludzkie myślenie – dodam, myślenie logiczne.

1956 – Konferencja w Darmouth College, zorganizowana przez Johna McCarthy'ego i przy współudziale Marvina Minsky'ego, pod nazwą Artificial Intelligence. Konferencja ta zapoczątkowała badania nad maszynami matematycznymi mogącymi wykonywać zadania w sposób inteligentny (def. Minsky'ego). Tytuł konferencji posłużył potem do nazwania całej dyscypliny naukowej, zajmującej się uczeniem maszyn i symulacjami na nich ludzkiego (ale nie tylko ludzkiego, również zwierzęcych, jeśli takowe występują) umysłu.

1959 – Powstanie programu GPS [General Problem Solver], autorstwa wyżej wspomnianych A. Newella i H. A. Simona do spółki z J. C. Shawem. Był to pierwszy komputerowy program, który "symulował ludzką myśl" – jego zastosowanie było ogólne: począwszy od zadań z trygonometrii po logistykę przemysłową.

 

Okres właściwy

Cognitive science (w skrócie CS) jako dyscyplina naukowa ukonstytuowała się w Stanach Zjednoczonych w 1975 roku.

Stawiając sobie zadanie wyjaśnienia przebiegu procesów poznawczych systemów naturalnych (ze szczególnym uwzględnieniem człowieka) i systemów sztucznych (korzystając z metod algorytmicznych Sztucznej Inteligencji) uzyskała w początkowej fazie rozwoju 20 milionów dolarów przeznaczonych przez Fundację im. Alfreda Sloana na kilkuletni program badawczy. (Warto przy tej okazji wspomnieć, iż w ciągu jednej godziny na świecie, na zbrojenie wydaje się 2,6 miliona dolarów, aby pokazać jak nikła to suma).

W 1976 roku zaczęto wydawać kwartalnik pod tytułem "Cognitive Science" przedstawiający wyniki badań w tej dziedzinie. Z tego względu niekiedy też mówi się, iż nazwa tej dziedziny naukowej pochodzi od tytułu powyższego kwartalnika.

Program badawczy kognitywistyki został przedstawiony w tym samym roku przez Allena Newella oraz Herberta Simona w artykule Informatyka jako badania empiryczne.

W 1979 roku powstało towarzystwo naukowe Cognitive Science Society, z siedzibą na Uniwersytecie w Michigan. Licząc pod koniec 1999 roku ponad 1000 członków zwyczajnych oraz wielu członków afiliowanych i studentów.

Od 1979 roku odbywają się także coroczne konferencje naukowe, na które zjeżdżają się naukowcy z całego świata.

Na wielu uczelniach świata kształci się studentów z zakresu cognitive science – zob. m.in. oficjalną stronę CSS- oraz Cognitive Studies Graduate Programs-.

 

2003
autor: Marek Kasperski

_

© Marek Kasperski / 2000-2009

 

Szukaj w wortalu

_

Oferta e-sklepu

okładkiTematyka: filozofia umysłu, filozofia języka, neuroscience, psychologia kognitywna, robotyka, sztuczna inteligencja

Autorzy: Arbib, Boden, Breazeal, Calvin, Churchland, Dennett, Edelman, Ekman, Gazzaniga, Greenfield, Hofstadter, Johnson-Laird, Kurzweil, Loftus, McCorduck, Minsky, Moravec, Norman, Pylyshyn, Searle, Schank, Stillings, Wortman...

więcej »

_

Oferta Partnerów

okładkaT. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress 2006.

Nowości z wyd. Helion

_

Nasi Partnerzy

baner.baner.

_