głównakognitywistykaencyklopedianauki o mózguSI i robotykaartykułyksiążkiz krajuwydarzenialinkio stroniepomoc
baner

Przejdź niżej

_

Zobacz też na stronie

_

Dorobek Redakcji strony

Marek Kasperski
okładka2007, konsultacja merytoryczna: D. Casacuberta, Umysł. Czym jest i jak działa, Świat Książki.

_

okładka2006, redakcja merytoryczna: T. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress.

_

okładka2005, redakcja merytoryczna: J. Hawkins, S. Blakeslee, Istota inteligencji, Onepress.

_

okładka2003, książka autorska: M. Kasperski, Sztuczna Inteligencja, Helion, (nakład wyczerpany).

_

Tomasz Komendziński
okładkaredaktor pisma: "Theoria et Historia Scientiarum. An International Interdisciplinary Studies".

_

okładka2003, redakcja: O myśleniu procesualnym: Charles Hartshorne i Charles Sanders Peirce, Wyd. UMK.

_

okładka2002, redakcja merytoryczna: S. Pinker, Jak działa umysł, Książka i Wiedza.

_

okładka2002, redakcja wraz z A. Szahajem: Filozofia amerykańska dziś, Wyd. UMK.

_

Leszek Nowaczyk
2006, redakcja merytoryczna: Rusz głową -  jak szybko podnieść poziom swojej inteligencji, Świat Książki.
_

 

 
Tu jesteś: encyklopedia / problematyka / test Turinga

_

10 sierpnia 2010
ostatnia modyfikacja

test Turinga

Mianem testu Turinga określa się propozycję gry przedstawioną przez Alana M. Turinga w jego znanym artykule Computing Machinery and Intelligence, który ukazał się w "Mind" w roku 1950.

Punktem wyjścia w tym artykule jest pytanie o to, czy maszyny mogą myśleć? Turingowi pytanie to wydaje być zbyt wieloznaczne, by zasługiwało na dyskusję, więc proponuje zastąpienie go innym, lepiej określonym: czy w przypadku pewnej gry, maszyna poradzi sobie równie dobrze jak człowiek?

Konstrukcję i zasady owej gry zaczerpnął Turing z popularnej w Anglii gry towarzyskiej, nazywanej grą w naśladownictwo (imitation game). Biorą w niej udział trzy osoby: mężczyzna (A), kobieta (B) i pytający – C (dowolnej płci). Mężczyzna i kobieta przebywają w osobnych pokojach, oddzieleni od siebie i od pytającego. Oczywiście gracze nie mogą się widzieć ani słyszeć, czy też pisać do siebie pismem odręcznym (mogą porozumiewać się np. dzięki gońcowi). Pytający może zadawać pytania osobom w pokojach, które zna jako X i Y. Jego zadaniem jest określenie (wyłącznie na podstawie uzyskanych odpowiedzi), w którym pokoju znajduje się kobieta, a w którym mężczyzna. Dodatkowo zakłada się, że A w trakcie gry ma robić wszystko aby wprowadzić pytającego w błąd, tak aby dokonał niepoprawnej identyfikacji – może zatem swobodnie kłamać, zaś B ma udzielać zawsze prawdziwych odpowiedzi.

Modyfikacja, którą wprowadza Turing, polega na zastąpieniu jednej z osób maszyną.

test Turinga

Zadajmy teraz pytanie "co stanie się, kiedy maszyna weźmie udział w tej grze"? Czy pytający dokona błędnej identyfikacji równie często, jak w przypadku, gdy w grze biorą udział kobieta i mężczyzna? [Turing, 1950, s. 434].

Oczywiście zadaniem pytającego nie jest już odgadnięcie płci jednego z graczy ale rozpoznanie – podobnie jak w przypadku gry w naśladownictwo jedynie na podstawie udzielonych odpowiedzi – który z nich jest człowiekiem, a który maszyną. Kryterium bycia inteligentnym zostaje więc sprowadzone do kryterium powodzenia w tak zaprojektowanej grze. Jeżeli pytający błędnie zidentyfikuje maszynę, jako człowieka, oznaczać to będzie, że maszyna myśli.

Już w Computing Machinery... Turing wspomina o wersji testu, w którym biorą udział tylko dwie osoby i określa ją mianem viva voce. W okresie po ukazaniu się Computing Machinery... Turing mówi o teście tylko w kontekście tego typu gry. Wydaje się, że oddaje to podstawową intuicję związaną z jego propozycją – wystarczy, że pytający (sędzia) oceniał będzie jedynie odpowiedzi udzielane przez (potencjalny) komputer. W literaturze przedmiotu znajdujemy nawet podział, zgodnie z którym to wersję z dwoma graczami powinniśmy nazywać "testem Turinga", zaś wersję z trzema graczami "grą w naśladownictwo" (por. [Harnish, 2002, s. 183]). Możemy więc pominąć trzeciego uczestnika gry bez szkody dla całej konstrukcji testu.

Gra (w której pominięty został gracz B) jest często stosowana w praktyce pod nazwą viva voce aby odkryć, czy ktoś coś naprawdę zrozumiał, czy też tylko "wykuł to na blachę" [Turing, 1950, s. 446].

Myślę, że prawdopodobne jest na przykład to, że z końcem tego stulecia będziemy potrafili programować maszyny, aby odpowiadały na pytania w taki sposób, że będzie niesłychanie trudno zgadnąć, czy odpowiedzi udzielane są przez człowieka, czy przez maszynę. Wyobrażam sobie coś na kształt sprawdzania typu viva voce, ale z pytaniami i odpowiedziami, które są przesyłane w formie maszynopisu (...) [Turing, 1950, s. 4-5].

wersja viva voce

Przyjęcie tej wersji testu pozwala uprościć analizę bez utraty głównych intuicji związanych z TT sformułowanym dla trzech uczestników, dlatego założenia testu wyszczególniane poniżej będą dotyczyły viva voce.

Ogólne zasady TT przedstawiają się w sposób następujący:

  • W grze uczestniczy więc dwóch graczy: pytający (C) i poddawany testowi (A). Celem poddawanego testowi jest wprowadzenie w błąd pytającego tak, żeby dokonał błędnej identyfikacji. Jest on również zobowiązany do postępowania zgodnie ze strategią mówiącą, że ma jak najlepiej naśladować odpowiedzi, jakich udzieliłby człowiek na jego miejscu.

    A zgodnie z tą strategią może używać pewnych "trików": opóźniać nieco swoją odpowiedź (kiedy pytanie dotyczy np. zadania arytmetycznego), popełniać błędy w pisowni i ortograficzne etc.
     

  • Pytający określany jest przez Turinga jako: "przeciętny pytający" [Turing 1950, s. 442]; osoba, która "(...) nie powinna być ekspertem w sprawie komputerów (...)" [Newman i in. 1952, s. 4].

  • A i C nie mogą się widzieć, słyszeć, pisać do siebie pismem odręcznym.

  • Test ma charakter statystyczny i powinien być powtarzany kilkakrotnie.

Główną ideą testu jest to, że maszyna – odpowiadając na zadawane jej pytania – ma udawać, że jest człowiekiem i zda ów test tylko wtedy, kiedy owo udawanie będzie przekonujące (...) Lepiej będzie jeśli założymy, że każdy z sędziów będzie musiał oceniać kilkakrotnie oraz, że czasami sędziowie będą mieli do czynienia rzeczywiście z człowiekiem nie z maszyną. Zapobiegnie to temu, żeby za każdym razem stwierdzali oni bez zastanowienia "to jest maszyna" [Newman i in. 1952, s. 5].

 

_

dyskusja wokół adekwatności testu Turinga

_

Oczywiście tak śmiała propozycja musiała wywołać gwałtowną reakcję. Pierwszą grupę zarzutów wobec testu Turing zamieszcza już w Computing Machinery... Są to:

  1. sprzeciw teologiczny,
  2. argument "głów w piasku",
  3. argument matematyczny,
  4. argument ze świadomości,
  5. argument z różnych niemożności,
  6. zarzut Lady Lovelace,
  7. argument z ciągłości systemu nerwowego,
  8. argument z nieformalności zachowania,
  9. argument z percepcji pozazmysłowej.

(1) Obiekcja natury teologicznej (The Theological Objection): Myślenie jest funkcją ludzkiej nieśmiertelnej duszy. Bóg ofiarował duszę każdemu mężczyźnie i każdej kobiecie, ale nie obdarzył nią zwierząt ani maszyn. Dlatego też ani zwierzę, ani maszyna nie mogą myśleć [Turing 1950, s. 443]. Turing nie zgadza się z żadną częścią tego rozumowania, ale podejmuje próbę odpowiedzi w podobnym stylu: tak skonstruowany argument godzi we wszechmoc Bożą. Moglibyśmy sobie przecież wyobrazić, że Bóg decyduje się obdarować duszą słonia a nawet... maszynę.

(2) Argument "głów w piasku" (The 'Heads in the Sand' Objection): Konsekwencje myślenie maszyn będą zbyt nieprzewidywalne, miejmy więc nadzieję, że nie będą one tego robiły [Turing 1950, s. 444]. Argument ten zdaniem Turinga nie wymaga odrzucenia, czy obalenia, ponieważ ma swoje podłoże w reakcji emocjonalnej. Spełnia on jednak ważną rolę, wskazując na pewne niebezpieczeństwa, jakie niesie ze sobą idea myślących maszyn. Nie powinien jednak prowadzić do skrajności, bowiem niepewność konsekwencji wynikających ze skonstruowania myślącej maszyny wcale nie pociąga za sobą odgórnej konieczności zrezygnowania z projektu sztucznej inteligencji.

(3) Argument matematyczny (The Mathematical Objection). Istnieją wyniki z dziedziny logiki matematycznej, które wskazują na pewne ograniczenia maszyn cyfrowych. Ograniczenia te mogą sprawić, że maszyna biorąca udział w teście Turinga nie będzie w stanie odpowiedzieć na pewne pytania lub udzieli odpowiedzi, która jest błędna. Odpowiedź Turinga jest następująca: pomimo tego, że wykazano istnienie pewnych ograniczeń dla maszyn cyfrowych, argument nie będzie groźny do czasu, kiedy nie doczekamy się dowodu, iż te ograniczenia nie dotyczą również ludzkiego intelektu.

(4) Argument ze świadomości (The Argument from Consciousness). Zarzut ten można rozbić na dwie części: W pierwszej z nich mówi się, że maszyny cyfrowe nie będą mogły myśleć, ponieważ aby myśleć, trzeba wiedzieć, że się myśli, czyli posiadać pewną formę samoświadomości. W drugiej części twierdzi się, że myślenie nieodłącznie związane jest z okazywaniem całej gamy emocji, do czego nie byłyby zdolne maszyny cyfrowe. Turing zauważa, że pierwsza część argumentu może z łatwością prowadzić do stanowiska solipsyzmu. Aby poradzić sobie z drugą częścią, Turing przytacza hipotetyczną rozmowę maszyny z człowiekiem (w której maszyna korzysta z programu na tyle zaawansowanego, że przechodzi test Turinga). Na podstawie tej rozmowy wyraźnie widać, że w odpowiedziach udzielanych przez taką maszynę można odnaleźć przejawy rozmaitych emocji.

(5) Argument z różnych niemożności (Arguments from Various Disabilities) opiera się na rozumowaniu następującym: "Gwarantuję ci, że pomimo tego, że jesteś w stanie zbudować maszyny o wszystkich wymienionych przez ciebie zdolnościach, to nigdy nie zbudujesz maszyny, która może zrobić X" [Turing 1950, s. 447], gdzie za X można podstawić np.: bycie przyjacielskim, posiadanie poczucia humoru, posiadanie ulubionych potraw itp. Odpowiedź Turinga na ten argument zawiera się częściowo w odpowiedzi na argument ze świadomości. Zdaniem Turinga postawa jaką zajmują zwolennicy argumentu z różnych niemożności wynika z wiedzy jaką posiadają oni o maszynach cyfrowych. Turing zauważa, że współczesne mu maszyny cyfrowe rzeczywiście nie potrafią wielu z wymienionych rzeczy, ale nie sprawia to bynajmniej, że wzrost ich zdolności obliczeniowych oraz pamięciowych nie zlikwiduje tego problemu.

(6) Zarzut Lady Lovelace (Lady Lovelace's Objection): maszyna cyfrowa jest w stanie zrobić tylko to, co nakazuje jej program, nie ma tu miejsca na inwencję twórczą. Turing przyznaje, że maszyny są ograniczone programami, zgodnie z którymi działają, ale równie dobrze można powiedzieć, że człowiek posiada podobne ograniczenia (wynikające z jego budowy, genów, wiedzy itp.). Jeżeli wyobrazimy sobie wystarczająco skomplikowany program (uruchomiony na maszynie o dużych możliwościach) to ograniczenia, jakim będzie on podlegał mogą być bardziej podobne do tych, którym podlega człowiek a nie do tych, którym podlegają proste programy. Zarzut Lady Lovelace posłużył za inspirację do stworzenia tzw. Testu Lady Lovelace (Lovelace Test, który zdaniem jego autorów lepiej nadaje się do badania inteligencji maszyn niż test Turinga (zobacz niżej).

(7) Argument z ciągłości systemu nerwowego (Argument from Continuity in the Nervous System): System nerwowy nie może być modelowany przez maszynę o stanach dyskretnych ponieważ ma charakter analogowy. Turing odpowiada jedynie, że w sytuacji testu Turinga różnica pomiędzy maszyną o stanach dyskretnych i maszyną analogową są bez znaczenia – sędzia nie będzie w stanie w żaden sposób wykorzystać wiedzy o tej różnicy w celu poprawnej identyfikacji gracza.

(8) Argument z nieformalności zachowania (The Argument from Informality of Behaviour). Argument ten opiera się na założeniu, że nie jesteśmy w stanie spisać wszystkich możliwych reguł zachowania dla wszystkich możliwych sytuacji, które mogłyby mieć miejsce. Wniosek: nie jesteśmy jedynie maszynami. Turing zauważa, że argument ten jest niejasny. Należałoby wyjaśnić, czy reguły zachowania mówią jak zachowa się człowiek w pewnej sytuacji, czy też jak powinien się zachować. Jeżeli rozważamy drugą z opcji to nie ma żadnych podstaw aby twierdzić, że maszyny byłby tutaj w gorszej sytuacji niż ludzie. Nie jest bowiem możliwe sformułowanie kompletnego kodeksu oczekiwanych zachowań dla każdej możliwej sytuacji – dotyczy to zarówno ludzi, jak i maszyn.

(9) Argument z percepcji pozazmysłowej (Extra Sensory Perception). Zjawiska zaliczane do dziedziny percepcji pozazmysłowej (takie jak: telepatia, jasnowidzenie, prekognicja, psychokineza) nigdy nie będą dostępne maszynie cyfrowej, ponieważ wszystkie zdają się przeczyć temu, co moglibyśmy umieścić w ramach wyjaśnienia naukowego. Gdyby wiec w teście Turinga sędzią uczynić doskonałego telepatę, czy maszyna byłaby w stanie przejść ów test? Zdaniem Turinga jest to jak najbardziej możliwe – przecież, jeżeli uznajemy możliwość pozazmysłowej percepcji, WSZYSTKO może się zdarzyć.

Oczywiście w ciągu wielu lat dyskusji nad zagadnieniem adekwatności testu Turinga doczekał się on wielu innych kontrargumentów. W literaturze przedmiotu przyjmuje się, że dwa z nich są najbardziej interesujące. Pierwszym jest argument Chińskiego Pokoju Johna Searle'a (opis niżej), drugim zaś argument drzewa wypowiedzi Neda Blocka (opis niżej). Oba kontrargumenty odwołują się do następującej linii rozumowania: załóżmy, że możliwe jest powstanie sytemu, który pomyślnie przeszedłby test Turinga, czy z tego wynika, że ów system będzie rzeczywiście myślał?

 

Argument Chińskiego Pokoju J. Searle

John Searle proponuje następujący eksperyment myślowy: Wyobraźmy sobie, że pewna osoba nie znająca języka chińskiego jest zamknięta w pokoju, w którym znajdują się również kosze wypełnione znakami języka chińskiego oraz książka reguł manipulowania tymi symbolami. Reguły sformułowane są w sposób czysto syntaktyczny (np. "Wybierz ten znak z podwójnym zakrętasem z kosza numer jeden i połóż go za znakiem z dwoma zawijasami z kosza numer dwa". [Searle 1995, s. 28]). Przyjmijmy teraz, że taka osoba otrzymuje z zewnątrz zestaw chińskich symboli i zgodnie z regułami ze swojej książki dokonuje pewnych przekształceń i wysyła tak otrzymane zestawy symboli na zewnątrz. Osoba w pokoju nie rozumie swoich działań, tzn. nie wie, że symbole dostarczane do pokoju to pytania, zaś symbole wysyłane przez niego to odpowiedzi (jedne i drugie sformułowane w języku, którego osoba w pokoju nie zna!). Zdaniem Searle'a możemy sobie wyobrazić, że książka manipulowania symbolami będzie na tyle doskonała a osoba w pokoju osiągnie taką biegłość operacji, że dla ludzi na zewnątrz jej odpowiedzi będą nieodróżnialne od odpowiedzi, które udzieliłaby osoba znająca język chiński.

Tak sformułowany eksperyment myślowy ma być analogią działania komputera. Człowiek stanowi w nim odpowiednik centralnego procesora, zaś podręcznik manipulowania symbolami to jego program. Searle chce zwrócić uwagę na to, że człowiek w pokoju nie rozumie ani słowa z zadawanych mu pytań i odpowiedzi, które formułuje. To, co robi osoba w Chińskim Pokoju (a więc i procesor komputera cyfrowego) to jedynie manipulacja symbolami formalnymi (pozbawionymi na tym poziomie jakiegokolwiek sensu. Programy komputerowe sformułowane jako czysto syntaktyczne operacje na symbolach nie mogą stanowić jedynego źródła zrozumienia ludzkich procesów mentalnych.

 

Argument drzewa wypowiedzi N. Block

Załóżmy dla uproszczenia, że test Turinga trwa co najwyżej jedną godzinę. Ned Block zakłada, że teoretycznie możliwe byłoby spisanie kompletnego drzewa wypowiedzi, które obejmowałoby wszystkie możliwe warianty hipotetycznej konwersacji, która trwa co najwyżej jedną godzinę. Załóżmy również, że może istnieć maszyna o tak dużej pamięci, że może pomieścić owo drzewo wypowiedzi. Każda ze ścieżek na otrzymanym drzewie odpowiadałaby jednemu możliwemu przebiegowi konwersacji. Maszyna otrzymując pytanie odnajdywałaby je po prostu na drzewie i dawałaby odpowiedź, która znajduje się na zidentyfikowanej ścieżce. Komputer dysponujący takim kompletnym drzewem wypowiedzi byłby w stanie z łatwością zdać test Turinga. Wiemy jednak, że maszyna korzystałaby jedynie z danych zapisanych w jej pamięci. Przypisanie jej jakichkolwiek stanów mentalnych kłóci się z intuicją tego, czym jest inteligencja.

Warto nadmienić, że pierwszą osobą, która sformułowała argument tego typu nie był N. Block (argument z drzewa wypowiedzi pojawił się po raz pierwszy w artykule z 1978) ale Stanisław Lem. W Summie technologiae znajdziemy bowiem argument przeciwko testowi Turinga, w którym Lem wykorzystuje hipotetyczną maszynę nazywaną kosmicznym gramofonem. Idea jest dokładnie taka sama jak w argumencie z drzewa wypowiedzi (choć sformułowana jest nieco inaczej): załóżmy, że jesteśmy w stanie zbudować ogromny gramofon, na którym nagrane będą odpowiedzi na niezliczone ilości pytań. Zadanie określonego pytania wywołuje z gramofonu odpowiednią odpowiedź. Kosmiczny gramofon bez trudu zdaje test Turinga, ale czy możemy powiedzieć, że jest on inteligentny? (por. [Łupkowski, w druku]).

 

Propozycje alternatywne

Część badaczy stara się nie tylko zdyskredytować test Turinga, ale również zaproponować na jego miejsce coś nowego – nowy test, który nawiązując jedynie do idei testu Turinga, będzie lepszym kryterium badania inteligencji systemów sztucznych. Opiszemy tutaj dwie bardzo popularne propozycje zastąpienia testu Turinga: odwrócony test Turinga oraz Test Lady Lovelace.

Odwrócony test Turinga (Inverted turing Test)

S. Watt sformułował propozycje odwróconego testu Turinga odwołując się do idei psychologii naiwnej. Pod tym terminem rozumie on umiejętność rozpoznawania i rozumienia innych umysłów będącą naturalną ludzką tendencją. Owa zdolność skierowała uwagę Watta na rolę sędziego w teście Turinga a dokładniej na konsekwencje zamiany ról. Mamy więc do czynienia z sytuacją, w której sędzią w teście Turinga jest maszyna. Watt formułuje następujący warunek powodzenia maszyny w odwróconym teście Turinga:

Aby "zdać" odwrócony test Turinga system musi wykazywać te same regularności i anomalie w przypisywaniu stanów mentalnych, które wykazywałaby człowiek – regularności i anomalie, które mogą być zbadane na zasadzie porównania przez psychologię [Watt 1996, s. 7].

wersja odwrócona

Test Lady Lovelace (Lovelace Test, LT)

S. Bringsjord [oraz P. Bello i D. Ferrucci] przedstawił Test Lady Lovelace (LT) w artykule Creativity, the Turing Test, and the (Better) Lovelace Test, który ukazał się w "Mind and Machines" w 2001 roku. Propozycja LT zainspirowana została zarzutem Lady Lovelace opisanym przez Turinga w Computing machinery.... Za jeden z podstawowych wyznaczników inteligencji przyjmuje się tutaj zdolność do tworzenia czegoś zupełnie nowego. Powinniśmy zatem nie tyle badać płynność konwersacji maszyny i człowieka, czy też adekwatność udzielanych przez maszynę odpowiedzi ale raczej coś, co można by określić zdolnościami twórczymi maszyn. Warunki stawiane przez Bringsjorda są następujące:

Agent A, zaprojektowany przez H[uman], zdaje LT wtw:

  1. A daje na wyjściu wynik o[riginal].
  2. Wynik o nie jest rezultatem błędu, ale procesu, który A jest w stanie powtórzyć.
  3. H lub ktoś o wiedzy H (i posiadający równe jemu umiejętności) odwołując się do zasobów wiedzy, architektury i bazowych funkcji A nie potrafi wyjaśnić w jaki sposób A uzyskał wynik o.

Zdaniem Bringsjorda, który sam zajmuje się zagadnieniem maszynowej twórczości (systemami tworzącymi opowiadania):

prawdopodobnie nie jest możliwe aby artefakt przetwarzający jedynie informacje zdał LT, ponieważ to czego szuka Lovelace wymagać może takiego rodzaju autonomii, która wykracza poza granice zwykłej relacji przyczynowej oraz matematyki [Bringsjord i in. 2001, s. 25].

 

2007-02-12
autor: Paweł Łupkowski

 

_

literatura

_

  1. Block N. (1995), The Mind as the Software of the Brain, w: Smith E. E., Osherson D. N. (red.) An Invitation to Cognitive Science – Thinking, Minneapolis: Minnesota Press, s. 26-325.
  2. Bringsjord S., Bello P., Ferrucci D. (2001), Creativity, the Turing Test, and the (Better) Lovelace Test, w: "Mind and Machines", 11: 3-27.
  3. Harnish R. M. (2002), Minds, Brains, Computers. An Historical Introduction to the Foundations of Cognitive Science, Oxford: Blackwell Publishers.
  4. Łupkowski P. (2006), Some historical remarks on Block's "Aunt Bubbles" argument, w: "Mind and Machines", Volume 16,  Issue 4: 437 - 441.
  5. Newman, M. H. A., Turing, A. M, Jefferson, G., Braithwaite, R. B. (1952), Can automatic calculating machines be said to think?, broadcast discussion transmited on BBC (14 and 23 Jan. 1952), the Turing Digital Archive-, Contents of AMT/B/6.
  6. Searle J. R. (1995), Umysł, mózg i nauka, tłum. J. Bobryk, Warszawa, PWN.
  7. Turing A. M. (1950), Computing Machinery and Intelligence, w" "Mind", LIX, 236/1950: 443-455.
  8. Turing A. M. (1951), Can Digital Computers Think, the Turing Digital Archive-, Contents of AMT/B/5.
  9. Watt, S. (1996). Naive Psychology and the Inverted Turing Test-, w: "Psycholoqy", 7(14).

Więcej książek w: serwis z książkami nakanapie.pl (książki, audiobooki, e-booki).

 

_

TT w sieci

_

Źródła w Internecie:

Na stronie:

_

© Marek Kasperski / 2000-2009

 

Szukaj w wortalu

_

Oferta e-sklepu

okładkiTematyka: filozofia umysłu, filozofia języka, neuroscience, psychologia kognitywna, robotyka, sztuczna inteligencja

Autorzy: Arbib, Boden, Breazeal, Calvin, Churchland, Dennett, Edelman, Ekman, Gazzaniga, Greenfield, Hofstadter, Johnson-Laird, Kurzweil, Loftus, McCorduck, Minsky, Moravec, Norman, Pylyshyn, Searle, Schank, Stillings, Wortman...

więcej »

_

Oferta Partnerów

okładkaT. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress 2006.

Nowości z wyd. Helion

_

Nasi Partnerzy

baner.baner.

_