głównakognitywistykaencyklopedianauki o mózguSI i robotykaartykułyksiążkiz krajuwydarzenialinkio stroniepomoc
baner

Przejdź niżej

_

Zobacz też na stronie

_

Dorobek Redakcji strony

Marek Kasperski
okładka2007, konsultacja merytoryczna: D. Casacuberta, Umysł. Czym jest i jak działa, Świat Książki.

_

okładka2006, redakcja merytoryczna: T. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress.

_

okładka2005, redakcja merytoryczna: J. Hawkins, S. Blakeslee, Istota inteligencji, Onepress.

_

okładka2003, książka autorska: M. Kasperski, Sztuczna Inteligencja, Helion, (nakład wyczerpany).

_

Tomasz Komendziński
okładkaredaktor pisma: "Theoria et Historia Scientiarum. An International Interdisciplinary Studies".

_

okładka2003, redakcja: O myśleniu procesualnym: Charles Hartshorne i Charles Sanders Peirce, Wyd. UMK.

_

okładka2002, redakcja merytoryczna: S. Pinker, Jak działa umysł, Książka i Wiedza.

_

okładka2002, redakcja wraz z A. Szahajem: Filozofia amerykańska dziś, Wyd. UMK.

_

Leszek Nowaczyk
2006, redakcja merytoryczna: Rusz głową -  jak szybko podnieść poziom swojej inteligencji, Świat Książki.
_

 

 
Tu jesteś: encyklopedia / problematyka / prawa robotyki

_

10 sierpnia 2010
ostatnia modyfikacja

prawa robotyki

Jeden z czołowych pisarzy nurtu science fiction, Isaac Asimov (1920-1992), czujący na sobie odpowiedzialność wielu swoich Czytelników przerażonych wizją świata opanowanego przez inteligentne maszyny, ale również, jak nie przede wszystkim, ze względu na głębie swoich myśli, pokusił się o stworzenie zwięzłego kodeksu postępowania dla przyszłych inteligentnych robotów.

Przedstawił go w opowiadaniu Runaroud, opublikowanym pierwszy raz w 1942 r., a ograniczył do kilku zwięzłych praw:

1. A robot may not injure a human being, or, through inaction, allow a human being to come to harm.

2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Czyli:

1. Robot nie może być niebezpieczny dla człowieka.

2. Robot musi być zawsze posłuszny człowiekowi, chyba że jest to sprzeczne z pierwszym prawem.

3. Robot musi unikać niebezpieczeństwa, chyba że jest to sprzeczne z pierwszy, bądź/i drugim prawem.

 


 

I choć na pierwszy rzut okaz prawa te wydają się być całkiem słuszne, to kryją się w nich, co zaraz spróbuję wykazać, pewne wątpliwości. Sprawę tę już poruszałem w swoich publikacjach kilkakrotnie (Por. chociażby M. Kasperski, Sztuczna Inteligencja, Wyd. Helion (zob., strona książki)).

Co będzie, gdy człowiek każe komputerowi zakochać się w sobie?

Co będzie, gdy każemy mu sprzeciwiać się spełnieniu chociaż części naszych poleceń?

Rozważę problem 1. Miłość, czy nawet zakochanie, to są takie stany, których nikomu nie można narzucić - albo ktoś nas kocha, albo nie, ew. udaje, że kocha. Do istoty miłości (i zakochania) należy czynnik własnej woli, wolności. To poszczególny podmiot z osobna decyduje w kim "lokuje swoje piękne myśli" (jak to wyraził w Uczcie Platon). Czy zatem możliwa jest w ogóle taka sytuacja, aby kazać się komuś/czemuś zakochać w innej osobie? Odpowiedź jest prosta - NIE. Więc w takim razie pozostaje pytanie otwarte: Co z tym zadaniem mógłby zrobić sztuczny system myślący?

Z drugiego prawa Asimova wynika, że musi podjąć się tego zadania - musi się zakochać we wskazanej przeze mnie osobie - jednakże odwołując się do definicji miłości - jej istoty - nie mógłby tego uczynić. Zatem? Najprawdopodobniej doszłoby do tzw. zapętlenia się maszyny - powtarzałaby w nieskończoność proces wyboru pomiędzy stronami konfliktu: 2 prawem Asimova i wyżej postawionym rozkazem.

Rozważę problem 2. Sytuacja jest podobna do powyższej. Dotyczy również drugiego prawa, bo jeżeli system musi wykonywać każdy rozkaz człowieka (oczywiście jeżeli nie jest on sprzeczny z (1)), to również musi przyjąć rozkaz sprzeciwiania się chociaż części rozkazów. Jednakże w dalszej części swojego funkcjonowania będzie zachodziła sprzeczność pomiędzy drugim prawem robotyki, a powyższym rozkazem. Zatem? Najprawdopodobniej to, do czego prowadzi nas i pierwszy problem - zapętlenie.

Również problemy natury etycznej jak, eutanazja czy aborcja, powodują, iż powyższe prawa stają się bezużyteczne (następuje konflikt praw (1) z (2)). Te proste dwa problemy pokazują, iż z pewnością można by znaleźć ich o wiele więcej i, że prawa robotyki Asimova wymagają korekty - dookreślenia. Przynajmniej takie jest moje zdanie!

 

Hasło:: Marek Kasperski.

 

_

w sieci

_

 

_

© Marek Kasperski / 2000-2009

 
 

Szukaj w wortalu

_

Oferta e-sklepu

okładkiTematyka: filozofia umysłu, filozofia języka, neuroscience, psychologia kognitywna, robotyka, sztuczna inteligencja

Autorzy: Arbib, Boden, Breazeal, Calvin, Churchland, Dennett, Edelman, Ekman, Gazzaniga, Greenfield, Hofstadter, Johnson-Laird, Kurzweil, Loftus, McCorduck, Minsky, Moravec, Norman, Pylyshyn, Searle, Schank, Stillings, Wortman...

więcej »

_

Oferta Partnerów

okładkaT. Stafford, M. Webb, 100 sposobów na zgłębienie tajemnic umysłu, Onepress 2006.

Nowości z wyd. Helion

_

Nasi Partnerzy

baner.baner.

_