aaaaaaaaaaaJOHN_DEERE1

AI nieodróżnialna od człowieka? Spokojnie. Daleko nam do tego

3 sierpnia 2023
AI nieodróżnialna od człowieka? Spokojnie. Daleko nam do tego


Kluczowe jest pytanie o zdolność AI do posiadania świadomości i intencjonalności. Na razie nic na nią nie wskazuje.

Turing wierzył, że do 2000 r. komputery będą nieodróżnialne od ludzi. Po 23 latach nadal tak nie jest.

Roboty społeczne mogą okazać się niebezpiecznym wynalazkiem. Nie posiadają bowiem emocji, w porównaniu do ludzi są „psychopatami”.

Chat GPT ma „inteligencję” na poziomie małego dziecka. Zachwyt nad jego zdolnościami jest przesadzony.

Powinniśmy uważać z antropomorfizowaniem AI. Robiąc to, sprowadzamy się do jej poziomu i dehumanizujemy siebie.
Pierwsza fala zachwytu nad zdolnościami generatywnej sztucznej inteligencji już minęła. Nie oznacza to jednak, że opadły emocje związane z tą technologią. Jedni są nią zachwyceni, inni wieszczą koniec ludzkości. Prawda jest jednak bardziej skomplikowana. Sztuczna inteligencja na razie nie wykazuje zdolności do posiadania świadomości, intencjonalności lub charakterystycznych dla człowieka emocji. Wizja, zgodnie z którą zachowania AI będą nieodróżnialne od ludzkich, wydaje się nierealna.

 

Jan Maciejewski w tekście opublikowanym na łamach „Teologii Politycznej” przewiduje, że w niedalekiej przyszłości lub nieco później AI będzie potrafiła prześcignąć nas we wszystkim, również w działalności twórczej. „Nie ma się więc co silić na oryginalność – na jakikolwiek ląd nie dotrzemy, ona była tam przed nami. Gdzie my spróbujemy wbić flagę, sztuczna inteligencja zdążyła już postawić supermarket i strzeżone osiedle. A będzie tylko coraz szybsza i bardziej kreatywna” – czytamy.

 

Jednocześnie autor wskazuje na jedyny obszar, który jest dla sztucznej inteligencji niedostępny. Jego zdaniem AI nigdy nie będzie potrafiła się modlić. „To tu i nigdzie indziej przebiega ostatnia linia oporu. Można nas ogrywać w Go i szachy, uwodzić w internetowych konwersacjach, bawić stworzonymi przez siebie serialami i zapierać dech w piersiach dziełami sztuki swojego autorstwa. Ale nigdy nie uklęknie obok nas ani nie zamknie się sama w pustym pokoju i się nie pomodli.” – pisze Maciejewski.

 

Ten na poły poetycki obraz oddziałuje na wyobraźnię, lecz prowadzi jednocześnie donikąd. Zanim bowiem zaczniemy stawiać tak kategoryczne tezy, powinniśmy spróbować lepiej zrozumieć samych siebie i sztuczną inteligencję, aby móc w ogóle odpowiedzieć na pytanie, co to znaczy, że sztuczna inteligencja się modli i skąd mielibyśmy wiedzieć, że jest w tym autentyczna, a nie tylko, jak chciałby Maciejewski, imituje modlitwę. Gdy poważnie postawimy sobie takie pytania, możemy zatrwożyć się własną niewiedzą i dostrzec znacznie bliższe i bardziej realne problemy, z którymi będziemy musieli się zmierzyć.

 

Czy sztuczna inteligencja może mieć świadomość?

 

Jeśli mamy zastanawiać się na tym, czy sztuczna inteligencja może się modlić, a nasza odpowiedź nie ma mieć wyłącznie charakteru dogmatycznego, powinniśmy najpierw odpowiedzieć na 2 bardziej podstawowe pytania.

 

Po pierwsze, czy SI może mieć stany intencjonalne? I po drugie, czy SI posiada świadomość? Dopiero gdy te 2 warunki zostaną spełnione, możemy w ogóle zacząć stawiać pytania teologiczne dotyczące tego, czy SI ma duszę, dostęp do Bożej Łaski, czy może nawiązać osobową relację z Jezusem itd.

 

Nie twierdzę, że to możliwe, ale uważam, że aby sensownie podjąć ten temat, warto zastanowić się nad powyższymi kwestiami. Ludzkie systemy poznawcze dysponują imponującym repertuarem różnorodnych stanów intencjonalnych. Jesteśmy przekonani o czymś, wątpimy w cośboimy się czegoś i wyobrażamy sobie coś. Gdyby chcieć stworzyć pełen katalog takich stanów, lista zapewne ciągnęłaby się w nieskończoność. Istnienie intencjonalności, czyli aktywnego stosunku umysłu do jakiegoś przedmiotu, opieramy głównie na introspekcji.

Rzecz jasna, stany intencjonalne można analizować w sposób naukowy, intensywnie zajmują się tym neuronauki, lecz zawsze opierają się one na jakichś danych, których źródło znajduje się w introspekcji. Problem polega na tym, że w przypadku AI do introspekcji nie mamy żadnego dostępu, o ile w ogóle coś takiego istnieje i może zaistnieć.

Jeśli jednak założymy, że AI (przynajmniej w swojej obecnej formie) nie posiada stanów intencjonalnych, to nie tylko nie może modlić się do Kogoś (czegoś), nie może dokonać również wielu innych rzeczy, które nie są aż tak wzniosłe i prowokujące intelektualnie. Dopóki nie znajdziemy jakiegoś sposobu na określenie, czy AI ma stany intencjonalne, pozostaniemy wyłącznie w sferze domysłów lub dogmatów, które mogą być ciekawe i prowokujące, lecz nie przybliżą nas do wiedzy.

Powyższe pytania można zbyć założeniem, że do posiadania stanów intencjonalnych jest potrzebny mózg. To odpowiedź wymijająca, gdyż można przynajmniej wyobrazić sobie, że jakiś sztuczny stworzony system mógłby stać się odpowiednikiem mózgu.

Jeszcze trudniej jest nam dyskutować o świadomości, bo de facto nie jesteśmy w stanie jej przekonująco zdefiniować. Wikipedia podaje, że jest to „podstawowy i fundamentalny stan psychiczny, w którym jednostka zdaje sobie sprawę ze zjawisk wewnętrznych […] oraz zjawisk zachodzących w środowisku zewnętrznym”. Wydaje się to intuicyjne, lecz gdy głębiej zanurzymy się w to, co to znaczy, że zdajemy sobie z czegoś sprawę, dojdziemy do wniosku, że sprawa nie jest wcale taka prosta, a na dodatek w cały problem uwikłane jest wcześniej omawiane pojęcie intencjonalności.

Sztuczna inteligencja nieodróżnialna od człowieka? Daleko nam do tego

Obecnie podstawowym narzędziem do oceny AI jest test Turinga, który polega na tym, że tester zadaje pytania i prowadzi rozmowę z komputerem i człowiekiem. Jeśli nie będzie mógł rozstrzygnąć, czy odpowiedź pochodzi od człowieka, czy od maszyny, ma to dowieść, że komputer jest inteligentny i tym samym można uznać, że program komputerowy zaliczył test.

Sam Turing wierzył, że dojdzie do tego maksymalnie w 2000 r., lecz żaden program nie osiągnął jeszcze założonego progu zdawalności. Trzeba jednak zaznaczyć, że jedynym elementem, jaki sprawdza ten test, jest to, czy komputer jest w stanie wystarczająco dobrze naśladować człowieka.

Może jednak okazać się, że to ślepa uliczka. Dziś nie dysponujemy jednak żadnym lepszym narzędziem. Przez wiele stuleci w kulturze zachodniej przyjmowało się, co prawda, że świadomość posiada tylko człowiek, ale coraz częściej pojawiają się głosy, że mogą ją mieć także niektóre zwierzęta. Przeżywają ją jednak w sposób, którego nie jesteśmy w stanie w pełni zrozumieć. Być może na jakimś etapie podobnie będzie ze sztuczną inteligencją. Wówczas test Turinga może okazać się zupełnie bezużyteczny.

Wydawać by się mogło, że jest to kwestia czysto teoretyczna, kolejna ciekawostka, którą zajmują się naukowcy, filozofowie i futurolodzy. Sprawa jest jednak poważna. Gdy mamy do czynienia z Chatem GPT, łatwo nam powiedzieć, że to coś całkowicie innego od nas. Gdy pojawiają się roboty o bardziej humanoidalnych kształtach, sprawy się komplikują.

Roboty społeczne – „ludzki” towarzysz czy bezemocjonalny psychopata?

Amerykańska socjolog, Sherry Turkle, od wielu lat prowadzi badania na temat interakcji społecznych między robotami i ludźmi. W jednym z eksperymentów małe dzieci miały wejść relację z robotem. W większości przypadków nie traktowały maszyn jak zabawki. Starały się poprawić im humor, np. tańcząc i śpiewając. Gdy robot nie wchodził z nimi w interakcję, uczestnicy badania czuli się odrzuceni i uważali, że ich nie lubi. Pokazuje to, że humanoidalne roboty nie są traktowane przez ludzi jak zwykłe przedmioty, są antropomorfizowane. Powyższe zjawisko dotyczy przede wszystkim dzieci, lecz badania pokazują, że podobne postawy można dostrzec również u dorosłych.

Gdy jakieś urządzenie się popsuje lub nie działa właściwie, możemy być z tego powodu smutni lub rozdrażnieni, ale nie uznamy, że dany przedmiot nas nie lubi. W przypadku robotów jest to możliwe. Jak jednak starałem się wykazać wyżej, nie mamy żadnych sensowych kryteriów sprawdzenia, czy rzeczywiście roboty mogą nas nie lubić i co de facto miałoby z tego wynikać. Opieramy się wyłącznie na antropomorfizacji oraz tworzeniu analogii do człowieka.

Sherry Turkle jest bardzo sceptyczna wobec robotów społecznych, które miałyby zastąpić opiekunów dla dzieci lub osób starszych. Takie rozwiązanie wydaje się kuszące, gdyż wielu socjologów twierdzi, że mamy do czynienia z epidemią samotności, ale jednocześnie może stanowić źródło licznych zagrożeń.

Większość badaczy zgadza się, że roboty nie mają uczuć, jedynie je imitują. Nawet jeśli przyjmiemy, że AI może mieć jakieś specyficzne dla siebie uczucia, to przecież nie wie, co znaczy kogoś kochać, mieć problemy rodzinne czy być w żałobie po kimś bliskim.

Może to oznaczać, że korzystając z robotów społecznych, oddamy najbardziej wrażliwe jednostki, osoby chore, niedojrzałe czy osamotnione w ręce „cyfrowych psychopatów”, od których nie otrzymają one prawdziwej pomocy, a wręcz przeciwnie, mogą zostać bardzo skrzywdzone.

Być może brzmi to jak science fiction, ale w Japonii już od wielu lat wykorzystywany jest terapeutyczny robot PARO, który wyglądem przypomina fokę. Nie potrafi mówić, a jego działanie terapeutyczne ma być zbliżone do tego, które osiąga się poprzez animaloterapię. Coraz częściej pojawiają się postulaty szerszego zastosowania robotów usługowo-asystujących, których zadaniem będzie nie tylko pomoc w wykonywaniu codziennych czynności, lecz także interakcja z użytkownikiem w sposób maksymalnie zbliżony do naturalnego.

Przykładem takiego urządzenia może być robot Kompai, który wykorzystywany jest już w kilkudziesięciu domach opieki na całym świecie, również w Unii Europejskiej. Rzecz jasna, przed wprowadzeniem na rynek takie urządzenia są poddawane wielu badaniom i testom. Niemniej jednak nie jesteśmy w stanie przewidzieć, co się stanie, gdy człowiek zaangażuje się w „relację” z takim robotem. Z tego względu warto zacząć przyglądać się bliżej „życiu wewnętrznemu” urządzeń bazujących na sztucznej inteligencji.

Już niedługo skończymy w Matriksie? Spokojnie

Mamy obecnie tendencję do przeceniania możliwości AI. Gdy słyszymy, że Chat GPT zdaje egzaminy prawnicze i medyczne, może nam się wydawać, że jest już o krok od przejęcia władzy nad światem.

Prawda jest jednak taka, że pod wieloma względami Chat GPT osiąga poziom intelektualny kilkuletniego dziecka, czasami znajduje się na jeszcze niższym. Nie potrafi wyczytać informacji z kontekstu, nie rozumie ironii i żartów. Brakuje mu wielu ludzkich cech, które w codziennym funkcjonowaniu są niekiedy o wiele ważniejsze niż wiedza.

Problem w tym, że to nam nie przeszkadza. Tak bardzo jesteśmy dumni ze swoich osiągnięć, że chcemy widzieć tylko ich zalety, pomijamy niedociągnięcia. Zjawisko to znane jest jako efekt ELIZY. Zostało tak nazwane w nawiązaniu programu ELIZA, który został opracowany w latach 60. i miał symulować psychoanalityka. Jak zatem zauważa Turkle, nadejście kultury robotycznej nie oznacza wcale, że udało nam się stworzyć roboty, które są godne tego, by być naszymi towarzyszami, lecz że sami uznaliśmy, że chcemy z nimi wchodzić relację. Takie myślenie może być niebezpieczne.

„O czym zapominamy, rozmawiając z maszynami? Zapominamy, co jest wyjątkowego w byciu człowiekiem. Zapominamy, co to znaczy prowadzić autentyczną rozmowę. Maszyny są zaprogramowane do prowadzenia rozmów «tak, jakby» rozumiały, o czym są rozmowy. Kiedy więc z nimi rozmawiamy, redukujemy samych siebie do tego «tak, jakby»” – pisała Turkle w eseju The „Robotic Moment”.

W ocenie osiągnięć sztucznej inteligencji powinniśmy zachować ostrożność i nie popadać ani w fatalizm, ani w hurraoptymizm. Widzimy bowiem wyraźnie, że aby odpowiedzieć na pytanie, czy SI mogłaby się modlić, musielibyśmy najpierw przebrnąć przez co najmniej kilka pytań natury filozoficzno-kognitywistycznej.

AI jest bardzo daleko nie tylko od modlitwy, lecz także od wielu innych postaw i zachowań charakterystycznych dla człowieka, związanych przede wszystkim z emocjonalnością i intencjonalnością.

Wchodząc w zbyt zażyłą relację z AI, możemy zniżyć się do jej poziomu. Przed naszymi oczami powinny zatem stanąć realne problemy, których zapewne nie rozwiążą filozofowie, lecz być może pomogą je lepiej zrozumieć.


autor: Maciej Witkowski - Członek redakcji działu „Architektura społeczna” w Klubie Jagiellońskim. Doktorant w Szkole Doktorskiej Nauk Humanistycznych UW, absolwent filozofii i germanistyki.

 

oprac, e-mk, ppr.pl na podst. źródło: Klub Jagielloński; utwór ten jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe.


POWIĄZANE

Komisarz Rolnictwa UE Janusz Wojciechowski przekazał, że na najbliższym i ostatn...

Do końca lipca br. rzemieślniczy Browar PINTA planuje uruchomić nową linię do pu...

Skuteczne ograniczenie ilości odpadów i zwiększenie recyklingu wymaga wcześniejs...


Komentarze

Bądź na bieżąco

Zapisz się do newslettera

Każdego dnia najnowsze artykuły, ostatnie ogłoszenia, najświeższe komentarze, ostatnie posty z forum

Najpopularniejsze tematy

gospodarkapracaprzetargi
Nowy PPR (stopka)
Jestesmy w spolecznosciach:
Zgłoś uwagę