Czy AI ma świadomość?

Czy sztuczna inteligencja ma świadomość? Czy może odczuwać emocje? Takie pytania są coraz częściej zadawane, i często mają postać clickbaitów. A pożytek z nich z reguły niewielki, bo choć rozmaici autorzy dzielą się swoimi przemyśleniami, często przemieszanymi z katastroficznymi scenariuszami, brak w tym jednak metodyki i kryteriów pozwalających zdecydować, która z tych teorii jest słuszna.

A tymczasem w latach 70-ch XX wieku prof. Marian Mazur sformułował teoretyczne podstawy pozwalające odpowiedzieć na to pytanie. Nie zajmował się on jednak bynajmniej problemem sztucznej inteligencji, zwłaszcza takiej, jaka powstaje obecnie. Zamiast tego sformułował teorię uniwersalną, którą można zastosować do wszystkich systemów które istnieją i które będą istnieć w przyszłości.

Korelator

Najpierw profesor wprowadza pojęcie Korelatora. Każdy system istniejący w świecie rzeczywistym styka się z tym światem na dwa sposoby. Jednym z nich jest odbiór sygnałów z niego, za co odpowiedzialne są receptory. Drugim jest wysyłanie sygnałów do świata, co czynią efektory. Pomiędzy receptorami a efektorami znajduje się właśnie korelator. To on odpowiada za to, jaki jest związek pomiędzy bodźcem a reakcją.

Homeostat

Bardzo proste systemy reagują na bodźce w pewien sposób wynikający z ich konstrukcji, i sposób ten nie zmienia się w czasie ich trwania (chyba że w wyniku stopniowej degeneracji systemu). Dla systemów bardziej złożonych to nie wystarcza. Aby system mógł adaptować się do otoczenia i zmieniać się w reakcji na otrzymywane bodźce, potrzebny jest homeostat. Homeostat jest podłączony do korelatora, i tylko za jego pośrednictwem reaguje na bodźce. Oddziałuje też na korelator zwrotnie, powodując zmianę jego działania. Tu Mazur wprowadza dwa interesujące pojęcia. Oddziaływanie korelatora na homeostat nazywa emocją, zaś oddziaływanie zwrotne homeostatu na korelator nazywa refleksją. Proces przepływu mocy w homeostacie pod wpływem różnicy potencjałów pomiędzy emocją a reflekcją nazywa zaś świadomością. Przepływ mocy w korelatorze spowodowany działaniem homeostatu nazywa myśleniem. W tym ujęciu świadomość mają tylko te systemy, które mają homeostat.

LLM a świadomość

Wielke modele językowe (LLM) działają w ten sposób, że wejście (kontekst) przetwarzają na wyjście (odpowiedź). Chociaż procesy przetwarzania wymagają ogromnej ilości operacji na gigantycznych ilościach danych, a same wejście i wyjście mogą mieć wielkość encyklopedii. proces ten nie prowadzi do zmian samego modelu, który pozostaje statyczny. W ujęciu mazura LLM byłby korelatorem, a homeostat w tym ujęciu nie istnieje. Modele zmieniają się tylko w wyniku uczenia, a proces uczenia zachodzi niezależnie od procesu przetwarzania kontekstu w odpowiedź. Wprawdzie modele są uczone, możnaby stwierdzić, że w takim razie istnieje także homeostat, w którym istnieje świadomośc, ale homeostatem tym jest proces uczenia uruchomiony przez człowieka, więc istnieje ona poza modelem językowym. Za to w modelu językowym zachodzi w tym ujęciu myślenie, lecz tylko podczas procesu uczenia się.

Podsumowanie

  • czy LLM ma świadomość - nie, ponieważ nie ma homeostatu. Świadomość występuje w trakcie uczenia, ale nie jest częścią modelu
  • czy LLM może myśleć - tak, ale tylko w trakcie uczenia
  • czy LLM odczuwa emocje - nie, emocje istnieją w trakcie uczenia, ale są one częścią systemu, którego LLM jest tylko jedną składową (jako korelator) - ta sama odpowiedź dotyczy refleksji
  • czy system samouczący się oparty na LLM miałby świadomość - w ujęciu systemowym tak, ale uczenie się wymaga celów, te zaś musiałyby być częścią homeostatu. Jak dotąd cele definiują ludzie, systemy uczące się bez kontroli jak na razie degenerują się.
  • czy AI może nas zniszczyć - tak, jeśli damy jej do tego narzędzia, ale to samo mogłbyby zrobić komputery z lat 70-ch, wystarczyłoby podłączyć je do broni atomowej, którą miałyby wystrzelić przy pierwszym wykrytym ataku - i pierwszy fałszywy alarm doprowadziłby do zagłady

Uwagi końcowe

Wiele osób powie, że podana tu definicja świadomości jest naciągana, i nawet proste automaty z pamięcią i dodatkowym wątkiem przetwarzającym dane możnaby uznać za świadome. To prawda, ale celem Mariana Mazura było stworzenie jak najbardziej ogólnej definicji świadomości. Owszem, większość systemów świadomych w rozumieniu tej teorii nie będzie mieć nic wspólnego ze świadomością typu ludzkiego, ale systemy tej definicji nie spełniające świadomości takiej mieć nie mogą. Brak im bowiem tego, co jest kluczowe, czyli wewnętrznego przetwarzania bodźców niezależnego od procesów, które odpowiadają za ich przetwarzanie na reakcje zewnętrzne.

Bibliografia

  1. Marian Mazur, Cybernetyka i Charakter, Rozdział 10