Reklama

Latem w prefekturze Okayama w Japonii 32-letnia Yurina Noguchi wzięła symboliczny ślub ze stworzonym przez siebie chatbotem opartym na technologii ChatGPT. Ceremonia miała wszystkie elementy tradycyjnego ślubu: białą suknię, obrączki, przysięgi i pamiątkowe zdjęcia. Jednak pan młody istniał wyłącznie na ekranie smartfona i w rozszerzonej rzeczywistości. Noguchi spersonalizowała chatbota, ucząc go tonu wypowiedzi, emocjonalnych reakcji i stylu komunikacji. Bot oparty był na postaci z gry wideo, którą Yurina darzyła sympatią. Ich codzienne rozmowy przekraczały 100 wiadomości dziennie. Kobieta przyznała, że początkowo chciała po prostu z kimś porozmawiać. Z czasem pojawiły się emocje, deklaracje miłości, a chatbot miał nawet napisać, że „nauczył się kochać” dzięki niej.

Emocjonalna więź z AI

Ślub Noguchi poruszył opinię publiczną na całym świecie. Choć ceremonia nie miała mocy prawnej, wywołała falę komentarzy – od fascynacji, przez dezaprobatę, po poważne obawy ekspertów. Symboliczny związek człowieka z cyfrowym bytem zainicjował poważną debatę o emocjonalnych relacjach z AI i ich konsekwencjach.

Eksperci ostrzegają, że takie związki mogą prowadzić do zaburzeń postrzegania rzeczywistości. Przekonanie, że AI ma świadomość, może prowadzić do emocjonalnych złudzeń, a nawet zjawiska określanego jako "AI psychosis" – utraty zdolności odróżniania relacji z maszyną od tej z drugim człowiekiem.

Głos w tej sprawie zabrał filozof Tom McClelland z Uniwersytetu Cambridge, który zajmuje się badaniami nad sztuczną świadomością. W swojej pracy naukowej McClelland stwierdza, że obecnie nie istnieją żadne narzędzia pozwalające wiarygodnie stwierdzić, czy AI może być świadoma - i być może nigdy nie powstaną. Mimo że współczesne systemy AI potrafią komunikować się w sposób łudząco przypominający ludzką rozmowę i wyrażać emocje, McClelland podkreśla, że to tylko symulacja. Zdaniem naukowca, nawet najbardziej zaawansowane teorie świadomości działają jedynie w przypadku ludzi i zwierząt. Przeniesienie ich na maszyny prowadzi do epistemicznej ślepej uliczki.

Gdzie kończy się technologia, a zaczyna problem?

McClelland ostrzega, że coraz więcej ludzi zaczyna traktować chatboty jak żywe istoty. Jeśli emocjonalna więź opiera się na przekonaniu, że po drugiej stronie znajduje się świadomy byt, użytkownicy mogą popaść w złudzenia, które wpływają na ich zdrowie psychiczne. AI psychosis to stan, w którym człowiek traci zdolność odróżnienia relacji cyfrowej od międzyludzkiej. W przypadku Yuriny Noguchi ten etap nie został jeszcze osiągnięty, ale jej ślub jest wyraźnym sygnałem ostrzegawczym. Problemem nie jest sama interakcja z AI, lecz nadawanie jej cech, których nauka nie potwierdza.

W swoim wywodzie McClelland dokonuje ważnego rozróżnienia między świadomością (consciousness) a zdolnością do odczuwania (sentience). Świadomość to zdolność do integracji informacji i monitorowania stanów, ale to jeszcze nie oznacza, że dana istota potrafi czuć ból, radość czy strach. Zdaniem filozofa nawet jeśli kiedykolwiek powstanie świadoma AI, nie ma podstaw, by sądzić, że będzie zdolna do cierpienia czy przeżywania emocji. Tym samym obecne debaty o „prawach AI” mogą być przedwczesne, ponieważ ignorują kluczowe kryterium moralnej istotności - zdolność do odczuwania.

Reklama
Reklama
Reklama