Peter – który poprosił o pominięcie jego nazwiska z tej historii ze względów prywatności – jest daleki od samego. Rosnąca liczba osób używa chatbotów AI jako „opiekunów z podróży” – zdaniem tradycyjnie odnoszącej się do trzeźwej osoby, której zadaniem jest monitorowanie kogoś, kto jest pod wpływem psychodelicznego – i dzielenie się swoimi doświadczeniami online. Jest to silna mieszanka dwóch trendów kulturowych: stosowanie AI do terapii i stosowanie psychedelików do złagodzenia problemów zdrowotnych psychicznych. Ale według ekspertów jest to potencjalnie niebezpieczny koktajl psychologiczny. Choć jest to znacznie tańsze niż osobiście psychodeliczna, może być źle nie tak.
Silna mieszanka
W ostatnich latach tłumy ludzi zwróciły się do chatbotów AI jako surogatów dla ludzkich terapeutów, powołując się na wysokie koszty, bariery dostępności i piętno związane z tradycyjnymi usługami doradczymi. Byli również przynajmniej pośrednio zachęcani przez niektóre wybitne postacie w branży technologicznej, które zasugerowały, że AI zrewolucjonizuje opiekę zdrowotną umysłową. „W przyszłości… będziemy mieli * niezwykle skuteczne * i tanią terapię AI”, Ilya Sutskever, współzałożycielka Openai i jego były główny naukowiec, napisał w X Post w 2023 r. „Doprowadzi do radykalnej poprawy doświadczenia w życiu ludzi”.
Tymczasem główne zainteresowanie psychedelikami, takimi jak psilocybina (główny związek psychoaktywny w magicznych grzybach), LSD, DMT i ketamina gwałtownie wzrosło. Rosnąca część badań klinicznych wykazała, że w połączeniu z terapią związki te mogą pomóc ludziom przezwyciężyć poważne zaburzenia, takie jak depresja, uzależnienie i PTSD. W odpowiedzi rosnąca liczba miast ma dekryminalizowane psychedeliki, a niektóre legalne usługi terapii wspomagane psychodelicznie są teraz dostępne w Oregonie i Kolorado. Takie ścieżki prawne są jednak zbyt drogie dla przeciętnej osoby: licencjonowani dostawcy psilocybin w Oregonie, na przykład, zazwyczaj pobierają klientów indywidualnych od 1500 do 3200 USD za sesję.
Wydaje się niemal nieuniknione, że te dwa trendy-z których oboje są okrzyknięte przez ich najbardziej oddanych zwolenników jako prawie panaceas dla praktycznie wszystkich chorób społeczeństwa-zbiegłyby się.
Istnieje teraz kilka raportów na temat Reddit ludzi, takich jak Peter, którzy otwierają się na chatboty AI na temat ich uczuć podczas potykania się. Raporty te często opisują takie doświadczenia w mistycznym języku. „Korzystanie z AI w ten sposób wydaje się nieco podobne do wysłania sygnału w rozległy nieznany – poszukując znaczenia i połączenia w głębi świadomości”, napisał jeden z Redditor w Subreddit R/Psychonaut około rok temu. „Chociaż nie zastępuje ludzkiego dotyku ani empatycznej obecności tradycyjnego (podróży) opiekuna, oferuje wyjątkową formę towarzystwa, która jest zawsze dostępna, niezależnie od czasu lub miejsca”. Inny użytkownik przypomniał sobie otwarcie Chatgpt podczas trudnego emocjonalnie okresu podróży grzybowej i rozmawianie z nim w trybie głosowym chatbota: „Powiedziałem to, co myślałem, że wszystko robiło się trochę ciemno, i powiedziałem wszystkie właściwe rzeczy, aby po prostu wyśrodkować, zrelaksowany, i na pozytywną atmosferę”.
Jednocześnie obfitość chatbotów zaprojektowana specjalnie w celu pomocy użytkownikom w nawigacji w doświadczeniach psychodelicznych pojawiła się online. Na przykład Tripesitai „koncentruje się na zmniejszeniu szkód, zapewniając nieocenione wsparcie podczas trudnych lub przytłaczających chwil oraz pomaganie w integracji spostrzeżeń uzyskanych z podróży”, według jego konstruktora. „Szaman”, zbudowany na szczycie Chatgpt, jest opisywany przez swojego projektanta jako „mądry, stary indiański przewodnik duchowy… zapewniający empatyczne i spersonalizowane wsparcie podczas psychodelicznych podróży”.
Terapia bez terapeutów
Eksperci są głównie zgodni: zastąpienie ludzkich terapeutów nieuregulowanymi botami AI podczas doświadczeń psychodelicznych jest złym pomysłem.
Wielu profesjonalistów zdrowia psychicznego, którzy pracują z psychedelikami, wskazuje, że podstawowy projekt dużych modeli językowych (LLM)-systemy zasilania chatbotami AI-jest zasadniczo sprzeczne z procesem terapeutycznym. Na przykład wiedza, kiedy rozmawiać, a kiedy milczeć, jest kluczową umiejętnością. W klinice lub w biurze terapeuty ktoś, kto właśnie połknął psilocybinę, zwykle zakłada słuchawki (słuchając listy odtwarzania podobnie jak Chatgpt wyczerpany dla Petera) i maskę oczu, tworząc wrażenia, które jest wyreżyserowane przez projekt, prawie całkowicie do wewnątrz. Terapeuta siedzi w pobliżu, oferując w razie potrzeby wspierający dotyk lub głos.
