Kiedy sztuczna inteligencja „halucynuje”: jak science fiction przewidziało problemy współczesnych sieci neuronowych

czyli jak pracować ze sztuczną inteligencją, która „cierpi na halucynacje”

Autor z Pitch Avatar Zespół wyjaśnia, w jaki sposób pisarze science fiction już w połowie XX wieku znaleźli rozwiązania problemu „maszynowego delirium”.

Od XIX wieku istniał wyraźny schemat: na długo zanim cywilizacja w praktyce napotkała problemy związane z postępem technologicznym, pisarzom science fiction udało się je „wymyślić” jako pierwszym. I nie tylko je wymyślić, ale także zaproponować rozwiązania.

Halucynacje SI – lub, jak się je czasem nazywa, delirium maszynowe – nie są wyjątkiem. Wyjaśnijmy od razu: nie mówimy o awariach ani awariach spowodowanych fizycznym uszkodzeniem sprzętu czy na przykład wirusami komputerowymi. Nie mówimy też o hipotetycznym „buncie maszyn”, w którym SI „świadomie” odmawia posłuszeństwa ludziom i sama decyduje, co robić.

Interesują nas sytuacje, w których sztuczna inteligencja generuje fałszywe, niepoprawne lub wręcz absurdalne informacje. Na przykład nieistniejące cytaty nieistniejących osób z nieistniejących książek. Albo linki do nieistniejących stron internetowych. Albo rodzaj „wizualnej sałatki” w obrazach. Zakładamy, że każdy czytelnik natknął się przynajmniej raz na takie wygenerowane przez sztuczną inteligencję wyniki. Czasami odpowiedź sztucznej inteligencji na polecenie jest tak odległa od tego, o co została poproszona, że ​​pojawia się zupełnie nielogiczna chęć nazwania jej „szalona”. Jest to szczególnie frustrujące, gdy sztuczna inteligencja zaczyna „usterkować” podczas rozwiązywania naprawdę ważnego zadania, które wymaga wysokiego stopnia dokładności. W rezultacie niektórzy ludzie są tak rozczarowani, że całkowicie rezygnują z korzystania z narzędzi opartych na sztucznej inteligencji, woląc rozwiązywać swoje problemy „w staromodny sposób”.

A zatem, uspokójmy was. Mistrzowie science fiction zastanawiają się nad tym tematem od połowy ubiegłego wieku. Dlaczego nie szukać u nich rozwiązania problemu „maszynowego delirium”?

Przerażający Terminus

Weźmy na przykład opowiadanie Stanisława Lema "Stacja końcowa." Fabuła, w skrócie, przedstawia się następująco: kapitan statku kosmicznego dziedziczy starego robota konserwacyjnego o nazwie Terminus, który podczas wykonywania swoich obowiązków stale wystukuje coś w kodzie Morse'a. Okazuje się, że robot był świadkiem katastrofy statku kosmicznego i odtwarza ostatnią komunikację między członkami załogi, którzy zginęli. Najciekawsze jest to, że gdy ktoś zwraca się do jednej z osób, w imieniu których robot „prowadzi rozmowę”, również używając kodu Morse'a, Terminus zaczyna odpowiadać w ich imieniu, tak jakby wciąż żyli i byli na pokładzie skazanego na zagładę statku. Poza tym Terminus wykonuje swoje obowiązki doskonale, a gdy rozmawia się z nim w normalnym ludzkim języku, nie pamięta ani katastrofy, ani zmarłych członków załogi. Kapitan statku, będąc osobą pragmatyczną, używa robota do końca misji, a następnie go złomuje.

Pomimo tego, że ta historia doskonale „wywołuje dreszcze”, to, co tu widzimy, jest wyraźnym przykładem halucynacji maszyny. Z jakiegoś powodu, podczas katastrofy, robot AI nauczył się samouczyć, naśladując komunikację między członkami załogi desperacko próbującymi się uratować. Dlaczego tak się stało, jest w zasadzie nieistotne. Jednym z kluczowych założeń tej historii jest właśnie to, że podczas tworzenia inteligentnych maszyn nie zawsze da się przewidzieć, w którym kierunku zboczy ich proces samouczenia. Ważne jest coś innego. Kiedy halucynujący robot otrzymał bezpośrednie, jasno i jednoznacznie sformułowane polecenie, wykonał je całkiem skutecznie. Osobiście zawsze uważałem, że kapitan w tej historii postąpił zbyt radykalnie. Znacznie bardziej logiczne byłoby oddanie Terminusa w ręce specjalistów do zbadania.

Najwyraźniej Lem chciał pokazać, że gdy w przyszłości pojawią się trudności w pracy ze sztuczną inteligencją, najlepszym rozwiązaniem często będą proste rozwiązania, a mianowicie po prostu zastąpienie „niesprawnego” narzędzia innym.

Prosta logika

Osobiście znacznie bardziej wolę ideę leżącą u podstaw opowiadania "Powód" autorstwa innego klasyka, Isaaca Asimova. W tej historii robot AI wydaje się na pierwszy rzut oka inscenizować typowy „bunt”. Akcja rozgrywa się na odległej stacji kosmicznej z załogą liczącą zaledwie dwie osoby. Robot, o którym mowa, to złożony system zaprojektowany zasadniczo do zarządzania innymi robotami. Uważa się za „koronę stworzenia”, ubóstwia jedną z głównych maszyn stacji – konwerter energii – i odnosi się do ludzi jako istot niższego rzędu. Co więcej, zaczyna szerzyć swoją „naukę” wśród innych robotów.

Jednak szybko staje się dla ludzi oczywiste, że „buntownicza” sztuczna inteligencja nadal posłusznie wykonuje ich polecenia i bezbłędnie wypełnia swoje obowiązki. Owszem, stale tłumaczy swoje działania własnym światopoglądem, ale jej halucynacje nie mają żadnego wpływu na jakość jej pracy. W rezultacie ludzie postanawiają pozostawić „nieszkodliwe szaleństwo” robota bez uwagi.

Kluczem jest formuła

Zwróć uwagę: zarówno w opowiadaniu Lema, jak i Asimova, halucynujące SI doskonale wykonują swoje funkcje, gdy otrzymują jasne i precyzyjne polecenia. Zatem już w „złotej erze” science fiction znaleziono główne rozwiązanie problemu halucynacji SI. W większości przypadków wystarczy poprawnie sformułować zadanie dla SI. Aby rzadziej doświadczać „maszynowego delirium”, formułuj polecenia tak jasno, precyzyjnie, jednoznacznie i zwięźle, jak to możliwe.

Ten tekst został przetłumaczony maszynowo. Proszę nie oceniaj nas surowo, jeśli znajdziesz w nim błędy. Nasi lingwiści dokładają wszelkich starań, aby jak najszybciej pojawiło się tłumaczenie najwyższej jakości. Oryginał tego materiału można znaleźć, przechodząc na angielską wersję strony.