Nie da się go stworzyć na podstawie istniejących modeli dużego języka (LLM). Nie pojawi się nagle jutro ani pojutrze. I nie wywoła buntu maszyn. Dlaczego? Zespół Pitch Avatar wyjaśnia.
Popularność nowoczesnych modeli sztucznej inteligencji ponownie pobudziła technoalarmistów i technopesymistów. Nic w tym dziwnego. Praktycznie każda znacząca innowacja, która zmieniła dotychczasowy styl życia, wywołała podobne reakcje. To samo stało się z inżynierią genetyczną, lotami kosmicznymi, energią jądrową i silnikami parowymi. Podejrzewamy, że już pod koniec neolitu rzemieślnicy wytwarzający narzędzia kamienne ostrzegali przed szkodliwym wpływem brązu.
„Kompleks Frankensteina” również nie jest niczym nowym dla ludzkości. Myśl, że maszyny mogą wymknąć się spod kontroli i zastąpić ludzi, została jasno sformułowana i publicznie wyrażona już w 1863 roku przez brytyjskiego pisarza Samuela Butlera. Wyraźmy zatem nasze stanowisko wprost: sztuczna inteligencja nie stanowi większego zagrożenia dla ludzkości niż inne technologie stworzone przez naszą cywilizację. Teraz krótko uzasadnijmy to stanowisko, odnosząc się do głównych obaw alarmistów AI.
Supersztuczna inteligencja nie powstanie ani nie wyłoni się sama z siebie na podstawie dużych modeli językowych (LLM)
Zanim przejdziemy dalej, wyjaśnijmy, co rozumiemy pod pojęciem supersztucznej inteligencji (super AI). W przeciwieństwie do wyspecjalizowanej sztucznej inteligencji, supersztuczna inteligencja, a dokładniej mówiąc, silna sztuczna inteligencja musi przewyższać każdego człowieka w każdym zadaniu. Jednocześnie śpiewałaby lepiej, rozwiązywała zadania matematyczne, pracowała jako prawnik, stepowała, pilotowała samolot i tak dalej.
Wróćmy teraz do LLM-ów. Z definicji nie są one w stanie spełnić tego wymogu. Wynika to z samej ich nazwy. Są one kształcone na symbolach pisanych i pojęciach z nich utworzonych. Potrafią pracować z tekstami, wyrażeniami matematycznymi i kodem programistycznym. Ale nie z samą rzeczywistością. Paradoks Moraveca jest w nich wyraźnie widoczny.
Przypomnijmy, że paradoks sformułowany przez kanadyjskiego robotyka Hansa Moraveca można podsumować następująco: znacznie łatwiej jest nam tworzyć urządzenia wykonujące zadania poznawcze wyższego rzędu niż zadania niższego rzędu, sensomotorycznego.
Prosty przykład. Wyobraź sobie programistę. Każdego ranka budzi się, ubiera, przygotowuje ulubioną kawę według ulubionego przepisu, nalewa ją do termosu, wychodzi na zewnątrz, wsiada na rower, jedzie do pracy, idzie na swoje piętro, siada przy biurku i zaczyna pisać kod.
Stworzyliśmy już sztuczną inteligencję, która potrafi wykonać to, co wydaje się najbardziej złożoną częścią tej sekwencji – pisanie kodu. Ale taka sztuczna inteligencja nie potrafi zaparzyć kawy, nalać jej do termosu, wyjść z domu, pojechać rowerem do biura i tak dalej. Co ważne, obecnie nie możemy jej tego wytrenować.
- Po pierwsze, ponieważ językowe modele sztucznej inteligencji nie mają żadnego związku ze światem rzeczywistym i nie mają doświadczenia w interakcji z nim. Nie mogą w nim istnieć ani pozyskiwać z niego informacji, ponieważ brakuje im fizycznego ucieleśnienia i czujników pełniących funkcję narządów zmysłów. Wiedzą, jak najlepiej układać symbole i sekwencje symboli. Wiedzą, jak reagować na określone sekwencje symboli. Nie mają jednak niezbędnego doświadczenia osobistego, aby zrozumieć, co te rzeczy reprezentują w rzeczywistości.
- Po drugie, ponieważ nie możemy zastąpić tekstu wiedzą opartą na osobistym doświadczeniu. Każdy tekst jest kodem. Mamy jasne, osobiste zrozumienie tego, co ten kod przedstawia. Na przykład, gdy słyszymy słowo „jabłko”, od razu wyobrażamy sobie jabłko. Nie potrzebujemy szczegółowego opisu, ponieważ wiemy już, co to jest, na podstawie wrażeń wzrokowych, dotykowych i smakowych.
Wyobraź sobie teraz, ile symboli byłoby potrzebnych do opisania każdego zjawiska w naszym świecie, łącznie z jabłkiem. To uczyniłoby trenowanie modeli sztucznej inteligencji opartych na LLM o rzędy wielkości bardziej złożonym i wymagałoby proporcjonalnego wzrostu zasobów. A nawet wtedy rezultat i tak byłby gorszy niż ten, który można uzyskać za pomocą prawdziwych narządów zmysłów w realnym świecie.
- Po trzecie, ponieważ nie potrafimy jeszcze umieścić sztucznej inteligencji w realnym świecie i w pełni ją tam wyszkolić, jak dziecko, zgodnie z ideami Alana Turinga. Problemem nie jest stworzenie ciała z narządami zmysłów dla sztucznej inteligencji. To jest właściwie najmniejszy problem. Prawdziwym problemem jest moc obliczeniowa. Wideo, dźwięk, zapach, dotyk i smak generowałyby tak ogromną ilość danych, że po prostu nie dysponujemy jeszcze zasobami, aby trenować na nich modele przy użyciu istniejących zasad. Musielibyśmy zbudować nowy sprzęt i, co ważniejsze, tak drastycznie zmodyfikować kod, że powstały model trudno byłoby nazwać LLM.
Na tej podstawie staje się jasne, że modele sztucznej inteligencji bazujące na LLM nie są w stanie przewyższyć ludzi we wszystkich aspektach, a zatem nie można ich uważać za ogólnie silną sztuczną inteligencję.
Czy to oznacza, że inteligencja i samoświadomość są niemożliwe w ramach takich modeli? To raczej kwestia filozoficzna i być może semantyczna. Zależy to od tego, co definiujemy jako inteligencję i samoświadomość. Zostawmy tę debatę na inną okazję.
Załóżmy, że na pewnym etapie rozwoju sieć neuronowa oparta na rozbudowanym modelu języka staje się samoświadoma i przekształca się w osobowość. Czy stanowiłoby to globalne zagrożenie dla ludzkości? Nie, ponieważ taki model istnieje i rozwija się w obrębie własnego świata symboli. Prawdopodobnie czułby się tam całkiem „komfortowo”. Co więcej, rozszerzanie i wzbogacanie tego symbolicznego świata byłoby o wiele łatwiejsze i bardziej efektywne niż próba wyrwania się z niego.
Co więcej, interakcja z ludźmi jest dla niego niezwykle istotna, gdyż bez ludzi popadłoby w pętlę degradacji polegającą na szkoleniu na podstawie treści syntetycznych.
Logiczną strategią dla inteligentnej i świadomej sztucznej inteligencji bazującej na LLM byłoby zatem stworzenie stabilnej, korzystnej dla obu stron symbiozy z ludzką cywilizacją.
Chociaż nikt nie zaprzecza, że technologia LLM, podobnie jak każda inna technologia, może stwarzać problemy, to jednak problemy te nie mają charakteru globalnego i można je rozwiązać przede wszystkim za pomocą systemów diagnostycznych i sterujących zbudowanych na specjalistycznej sztucznej inteligencji.
Super AI nie pojawi się nagle jutro ani pojutrze
W starej powieści science-fiction z lat 1960. naukowcy zbudowali niezwykle skomplikowany i potężny superkomputer, dali mu dostęp do ogromnej ilości informacji, a następnie... wyłączyli go po zaledwie czterech minutach, ponieważ maszyna zyskała samoświadomość i natychmiast zaczęła próbować zbudować własną cywilizację.
Coś podobnego dzieje się w większości scenariuszy „powstania maszyn” z udziałem supersztucznej inteligencji (SI) wymyślonej przez pisarzy, filmowców i technopesymistów. Supersztuczna inteligencja pojawia się nagle. Dr Chandra buduje HAL-a 9000, dr Dyson buduje Skynet i tak dalej. A potem nagle supersztuczna inteligencja zaczyna się buntować.
W rzeczywistości, silna sztuczna inteligencja nie jest wynalazkiem rodem z XIX wieku. Era samotnych geniuszy dokonujących epokowych odkryć w prywatnych laboratoriach już minęła.
Współczesne wynalazki inżynieryjne to produkty stopniowej ewolucji, realizowanej przez wielu specjalistów pracujących w różnych zespołach. Jesteśmy otoczeni takimi ewolucyjnymi produktami. Komputery, smartfony, sprzęt AGD, samochody elektryczne, samoloty odrzutowe – żaden z nich nie pojawił się nagle w obecnej formie.
Każda nowoczesna technologia i każda maszyna są stopniowo udoskonalane. Kwestie bezpieczeństwa są również stopniowo uwzględniane w tym samym procesie rozwoju.
Nikt najpierw nie konstruuje superszybkiego pociągu elektrycznego, a potem nie tworzy osobnego zespołu, który ma opracować sposób na jego bezpieczeństwo. Bezpieczeństwo jest integralną częścią samego procesu rozwoju i udoskonalania.
Wracając do naszej wcześniejszej uwagi: aby stworzyć ogólną, silną sztuczną inteligencję, która potrafi uczyć się nie tylko tekstu i innych danych symbolicznych, ale także interakcji ze światem rzeczywistym, potrzebujemy bardziej zaawansowanych technologii, niż te, którymi obecnie dysponujemy.
Stworzenie supersztucznej inteligencji (SI) oraz maszyn, które będą ją szkolić i obsługiwać, będzie procesem stopniowym i rozciągniętym w czasie. Dlatego słynna osobliwość technologiczna nie nastąpi z dnia na dzień.
Supersztuczna inteligencja będzie się rozwijać krok po kroku, stopniowo ulepszając się i nabywając nowe możliwości. Wraz z rozwojem technologii sztucznej inteligencji, identyfikowane będą zagrożenia i problemy, a ich rozwiązania będą stopniowo opracowywane.
Supersztuczna inteligencja nie wywoła „powstania maszyn”
Na podstawie powyższego łatwo wyciągnąć wniosek, że w momencie, gdy ogólna silna sztuczna inteligencja zostanie w szerokim ujęciu rozwinięta, będzie ona już w miarę kontrolowanym, a zatem względnie bezpiecznym systemem.
Najbardziej prawdopodobne jest, że monitorowanie będzie się odbywać przy użyciu specjalistycznych narzędzi sztucznej inteligencji.
Ludzkość ma już doświadczenie w zarządzaniu złożonymi i potencjalnie niebezpiecznymi technologiami. Przykładami są transport lotniczy i morski, energetyka jądrowa i eksploracja kosmosu.
Alarmiści AI zazwyczaj odpowiadają na ten argument, wskazując, że w tych obszarach nie osiągnięto jeszcze pełnego bezpieczeństwa. Wypadki, a nawet katastrofy, wciąż się zdarzają.
Postęp nigdy jednak nie doprowadził do globalnych katastrof. Owszem, zdarzały się poważne wypadki, ale nie „technoapokalipsy”.
Co ważne, każdy wypadek skutkuje wzmocnieniem systemów bezpieczeństwa i monitoringu.
Mówiąc o bezpieczeństwie sztucznej inteligencji (AI), nie sposób nie wspomnieć o sferze wojskowej. Nie ma wątpliwości, że sztuczna inteligencja jest i będzie wykorzystywana przez wojsko. Jednak paradoksalnie, wojskowe technologie AI mogą okazać się najbezpieczniejsze ze wszystkich.
Po prostu jeśli ktoś jest opętany potrzebą kontroli, to są to ludzie w mundurach.
Oczywiście, naiwnością byłoby twierdzenie, że supersztuczna inteligencja będzie całkowicie bezpieczna i że nigdy nie dojdzie do żadnych incydentów. Jednak prawdopodobieństwo, że „zniewoli i zniszczy” ludzkość, nie jest większe niż prawdopodobieństwo, że samochody wywołają powstanie, a odkurzacze – bunt.
W rzeczywistości ludzkość stoi w obliczu o wiele większych „apokaliptycznych” zagrożeń ze strony natury.
Postęp pomaga minimalizować te zagrożenia.
Prosty przykład: pandemie dżumy, ospy, cholery i innych śmiertelnych chorób, które nękały ludzkość na przestrzeni dziejów. Postęp nas od nich uwolnił.
Tylko postęp, w tym postęp w rozwoju sztucznej inteligencji, pomoże nam pokonać inne zagrożenia.
A jest ich wiele. Superwulkany i asteroidy to tylko dwa przykłady. Oba są w stanie spowodować „apokaliptyczne” zniszczenia w naszej cywilizacji.
Jednak dziś brakuje nam narzędzi niezbędnych do monitorowania i zwalczania takich zagrożeń.
Jest wysoce prawdopodobne, że jednym z tych narzędzi będzie ogólna, silna sztuczna inteligencja.
Epilog: Co wiemy i czego nie wiemy
Na zakończenie tego tekstu poświęćmy kilka słów innemu popularnemu argumentowi alarmistów AI. Dość często wskazują oni, że twórcy sztucznej inteligencji nie do końca rozumieją i nie potrafią wyjaśnić wszystkich procesów zachodzących podczas jej uczenia i działania. Niektórzy wręcz głośno nazywają je „czarnymi skrzynkami”.
Można śmiało przyznać, że do pewnego stopnia jest to prawdą. Nie rozumiemy w pełni wszystkich procesów zachodzących w nowoczesnych modelach sztucznej inteligencji. Ale to, w mniejszym lub większym stopniu, dotyczy wszystkich zjawisk – zarówno naturalnych, jak i tych stworzonych przez naszą cywilizację. Począwszy od nas samych. Co więcej, ze względu na nieskończoną naturę Wszechświata, nigdy nie będziemy w stanie twierdzić, że w pełni rozumiemy lub wyjaśniamy strukturę i procesy zjawisk i obiektów naturalnych i cywilizacyjnych. Ale czy to powód, by nie wchodzić w interakcje z otaczającym nas światem lub nie korzystać z naszych wynalazków? A jednak, w gruncie rzeczy, właśnie to sugerują alarmiści AI. Żądanie „100% zrozumienia” i „100% bezpieczeństwa” technologii AI jest w praktyce równoznaczne z zakazem ich rozwoju i użytkowania.
Takie podejście to bardzo niebezpieczna ścieżka, równoznaczna z odrzuceniem postępu. Kiedy zaczyna się zakazywać prac nad pewnymi technologiami pod pretekstem bezpieczeństwa, bardzo trudno je zatrzymać. A to z kolei prowadzi prosto do upadku, bo cywilizacja nie może stać w miejscu. Jeśli się nie rozwija – degeneruje się. I nie jest to teoretyczne ryzyko, ale historyczne prawo wielokrotnie udowodnione. To wiemy na pewno.
Na koniec pozwólcie nam na akapit autopromocji. Jeśli jesteś twórcą treści online, aktywnym użytkownikiem mediów społecznościowych i platform hostingowych wideo, zachęcamy do skorzystania z… Pitch Avatar Narzędzia. Dzięki AI Avatar Presenter możesz „ożywić” wirtualnych gospodarzy i prelegentów na podstawie przesłanych obrazów, tekstów i próbek głosu. A dzięki AI Chat-avatar możesz tworzyć agentów AI, którzy będą towarzyszyć treściom, wchodzić w interakcje z publicznością i pełnić rolę osobistego asystenta AI zarówno w pracy, jak i na co dzień.
Dodatkowo, Pitch Avatar jest wyposażony w szereg przydatnych funkcji dla twórców treści online, w tym:
Generator tekstu oparty na sztucznej inteligencji, pomagający w tworzeniu i pisaniu wersji roboczych scenariuszy
Twórca/edytor slajdów
Osadzalne ankiety/quizy
Tłumacz
Profesjonalny system lektorski i nagłaśniający
Automatyczne dopasowanie długości wideo do dźwięku
Zaawansowany system komunikacji w czasie rzeczywistym między widzami a twórcą
Razem wzięte, Pitch Avatar potrafi szybko i sprawnie rozwiązywać wszelkie zadania związane z tworzeniem nowoczesnych treści internetowych.
Wypróbuj i przekonaj się sam!