Jednym z najczęściej omawianych tematów w świecie sztucznej inteligencji jest potencjalne zagrożenie, jakie może nieść ze sobą jej szybki rozwój i wdrażanie. Prędzej czy później ta obawa pojawia się w rozmowach – niezależnie od tego, czy rozmawiasz o niej ze współpracownikami, klientami, czy po prostu z osobami, które interesują się sztuczną inteligencją.
Problem polega na tym, że scenariusze, które ludzie zazwyczaj sobie wyobrażają, są boleśnie banalne. Nie ma potrzeby ich wymieniać – książki i filmy wielokrotnie powtarzały te same katastroficzne intrygi. Historia jest prawie zawsze taka sama: jakaś złośliwa sztuczna inteligencja nagle uznaje ludzi za zagrożenie i wywołuje katastrofę na skalę globalną – na przykład atak nuklearny lub śmiertelnie niebezpieczny wirus.
Często jednak pomija się prostą prawdę: sztuczna inteligencja nie ma żadnego powodu ani motywacji, by atakować ludzi. Aby w ogóle czegoś takiego chcieć, potrzebowałaby instynktów i emocji podobnych do naszych – impulsów, które popychają żywe istoty w stronę strachu, agresji lub decyzji opartych na przetrwaniu. Sztuczna inteligencja nie jest człowiekiem. Nie jest nawet istotą biologiczną. Ma zupełnie inne cele i zupełnie inny system oceny tego, co jest „dobre”, a co „złe”. I to właśnie te systemy – a nie emocje, instynkty czy pragnienia – decydują o tym, jak sztuczna inteligencja będzie się dalej „rozwijać”.
Co ważniejsze, dzisiejsza sztuczna inteligencja po prostu nie dysponuje fizycznymi środkami, by wyrządzić ludzkości poważną krzywdę. Mówiąc wprost, nie jest w stanie przejąć kontroli nad bronią strategiczną ani zaprojektować i uwolnić wirusa. W rzeczywistości nie ma dostępu do… cóż, niczego podobnego. Aby zrozumieć, co sztuczna inteligencja potrafi obecnie, rozważmy to: wciąż nie stworzyliśmy systemu, który niezawodnie prowadziłby samochód w normalnym ruchu miejskim. Nawet najbardziej zaawansowany autopilot działa bezpiecznie bez człowieka za kierownicą tylko w ściśle kontrolowanych warunkach testowych.
Czy to oznacza, że sztuczna inteligencja jest całkowicie nieszkodliwa? Oczywiście, że nie. To wciąż technologia, a każda technologia może być ryzykowna. Różnica polega na tym, że większość ludzi tak naprawdę nie dostrzega ani nie rozumie tych zagrożeń.
Prawdziwy problem polega na tym, że sztuczna inteligencja może popełniać błędy. Może „halucynować”, produkowac bzdury lub pewnie wypluwać fałszywe informacje – jakkolwiek chcesz to nazwać. Nie chodzi o etykietę ani o techniczne uzasadnienie. Chodzi o to, że te błędy do Zdarzają się. Same w sobie zazwyczaj nie są niebezpieczne. Wystarczy, że ktoś sprawdzi wyniki, zanim przyjmie je za dobrą monetę…
Pewnie już domyślasz się, o jakim zagrożeniu tak naprawdę mówi ten tekst. Prawdziwe niebezpieczeństwo wynika z faktu, że ludzie coraz chętniej ufają osądom, sugestiom i wynikom sztucznej inteligencji, nie weryfikując ich. Szczególnie narażone są dzieci i młodzież. Dla nich sztuczna inteligencja jest życzliwym, przyjaznym, wszechwiedzącym towarzyszem, który zawsze jest przy nich – wybawcą od prac domowych, pomocnikiem we wszystkim, doradcą w każdej sprawie. Nawet w tych pytaniach, których wstydzą się lub boją zadać dorosłemu.
Po raz pierwszy zauważyłem ten rodzaj ślepego zaufania, kiedy pracowałem z wyszukiwarkami. „Efekt dziesięciu najlepszych” był przytłaczający: większość użytkowników po wpisaniu zapytania nie zaglądała nawet dalej niż na pierwszą stronę wyników. Ograniczali się do dziesięciu najlepszych linków i po prostu zakładali, że im wyżej pojawił się wynik, tym był bardziej trafny lub trafny. I oczywiście, w większości przypadków to założenie się sprawdza. Ale zdecydowanie nie zawsze.
Jest całkiem możliwe, że ponieważ czaty AI komunikują się w tak „ludzki” sposób, ludzie mogą im zaufać nawet bardziej niż tradycyjnym wyszukiwarkom. Możemy łatwo osiągnąć punkt, w którym niemal wszyscy będą brać rady i decyzje AI za dobrą monetę – bez sprawdzania czegokolwiek.
Ten rodzaj bezwarunkowego zaufania jest w rzeczywistości najpoważniejszym zagrożeniem związanym ze sztuczną inteligencją, z jakim się mierzymy. Łatwo wyobrazić sobie osobiste tragedie, jakie mogą wyniknąć ze ślepego podążania za wskazówkami sztucznej inteligencji w takich dziedzinach jak medycyna czy prawo. Staje się to jednak jeszcze bardziej niebezpieczne, gdy sugestie sztucznej inteligencji są wykorzystywane bez kontroli w dziedzinach zawodowych, gdzie dokładność dosłownie wpływa na ludzkie życie. Pomyślmy o pracownikach infrastruktury krytycznej, branży farmaceutycznej czy lotnictwa, którzy polegają na wynikach sztucznej inteligencji bez weryfikacji. Jeden błąd, zaakceptowany bez weryfikacji, może doprowadzić do katastrofy – nie globalnej apokalipsy, ale bardzo realnej i bolesnej.
Co więc możemy z tym zrobić? Po pierwsze, musimy zdać sobie sprawę, że zagrożenie nie pochodzi ze sztucznej inteligencji, ale od ludzi. Ślepa wiara w technologię to po prostu kolejna forma błędu ludzkiego. Niezależnie od stopnia zaawansowania sztucznej inteligencji, nadal będzie ona od czasu do czasu popełniać błędy. Dlatego weryfikacja wyników generowanych przez sztuczną inteligencję musi stać się nawykiem – tak automatycznym, jak zapinanie pasów bezpieczeństwa przed jazdą. Idealnie byłoby, gdyby szkoły prowadziły kursy bezpiecznego korzystania ze sztucznej inteligencji, a rodzice również rozmawiali o tym z dziećmi.
Mówiąc prościej, zawsze powinniśmy pamiętać o tej prawdzie: nie ma czegoś takiego jak „niezatapialny” statek.