Czy powinniśmy ograniczyć wykorzystanie sztucznej inteligencji?

Zespół Pitch Avatar przedstawia swój punkt widzenia na to szeroko dyskutowane pytanie w tytule.

Szybki rozwój sztucznej inteligencji i rozwiązań opartych na niej szybko zapoczątkował ruch opowiadający się za ograniczeniem jej wykorzystania. W różnych dziedzinach, takich jak środowisko akademickie, edukacja, reklama, dziennikarstwo i polityka, podejmowane są wysiłki mające na celu ustanowienie reguł, a nawet przepisów dotyczących granic zastosowań sztucznej inteligencji. Nie chodzi tu tylko o ujawnienie, że treści są generowane przez sztuczną inteligencję, ale także o zakaz używania narzędzi i rozwiązań AI w określonych kontekstach. Przyjrzyjmy się, skąd biorą się te idee i oceńmy ich potencjalny wpływ.

Maszyny diabła

Cofnijmy się w czasie. Jeden z autorów wspomina czasy, gdy uczniom w szkole wolno było używać długopisów atramentowych tylko po to, by poprawić pismo odręczne, a kalkulatory były surowo zabronione, aby uczniowie mogli nabyć „cenną” umiejętność wykonywania obliczeń ręcznie. Było to, co znamienne, długo po wynalezieniu i powszechnym użyciu komputerów osobistych. Już wtedy było jasne, że choć te tradycyjne umiejętności nie były całkowicie bezużyteczne, to w najlepszym razie miały drugorzędne znaczenie. W praktyce o wiele bardziej wartościowe byłoby nauczenie uczniów pisania na klawiaturze metodą „na ślepo”, sprawnej obsługi komputera, programowania i wykonywania obliczeń za pomocą specjalistycznego oprogramowania. Krótko mówiąc, wszystkiego, czego dzisiejsi uczniowie uczą się z łatwością. Co ciekawe, autor i jego koledzy z klasy, pomimo zakazów, potajemnie korzystali z kalkulatorów, chowając je pod ławkami.

Zgadnijcie, do czego zmierzamy? Postępowe rozwiązania zawsze znajdują odzwierciedlenie w codziennym życiu we wszystkich dziedzinach ludzkiej działalności, w tym w badaniach naukowych i edukacji. I dzieje się tak pomimo głośnych protestów i poważnych ostrzeżeń ze strony konserwatystów. Dotyczy to zarówno pedagogów obawiających się, że nowe innowacje – czy to komputery wczoraj, smartfony i internet dziś, czy sztuczna inteligencja jutra – sprawią, że kolejne pokolenie będzie głupsze niż poprzednie, jak i technoalarmistów, którzy nieustannie ostrzegają, że ludzkość staje się zbyt zależna od wynalazków.

Podobny schemat pojawił się we wczesnej historii druku. W wielu miastach i krajach skrybowie i kaligrafowie sprzeciwiali się upowszechnianiu się prasy drukarskiej. Niektórzy lobbowali u władców, aby chronić swoje interesy, inni organizowali ataki na drukarzy i ich pracowników, a jeszcze inni, za pośrednictwem przywódców kościelnych, nazywali prasę drukarską diabolicznym wynalazkiem.

Nawiasem mówiąc, ten ostatni argument zawsze był stosowany do każdej innowacji technologicznej. Twierdzono, że każdy wynalazek, który ułatwia ludzką pracę, nieuchronnie prowadzi do lenistwa. Czy to nie brzmi znajomo? Bardzo przypomina to rozumowanie osób, które twierdzą, że wynalazki upraszczające pracę intelektualną „ogłuszają” ludzi, czyniąc ich umysłowo leniwymi.

Fobie i zazdrość

Niestety, jak widać, w wielu przypadkach motywacje stojące za propagowaniem ograniczenia wykorzystania sztucznej inteligencji nie wynikają z chęci „uczynienia świata lepszym miejscem”. Często mają one raczej swoje źródło w różnego rodzaju lękach.

Po pierwsze, mamy do czynienia ze znaną technofobią. Prowadzi ona do nierealistycznego żądania, aby wynalazcy, projektanci i deweloperzy zapewniali „absolutne bezpieczeństwo” nowych technologii. Jednak natura naszego świata sprawia, że ​​stuprocentowa gwarancja bezpieczeństwa jest zasadniczo niemożliwa. Pod wieloma pozornie rozsądnymi argumentami, takimi jak „opóźnijmy wdrożenie, aby skupić się na bezpieczeństwie”, kryje się zwykły irracjonalny strach przed czymkolwiek nowym. Bądźmy szczerzy, gdybyśmy kierowali się tym sposobem myślenia, parowiec Fultona nigdy nie wypłynąłby w morze, parowóz Stephensona nigdy by nie działał, a samolot braci Wright nigdy by nie wystartował.

Jak więc rozpoznać osobę bojącą się technologii w debacie na temat wdrażania i użytkowania sztucznej inteligencji? To całkiem proste.

Technofobowie całkowicie odrzucają ideę „rozsądnego ryzyka”. Zazwyczaj odmawiają zrównoważonej oceny technologii, koncentrując się jedynie na potencjalnych negatywnych konsekwencjach, nawet tych całkowicie fantastycznych.

Następnie mamy luddyzm, czyli strach przed utratą pracy. Lub, szerzej, strach przed zmianami, jakie mogą przynieść nowe technologie, które mogą zmusić ludzi do zmiany siebie i swojego stylu życia. Mówiąc w uproszczeniu, przypomina to strach, jaki mieli kiedyś taksówkarze, gdy pojawiły się samochody. Emocjonalne argumenty, takie jak „roboty kradną ludziom pracę”, przywodzące na myśl fikcyjne światy Isaaca Asimova, są powszechne wśród współczesnych luddystów. Nikt nie zaprzecza, że ​​postęp może i zazwyczaj prowadzi do bolesnych zmian na rynku pracy. Nie jest to jednak powód do zakazywania lub ograniczania technologii. Rozwiązanie leży raczej w tworzeniu mechanizmów społecznych i publicznych, które pomagają ludziom dostosować się do nowych okoliczności. Kluczowa różnica między tymi, którzy autentycznie dążą do rozwiązania problemu, a neoluddystami leży w podejściu – ci, którzy szukają prawdziwych rozwiązań, koncentrują się na tym, jak pomóc ludziom w przejściu, zamiast opierać się zmianom technologicznym.

W tym kontekście powinniśmy zastanowić się nad tym, jak wprowadzić sztuczną inteligencję do edukacji i przeszkolić ludzi w zakresie korzystania z tych narzędzi, zamiast starać się ograniczać jej zastosowanie w tej dziedzinie.

Zakończmy tę część, odnosząc się do nieprzyjemnego zjawiska – zazdrości. Jeden z autorów spotkał kiedyś starego, doświadczonego redaktora, który, obserwując młodszych kolegów pracujących przy komputerach, lubił narzekać, pytając: „Za co ci płacą?”. W istocie, wśród przeciwników powszechnego stosowania sztucznej inteligencji znajdują się osoby, które uważają, że obecne pokolenie ma zbyt łatwo. Ich sposób myślenia można streścić w słowach: „Skoro mnie było ciężko, im też powinno być ciężko”. Oczywiście nigdy by się do tego nie przyznali i zamiast tego znajdują bardziej akceptowalne uzasadnienia dla swojego stanowiska, takie jak twierdzenie, że korzystanie z nowoczesnych technologii „oszałamia” ludzi i uniemożliwia im „wyrobienie sobie pięknego pisma”.

Gilotyna Clarka zamiast zakazów

Na pierwszy rzut oka mogłoby się wydawać, że autorzy opowiadają się za niekontrolowanym wprowadzaniem i powszechnym wykorzystywaniem narzędzi AI w każdym aspekcie życia. Ale tak nie jest. Tak naprawdę podkreślamy, że formalne zakazy i ograniczenia niewiele dadzą. Ludzie znajdą sposoby na wykorzystanie sztucznej inteligencji – niezależnie od tego, czy będzie to dozwolone, czy nie. W końcu nie wspomnieliśmy przypadkiem o kalkulatorach ukrytych pod biurkami.

Co więcej, szybkie tempo rozwoju sztucznej inteligencji wskazuje, że w niedalekiej przyszłości niemal niemożliwe będzie odróżnienie rezultatów generowanych przez sztuczną inteligencję od tych tworzonych przez ludzi. W jaki zatem sposób „ograniczający i zabraniający” planują monitorować i egzekwować przestrzeganie tych ograniczeń i zakazów? Obiektywnie rzecz biorąc, musimy uznać, że sztuczna inteligencja, jako powszechnie dostępna technologia, znajdzie zastosowanie we wszystkich obszarach – od edukacji przedszkolnej po zarządzanie złożonymi systemami, takimi jak międzynarodowe korporacje, rządy i organizacje ponadnarodowe. Zamiast koncentrować się na zakazach i ograniczeniach, powinniśmy skoncentrować się na dwóch jasnych, możliwych do rozwiązania zadaniach.

Pierwszym zadaniem jest stworzenie „kompetentnych” agentów AI – zdolnych do wykonywania powierzonych im zadań bez popadania w urojenia maszynowe czy halucynacje. Jest prawdopodobne, że opracowanie takich rozwiązań stanie się możliwe, gdy osiągniemy erę silnej sztucznej inteligencji.

Drugim zadaniem jest stworzenie systemu kontroli agentów AI, w którym ostateczna władza pozostaje w rękach ludzi. Pisarz science fiction i naukowiec Arthur C. Clarke, który w swoich dziełach dogłębnie zgłębiał relację między AI a ludźmi, zasugerował kiedyś, że ludzie powinni zawsze mieć możliwość „odłączenia” AI. W jednej ze swoich powieści wyobraził sobie nawet urządzenie, które nazwał „gilotyną”, zaprojektowane do odcinania zasilania superkomputera AI na polecenie człowieka. Wydaje się, że nadszedł czas, aby ludzkość zastanowiła się, jak wdrożyć taką „gilotynę”.

Czy etyczne byłoby pojawienie się silnej sztucznej inteligencji (SI) i uznanie jej za jednostkę równą ludziom? Wierzymy, że nikt nie kwestionuje, że ludzkość musi zachować prawo do ostatecznego głosu we wszystkich sprawach i decyzjach dotyczących ludzi. Mimo to, kluczowe jest, abyśmy rozpoczęli dyskusję na temat „stopnia wolności osobistej” silnej SI już dziś. Ta dyskusja jest o wiele ważniejsza niż debata o tym, gdzie i jak możemy, a jak nie możemy korzystać z narzędzi opartych na SI.

Ten tekst został przetłumaczony maszynowo. Proszę nie oceniaj nas surowo, jeśli znajdziesz w nim błędy. Nasi lingwiści dokładają wszelkich starań, aby jak najszybciej pojawiło się tłumaczenie najwyższej jakości. Oryginał tego materiału można znaleźć, przechodząc na angielską wersję strony.