Використовуючи сюжет класичного науково-фантастичного готичного роману, автори з команди Pitch Avatar досліджують, чого нам слід уникати під час створення та вдосконалення штучного інтелекту.
Тих, хто боїться, що штучний інтелект може вийти з-під контролю та створити серйозну загрозу для людства, часто називають «синдромом Франкенштейна». Це доречне порівняння. Для контексту, у романі Мері Шеллі 1818 року Франкенштейн, або Сучасний Прометей, головний герой, Віктор Франкенштейн, створює людиноподібну істоту з частин тіла та оживляє її. Однак істота повстає проти свого творця та влаштовує жорстоку вбивство, скоюючи серію вбивств.
Цю класичну історію, одну з найперших у жанрі наукової фантастики, часто називають застереженням проти спроб створити інтелект, який би конкурував з людською силою. Шеллі, з надзвичайною передбачливістю, продемонстрував, що такі амбіції можуть призвести до катастрофічних наслідків.
Однак, давайте глибше зануримося в сюжет і розглянемо справжнє послання роману Мері Шеллі. Про що саме вона нас попереджає?
По-перше, Віктор Франкенштейн не керується практичною метою. Його навіть не можна назвати суто одержимим науковою цікавістю. Його робота — це спроба впоратися з особистим горем через смерть матері. Іншими словами, у нього немає чіткої мети для створення своєї лабораторної істоти. Він не враховує наслідків свого відкриття і не вживає необхідних запобіжних заходів.
Наступна помилка Франкенштейна полягає в тому, що, наляканий своїм творінням, він покидає його напризволяще. Істота, наділена розумом, вчиться виживати серед людей самостійно, але її самоосвіта неструктурована і зрештою призводить до першого акту насильства.
Зрештою, усвідомивши, що його творіння стало небезпечним, вчений, замість того, щоб звернутися за допомогою до колег чи влади, намагається самостійно впоратися з наслідками свого експерименту. Це призводить до більшої кількості жертв і, зрештою, до загибелі самого Франкенштейна.
Отже, якщо об’єктивно подивитися на цю історію, то застереження Мері Шеллі стосується не самого наукового відкриття, а погано спланованих, незабезпечених та безрозсудних експериментів. Це служить універсальним застереженням для всіх науковців, а не лише тих, хто працює зі штучним інтелектом.
Підсумки
Під час розробки моделей штучного інтелекту вкрай важливо чітко визначити їхнє цільове призначення та сферу застосування. Не менш важливо оцінити потенційні ризики та впровадити надійну систему зупинки.
Кожна модель повинна пройти високоякісне, систематичне навчання з експертним наглядом на кожному етапі.
Якщо експерименти з певною моделлю штучного інтелекту становлять реальну, а не гіпотетичну небезпеку, залучені експерти повинні негайно попередити владу та колег, щоб вони мобілізували необхідні ресурси для зменшення ризику.
Дотримуючись цих простих рекомендацій, натхненних романом Мері Шеллі, ми можемо мінімізувати ризики, пов'язані з тим, чого бояться прихильники «синдрому Франкенштейна».