Одна з найбільш обговорюваних тем у світі штучного інтелекту — це потенційна небезпека, яка може виникнути з його швидким зростанням та впровадженням. Рано чи пізно це занепокоєння виникає в розмовах — незалежно від того, чи обговорюєте ви це з колегами, клієнтами чи просто з людьми, які цікавляться ШІ.
Проблема полягає в тому, що сценарії, які люди зазвичай уявляють, є болісно клішованими. Немає потреби їх перераховувати — книги та фільми знову і знову висвітлюють одні й ті ж сюжети про кінець світу. Історія майже завжди одна й та сама: якийсь зловмисний штучний інтелект раптово вирішує, що люди становлять загрозу, і розв'язує катастрофу глобального масштабу — скажімо, ядерний удар або смертельний штучний вірус.
Але часто не помічають простої істини: ШІ взагалі не має жодної причини чи мотивації нападати на людей. Щоб взагалі щось подібне захотіти, йому потрібні інстинкти та емоції, подібні до наших — ті імпульси, які штовхають живі істоти до страху, агресії чи рішень, спрямованих на виживання. ШІ — це не людина. Це навіть не біологічна істота. Він має зовсім інші цілі, а також зовсім іншу систему оцінки того, що є «добре» чи «погано». І саме ці системи, а не емоції, інстинкти чи бажання, визначають, як ШІ продовжуватиме «еволюціонувати».
Ще важливіше те, що сучасний ШІ просто не має фізичних засобів, щоб завдати серйозної шкоди людству. Відверто кажучи, він не може взяти під контроль стратегічну зброю чи розробити та випустити вірус. Фактично, він не має доступу до… ну, до нічого подібного. Щоб зрозуміти, що ШІ насправді може робити зараз, подумайте ось про що: ми досі не створили систему, яка може надійно керувати автомобілем у звичайному міському русі. Навіть найсучасніший автопілот працює безпечно без людини за кермом лише за жорстко контрольованих умов випробувань.
Чи означає це, що ШІ повністю нешкідливий? Звичайно, ні. Це все ще технологія, а будь-яка технологія може бути ризикованою. Різниця полягає в тому, що більшість людей насправді не помічають і не розуміють цих ризиків.
Справжня проблема полягає в тому, що ШІ може помилятися. Він може «галюцинувати», створювати нісенітниці або впевнено вивергати неправдиву інформацію — як завгодно це називати. Річ не в етикетці чи технічній причині цього. Річ у тім, що ці помилки do трапляються. Самі по собі вони зазвичай не є небезпечними. Потрібно лише перевірити результати ще раз, перш ніж сприймати їх за чисту монету…
Наразі ви, мабуть, здогадалися, про яку загрозу насправді йдеться в цьому тексті. Справжня небезпека полягає в тому, що люди дедалі більше охоче довіряють судженням, пропозиціям та результатам ШІ, не перевіряючи їх. Діти та підлітки особливо вразливі. Для них ШІ відчувається як добрий, дружній, всезнаючий компаньйон, який завжди поруч — рятівник від домашніх завдань, помічник у всьому, порадник з будь-якого питання. Навіть ті питання, які вони надто соромляться або бояться поставити дорослому.
Я вперше помітив такий сліпий довір, коли працював із пошуковими системами. «Ефект першої десятки» був приголомшливим: більшість користувачів, ввівши запит, навіть не переглядали першу сторінку результатів. Вони обмежувалися лише першими десятьма посиланнями та просто вважали, що чим вище відображається результат, тим він має бути точнішим або релевантнішим. І, звичайно, у більшості випадків це припущення працює. Але точно не завжди.
Цілком можливо, що оскільки чати зі штучним інтелектом спілкуються таким «людським» чином, люди зрештою почнуть довіряти їм навіть більше, ніж традиційним пошуковим системам. Ми легко можемо дійти до точки, коли майже кожен сприйматиме поради та рішення штучного інтелекту за чисту монету — нічого не перевіряючи двічі.
Така беззаперечна довіра насправді є найсерйознішою загрозою, пов’язаною зі штучним інтелектом, з якою ми стикаємося. Легко уявити особисті трагедії, які можуть статися в результаті сліпого дотримання вказівок ШІ в таких галузях, як медицина чи юриспруденція. Але це стає ще небезпечнішим, коли пропозиції ШІ використовуються безконтрольно в професійних сферах, де точність буквально впливає на життя людей. Подумайте про працівників критичної інфраструктури, фармацевтики чи авіації, які покладаються на результати ШІ без перевірки. Одна-єдина помилка, прийнята без перевірки, може призвести до катастрофи — не до глобального апокаліпсису, а до цілком реальної та болісної.
То що ж ми можемо з цим зробити? По-перше, нам потрібно усвідомити, що загроза походить не від самого ШІ, а від людей. Сліпа віра в технології – це лише ще одна форма людської помилки. Незалежно від того, наскільки розвиненим стає ШІ, він все одно час від часу помилятиметься. Ось чому перевірка результатів, згенерованих ШІ, має стати звичкою – такою ж автоматичною, як пристібання ременя безпеки перед керуванням автомобілем. В ідеалі, школи повинні викладати курси безпечного використання ШІ, а батьки також повинні розмовляти про це зі своїми дітьми.
Простіше кажучи, нам слід завжди пам’ятати цю істину: не існує такого поняття, як «непотоплюваний» корабель.