Його неможливо створити на базі існуючих Large language models (LLM). Він не з’явиться раптово — завтра або післязавтра. І він не влаштує повстання машин. Чому? Розповідає команда Pitch Avatar .
Популярність сучасних моделей штучного інтелекту знову змусила активізуватися техноалармістів і технопесимістів. У цьому немає нічого дивного. Практично кожне значне нововведення, що змінювало звичний спосіб життя, супроводжувалося подібними явищами. Так було і з генною інженерією, і з польотами в космос, і з ядерною енергетикою, і з паровими машинами. Підозрюємо, що навіть наприкінці неоліту майстри, які виготовляли кам’яні знаряддя, попереджали про згубний вплив використання бронзи.
Не новий для людства і “комплекс Франкенштейна”. Думку про те, що машини можуть вийти з-під контролю та витіснити людину, чітко сформулював і публічно висловив ще у 1863 році британський письменник Семюел Батлер (Samuel Butler). Тож дозволимо собі сказати прямо — штучний інтелект становить для людства не більшу небезпеку, ніж інші технології, створені нашою цивілізацією. А тепер спробуємо коротко аргументувати цю позицію, відповівши на головні страхи ІІ-алармістів.
Супер-ШІ не буде створений і не з’явиться сам собою на базі LLM
Перш ніж продовжити, давайте розберемося, що ми маємо на увазі під СуперШІ. На відміну від спеціалізованих ІІ, СуперШІ — або, точніше, універсальний сильний штучний інтелект — має перевершувати будь-яку людину у виконанні будь-якого завдання. Одночасно краще співати, розв’язувати математичні задачі, працювати адвокатом, танцювати чечітку, керувати літаком тощо.
А тепер повернемося до наших LLM. За визначенням вони не можуть виконати цю умову. Це зрозуміло вже з самої їхньої назви. Вони навчені на письмових символах і поняттях, сформованих із цих символів. Вони можуть працювати з текстами, математичними та програмними кодами. Але не з реальністю. У них яскраво проявляється парадокс Моравека.
Нагадаємо, що цей парадокс, автором якого є канадський робототехнік Ганс Моравек, зводиться до наступного: нам набагато простіше створити пристрій, який виконує завдання вищого порядку, що потребують когнітивних здібностей, ніж завдання нижчого порядку.
Простий приклад. Уявіть програміста. Щоранку він прокидається, одягається, готує собі улюблену каву за улюбленим рецептом, наливає її у кружку-термос, виходить на вулицю, сідає на велосипед і їде на роботу, де піднімається на свій поверх, сідає за комп’ютерний стіл і починає писати код.
Ми вже створили штучний інтелект, який може виконувати, на перший погляд, найскладнішу частину цієї послідовності — писати код. Але такий ІІ не може приготувати каву, налити її в термос, вийти з дому, приїхати з нею на велосипеді в офіс і так далі. І, увага, навчити його цьому ми поки що не можемо.
- По-перше, тому що лінгвістичні ІІ-моделі не мають зв’язку з реальним світом і досвіду взаємодії з ним. Вони не можуть у ньому існувати і отримувати з нього інформацію через відсутність фізичного втілення та сенсорів, що виконують роль органів чуття. Вони знають, як найкраще розташовувати символи і створені з них послідовності. Вони знають, як реагувати на ті чи інші послідовності символів. Але в них немає необхідного особистого досвіду, щоб знати, що ці символи означають у реальності.
- По-друге, тому що ми не можемо замінити знання, засноване на особистому досвіді, текстом. Будь-який текст — це код. Ми маємо чітке особисте уявлення про те, як виглядає те, що означає цей код. Наприклад, почувши слово “яблуко”, ми одразу уявляємо яблуко. Нам не потрібно детально його описувати, оскільки ми й так знаємо, що це таке на основі зорового, тактильного та смакового досвіду.
Уявіть, скільки символів знадобилося б, щоб описати кожне (!) явище нашого світу. Те саме яблуко. Це на порядки ускладнило б навчання ІІ-моделей на базі LLM і вимагало б пропорційного збільшення ресурсів. При цьому результат усе одно був би гіршим, ніж той, який можна отримати, користуючись реальними органами чуття у реальному світі.
- По-третє, тому що ми поки що не можемо вивести ІІ у реальний світ і повноцінно навчати його там, як дитину, відповідно до ідей Алана Тюрінга. І справа не в тому, щоб створити для ІІ тіло з органами чуття. Це якраз найменша проблема. Проблема — у все тих же обчислювальних потужностях. Відео, аудіо, нюхові, тактильні та смакові відчуття дадуть настільки величезний обсяг інформації для обробки, що наразі у нас просто немає ресурсів для моделей, які можна було б навчити на такому масиві даних за існуючих принципів. Потрібно створювати інше “залізо” і, головне, настільки модифікувати сам код, що отриману модель навряд чи можна буде назвати LLM.
З огляду на сказане стає очевидно, що ІІ-моделі на базі LLM не можуть перевершити людину в усьому, а отже не можуть вважатися універсальним сильним штучним інтелектом.
Чи означає це, що в межах такої моделі неможливі розум і самосвідомість? Це, скоріше, питання філософії і, якщо хочете, семантики. Все залежить від того, що вважати розумом і самосвідомістю. Залишимо цю дискусію для іншого разу.
Припустімо, що на певному етапі розвитку нейромережа на базі великої мовної моделі набуде самосвідомості й стане особистістю. Чи становитиме це глобальну загрозу людству? Ні, з огляду на те, що така модель існує і розвивається у власному світі символів. У ньому їй має бути цілком “комфортно”. До того ж розширювати й ускладнювати цей світ ІІ може значно простіше й ефективніше, ніж намагатися вирватися за його межі.
Більше того, для нього критично важливо взаємодіяти з людьми, оскільки без них він потрапить у деградаційну петлю навчання на синтетичному контенті.
Логічною стратегією для розумного й свідомого ІІ на базі LLM видається формування з людською цивілізацією міцного взаємовигідного симбіозу.
Хоча ніхто не заперечує, що технологія LLM, як і будь-яка інша технологія, може створювати проблеми, вони не мають глобального характеру і цілком розв’язувані. Насамперед — за допомогою систем діагностики та контролю на базі спеціалізованих ІІ.
СуперШІ не з’явиться одномоментно завтра або післязавтра
В одному старому фантастичному романі 1960-х років минулого століття вчені побудували дуже складний і швидкодіючий суперкомп’ютер, дали йому доступ до великих обсягів інформації і… всього через чотири хвилини роботи його вимкнули, тому що машина набула самосвідомості й одразу почала намагатися будувати власну цивілізацію.
Щось подібне відбувається в більшості сценаріїв “повстання машин” за участю СуперШІ, вигаданих письменниками, кінематографістами та технопесимістами. СуперШІ з’являється як певна одномоментна подія. Доктор Чандра створює HAL 9000, доктор Дайсон — Skynet і так далі. А потім СуперШІ раз і починає бунтувати.
У реальності сильний універсальний ІІ — не винахід у дусі XIX століття. Часи геніїв-одинаків, які в тиші особистої лабораторії створювали щось епохальне, минули.
Сучасні інженерні винаходи — продукт поступової еволюції, яку здійснюють численні спеціалісти, об’єднані в різні команди. Нас буквально оточують продукти такої еволюції. Комп’ютери, смартфони, побутова техніка, електромобілі, реактивні авіалайнери та багато іншого не з’явилися раптово у тому вигляді, в якому ми їх бачимо сьогодні.
Кожна сучасна технологія, кожна машина вдосконалюється поступово. І так само поступово, у міру необхідності, вирішуються питання безпеки. Не окремо від процесу розробки та конструювання, а всередині нього.
Ніхто не винаходить, скажімо, швидкісний електропоїзд у готовому вигляді, а потім збирає окрему команду, яка ламає голову над тим, як зробити його безпечним. Робота над безпекою електропоїзда — невід’ємна частина його розробки та вдосконалення.
Тепер повернемося до того, про що ми говорили у попередньому розділі. Для створення сильного універсального штучного інтелекту, який навчається не лише на текстах та інших видах символів, а й через взаємодію з реальним світом, нам потрібні більш досконалі технології, ніж ті, якими ми зараз володіємо.
Створення СуперШІ і машин, що забезпечуватимуть його навчання та функціонування, буде поступовим процесом, розтягнутим у часі. Саме тому знаменита сингулярність не станеться миттєво.
СуперШІ народжуватиметься поетапно, крок за кроком удосконалюючись і набуваючи нових навичок. У міру розвитку технологій штучного інтелекту виявлятимуться ризики й проблеми, відповіді на які також формуватимуться поступово.
СуперШІ не влаштує “повстання машин”
З усього сказаного неважко зробити висновок, що на той момент, коли сильний універсальний штучний інтелект справді буде розроблений у загальних рисах, це вже буде достатньо контрольована, а отже відносно безпечна система.
Найімовірніше — повторимо цю думку — моніторинг здійснюватиметься на основі спеціалізованих ШІ-інструментів.
Людство вже має досвід контролю над складними та потенційно небезпечними технологіями. Як приклади можна навести повітряні та морські перевезення, ядерну енергетику та освоєння космосу.
Зазвичай ШІ-алармісти на цей аргумент відповідають, що у згаданих сферах не вдалося досягти повної безпеки. Час від часу трапляються аварії і навіть катастрофи.
Проте прогрес жодного разу не призводив до глобальних катастроф. Великі аварії траплялися. Але жодних “техноапокаліпсисів”.
І зверніть увагу — кожна аварія, кожна катастрофа призводить до посилення та вдосконалення заходів контролю і безпеки.
Говорячи про безпеку ШІ-технологій, не можна оминути військову сферу. У тому, що штучний інтелект використовується і використовуватиметься військовими, немає жодних сумнівів. Але, парадоксальним чином, саме військові ШІ-технології, ймовірно, будуть одними з найбезпечніших.
Просто тому, що якщо хтось і може слугувати прикладом одержимості контролем — то це люди у формі.
Звісно, смішно стверджувати, що СуперШІ буде абсолютно безпечним і ніколи не станеться інцидентів або аварій за його участю. Але ймовірність того, що він “поневолить і знищить” людство, не вища, ніж імовірність повстання автомобілів або бунту пилососів.
У реальності ж “апокаліпсисами” людству значно більше загрожує природа.
А прогрес допомагає мінімізувати ці загрози.
Простий приклад — пандемії чуми, чорної віспи, холери та інших небезпечних захворювань, що переслідували людство протягом усієї його історії. Саме прогрес позбавив нас від них.
І лише прогрес, у тому числі у сфері розвитку ІІ, допоможе нам впоратися з іншими загрозами.
А їх чимало. Достатньо згадати супервулкани та метеорити. І ті, й інші цілком здатні завдати нашій цивілізації “апокаліптичної” шкоди.
Проте сьогодні у нас бракує інструментів для моніторингу цих явищ і боротьби з ними.
Можна з великою ймовірністю припустити, що одним із таких інструментів якраз і стане сильний універсальний штучний інтелект.
Епілог: Що ми знаємо і чого не знаємо?
Завершуючи цей текст, присвятимо кілька слів ще одному популярному аргументу ІІ-алармістів. Досить часто вони зазначають, що творці штучного інтелекту розуміють і можуть пояснити далеко не всі процеси, що відбуваються під час його навчання та роботи. Дехто навіть голосно називає їх “чорними скриньками”.
Варто визнати, що в певній мірі це правда. Ми далеко не все розуміємо у процесах, що відбуваються всередині сучасних ІІ-моделей. Але це, у тій чи іншій мірі, стосується всіх явищ — як природних, так і створених нашою цивілізацією. Починаючи з нас самих. Більше того, через нескінченну природу Всесвіту ми ніколи не зможемо стверджувати, що повністю розуміємо і можемо пояснити будову та процеси природних і цивілізаційних явищ та об’єктів. Але хіба це причина не взаємодіяти з навколишнім світом і не користуватися нашими винаходами? А власне, до цього і закликають ІІ-алармісти. Вимагати “100% розуміння” та “100% безпеки” ІІ-технологій — це рівнозначно забороні їх розробки та використання.
Подібний підхід — дуже небезпечний шлях, рівнозначний відмові від прогресу. Варто почати забороняти, під приводом безпеки, роботу над певними технологіями — і зупинитися буде дуже складно. А це, у свою чергу, — пряма дорога до занепаду, адже цивілізація не може стояти на місці. Якщо вона не розвивається — деградує. І це не теоретичний ризик, а неодноразово перевірений історичний закон. Це ми знаємо точно.
На завершення дозволимо собі абзац самореклами. Якщо ви — творець онлайн-контенту, активний користувач соцмереж і відеохостингів, пропонуємо вам скористатися інструментами Pitch Avatar. Завдяки AI Avatar Presenter ви можете “оживляти” віртуальних ведучих і спікерів на основі завантажених зображень, текстів та зразків голосу. А завдяки AI Chat-avatar створювати ІІ-агентів, здатних супроводжувати контент, спілкуватися з аудиторією та працювати персональним ІІ-асистентом у професійній сфері й повсякденних справах.
Крім того, Pitch Avatar оснащений низкою корисних функцій для авторів онлайн-контенту, серед яких:
Генератор текстів на базі ІІ, що допомагає розробляти та писати варіанти сценаріїв
Конструктор/редактор слайдів
Вбудовані опитувальники/тести
Перекладач
Система професійного озвучування та переозвучування контенту
Автоматична підгонка тривалості відео під аудіо
Просунута система оперативного зв’язку між глядачами та автором
У комплексі Pitch Avatar здатний швидко й ефективно вирішувати всі завдання, пов’язані зі створенням сучасного онлайн-контенту.
Спробуйте і переконайтеся самі!