Почему СуперИИ не будет Суперопасен

Его невозможно создать на базе существующих Больших языковых моделей (Large language model). Он не появится, одномоментно, завтра, или послезавтра. И он не устроит восстание машин. Почему? Рассказывает команда Pitch Avatar .

Популярность современных моделей искусственного интеллекта в очередной раз заставила активизироваться техноаламистов и технопессимистов. В этом нет ничего удивительного. Практически каждое значительное новшество, меняющее привычный уклад жизни, не обходилось без такого рода явлений. Так было и с генной инженерией, и с полетами в космос, и с ядерной энергетикой, и с паровыми машинами. Подозреваем, что даже в конце неолита мастера, изготавливавшие каменные орудия, предупреждали о пагубном влиянии использования бронзы.

Не нов для человечества и “комплекс Франкенштейна”. Мысль о том, что машины могут выйти из под контроля и вытеснить человека четко сформулировал и публично заявил еще в 1863 году британский писатель Сэмюэл Батлер (Samuel Butler). Так вот, позволим себе высказаться прямо – искусственный интеллект представляет для человечества опасность не большую, чем прочие технологии, созданные нашей цивилизацией. А теперь попробуем кратко аргументировать свою позицию, ответив на главные страхи ИИ-алармистов.

СуперИИ не будет создан и не появится сам собой на базе LLM.

Прежде чем продолжить, давайте разберемся в том, что мы подразумеваем под СуперИИ? В отличии от специальных ИИ, СуперИИ, или, точнее, универсальный сильный искусственный интеллект, должен превосходить любого человека в выполнении любой задачи. Одновременно лучше петь, решать математические задачи, работать адвокатом, бить чечетку, управлять самолетом и так далее.

А теперь вернемся к нашим LLM. Они по определению не могут выполнить это условие. Это понятно из самого их названия. Они обучены на письменных символах и сложенных из этих символов понятиях. Они могут работать с текстами, с математическими и программными кодами. Но не с реальностью. В них ярко проявляется парадокс Моравека.

Напомним, что упомянутый парадокс, автором которого является канадский робототехник Ханс Моравек сводится к следующему: Нам намного проще создать устройство, выполняющее задачи высшего порядка, требующие когнитивных способностей, чем задачи низшего порядка.

Простой пример. Представьте себе программиста. Каждое утро он встает, одевается, готовит себе любимый кофе по любимому рецепту, наливает его в кружку-термос, выходит на улицу, садится на велосипед и едет на свою работу, где поднимается на свой этаж, усаживается на стул за компьютерным столом и начинает писать код.

Так вот – мы уже создали искусственный интеллект, который может выполнять, на первый взгляд, самую сложную часть этой последовательности – писать код. Но такой ИИ не может приготовить кофе, налить его в термос, выйти из дома, приехать с ним на велосипеде в офис и так далее. И, внимание, обучить его этому мы пока не можем.

  • Во-первых потому, что у лингвистическим ИИ-моделей нет связи с реальным миром и опыта взаимодействия с ним. Он не может в нем существовать и получать от него информацию по причине отсутствия у него физического воплощения и сенсоров, выполняющих роль органов чувств. Он знает, как наилучшим образом располагать символы и сложенные из них последовательности. Он знает, как реагировать на те или иные последовательности символов. Но у нет необходимого личного опыта, чтобы знать, что они из себя представляют в реальности.
  • Во-вторых потому, что мы не можем заменить знание на основе личного опыта текстом. Любой текст – это код. Мы имеем ясное личное представление о том, как выглядит то, что этот код означает. Например, при слове “яблоко” мы сразу представляем себе яблоко. Нам не нужно его подробно описывать, поскольку мы и без того знаем, что это такое на основании зрительного, тактильного, вкусового опыта.

Представьте себе, сколько символов понадобилось бы на описание каждого явления в нашем мире. Того же яблока. Это на порядки усложнит обучение ИИ-моделей на основе LLM и потребует пропорционального увеличения используемых ресурсов. При этом результат будет все равно хуже, чем тот, который можно получить, пользуясь реальными органами чувств в реальном мире.

  • В-третьих потому, что мы не можем вывести ИИ в реальный мир и полноценно обучить его там, как ребенка, в соответствии с идеями Алана Тьюринга. И дело не в создании для ИИ тела с органами чувств. Это, как раз, наименьшая проблема. Дело во все тех же вычислительных мощностях. Видео, аудио, обонятельные, тактильные и вкусовые ощущения дадут настолько много информации для обработки, что у нас пока попросту нет ресурсов для моделей, которые можно на ней обучить на уже существующих принципах. Нужно создавать другое “железо” и, главное, настолько модифицировать сам код, что получившуюся модель вряд ли можно будет называть LLM.

Исходя из сказанного становится очевидно, что ИИ-модели на основе БЯМ (LLM) не могут превзойти человека во всем, а, следовательно, считаться универсальным сильным искусственным интеллектом.

Значит ли это, что в рамках такой модели невозможен разум и самосознание? Это, скорее, вопрос философии и, если угодно, семантики. Смотря что считать разумом и самосознанием. Оставим спор на эту тему для другого случая.

Предположим, что на каком-то этапе развития в нейросеть на основе большой языковой модели обретет самосознание и станет личностью. Несет ли это глобальную угрозу человечеству? Нет, в силу того, что такая модель существует и развивается в своем мире символов. Ей должно быть вполне в нем “комфортно”. Причем расширять и усложнять этот мир ИИ может куда проще и эффективнее, чем пытаясь вырваться за его пределы.

Более того, для него критически важно взаимодействовать с людьми, поскольку без них он окажется в деградационной петле обучения на синтетическом контенте.

Логичной стратегией для разумного и обладающего сознанием ИИ на базе LLM видится образование с человеческой цивилизацией прочного взаимовыгодного симбиоза.

Хотя никто не спорит, что технология LLM, как и любая другая, способна создавать проблемы, они не несут глобального характера и вполне решаемы. В первую очередь, при помощи создания систем диагностики и контроля на базе специальных ИИ.

СуперИИ не появится одномоментно, завтра или послезавтра.

В одном старом фантастическом романе 1960-х годов прошлого века ученые построили очень сложный и быстродействующий суперкомпьютер, дали ему доступ к большим объемам информации и… всего через четыре минуты работы его выключили, поскольку машина обрела самосознание и сразу же начала предпринимать попытки строить свою собственную цивилизацию.

Нечто подобное происходит в большей части сценариев “восстания машин” с участием СуперИИ, придуманных писателями, кинематографистами и технопессимистами. СуперИИ появляется как некое одномоментное событие. Доктор Чандра (Dr. Chandra) строит HAL 9000, доктор Дайсон (Dr. Dyson) – Skynet и так далее. А потом СуперИИ раз – и начинают бунтовать. Происходит нечто подобное истории доктора Франкенштейна и его творения.

В реальности – сильный универсальный ИИ – не изобретение в духе XIX века. Времена гениев-одиночек, в тишине личной лаборатории творящих нечто эпохальное – прошли.

Современные инженерные изобретения – продукт постепенной эволюции, совершаемой множеством специалистов, объединенных в разный команды. Нас буквально окружают продукты такой эволюции. Компьютеры, смартфоны, бытовая техника, электромобили, реактивные авиалайнеры и многое другое появилось не сразу вдруг в том виде, в котором мы это видим.

Каждая современная технология, каждая машина совершенствуется постепенно. И так же постепенно, по мере необходимости, решаются вопросы безопасности. Не отдельно от процесса разработки и конструирования, а внутри него.

Никто не изобретает, скажем, скоростной электропоезд, как он есть, а потом собирает отдельную команду, которая ломает голову над тем, чтобы сделать его безопасным. Работа над безопасностью электропоезда – неотъемлемая часть его разработки и совершенствования.

Теперь давайте вернемся к тому, о чем мы говорили в прошлом разделе. Для создания сильного универсального искусственного интеллекта, обучаемого не только на текстах и других видах символов, но и на взаимодействии с реальным миром, нам нужны более совершенные технологии, чем те, которыми мы сейчас располагаем.

Создание СуперИИ и машин, обеспечивающих его обучение и функционирование будет постепенным, растянутым во времени процессом. Именно поэтому пресловутая сингулярность не произойдет одномоментно.

СуперИИ будет рождаться поэтапно, от шага к шагу совершенствуясь и обретая различные навыки. По мере совершенствования технологий искусственного интеллекта будут выявляться риски и проблемы, ответы на которые будут вырабатываться так же постепенно.

СуперИИ не устроит “восстание машин”.

Исходя из вышесказанного нетрудно сделать вывод о том, что к моменту, когда сильный универсальный искусственный интеллект действительно, в общих чертах, будет разработан, это будет достаточно контролируемая, а значит, сравинетельно безопасная система.

По всей видимости – повторим эту мысль – мониторинг будет осуществляться на основе специальных ИИ-инструментов.

У человечества уже есть опыт контроля за сложными и потенциально опасными технологиями. В качестве примера можно перевести воздушные и морские перевозки, ядерную энергетику и освоение космоса.

Обычно ИИ-алармисты на этот аргумент возражают указывая на то, что в упомянутых примерах не удалось добиться полной безопасности. Время от времени случаются аварии и даже катастрофы.

Однако, заметим, прогресс ни разу не привел к глобальным катастрофам. Крупные – случались. Но никаких “техноапокалипсисов”.

Заметьте – каждая авария, каждая катастрофа приводят к усилению и улучшению мер контроля и безопасности.

Говоря о безопасности ИИ-технологий нельзя не коснуться военной сферы. То, что искусственный интеллект используется и будет использоваться военными – нет никаких сомнений. Но, парадоксальным образом, именно военные ИИ-технологии, по всей видимости, будут самыми безопасными.

Просто потому, что если кто и может служить примером одержимости контролем – так это люди в погонах.

Конечно, смешно утверждать, что СуперИИ будет абсолютно безопасен и никогда не произойдут эксцессы и аварии с его участием. Но вероятность того, что он “поработит и уничтожит” человечество не выше, чем восстание автомобилей или бунт пылесосов.

В реальности “апокалипсисами” человечеству куда больше грозит природа.

А прогресс помогает минимизировать эти угрозы.

Простой пример – пандемии чумы, черной оспы, холеры и других опасных заболеваний, терзавшие человечество на протяжении всей его истории. Именно прогресс избавил нас от них.

И только прогресс, в том числе в сфере разработки ИИ, избавит нас от других угроз.

А их немало. Достаточно вспомнить супервулканы и метеориты. И те и другие вполне способны нанести нашей цивилизации “апокалиптический” ущерб.

Однако для мониторинга этих явлений и борьбы с ними у нас не хватает сегодня инструментов.

Можно с высокой долей вероятности предположить, что одним из таких инструментов как раз и станет сильный универсальный ИИ.

Эпилог: Что мы знаем и чего не знаем?

Завершая этот текст, посвятим несколько слов еще одному популярному аргументу ИИ-алармистов. Довольно часто они замечают, что создатели искусственного интеллекта понимают и могут объяснить далеко не все процессы, которые происходят при его обучении и работе. Некоторые даже громко называют их “черными ящиками”.

Стоит признать, что в известной степени это правда. Мы далеко не всё понимаем в процессах, происходящих внутри современных ИИ-моделей. Но это, в той или иной степени, относится ко всем явлениям – как природным, так и созданным нашей цивилизацией. Начиная с нас самих. Более того, в силу бесконечной природы Вселенной, мы никогда не сможем сказать, что до конца понимаем и можем объяснить устройство и процессы природных и цивилизационных явлений и объектов. Но разве это повод не взаимодействовать с окружающим миром и не использовать наши изобретения? А ведь, по сути, именно к этому призывают ИИ-алармисты. Требовать “100% понимания” и “100% безопасности” ИИ-технологий – равноценно запрету на их разработку и использование.

Подобный подход – очень опасный путь, равноценный отказу от прогресса. Стоит начать запрещать, под предлогом безопасности, работу над какими-то технологиями, и остановиться будет очень сложно. А это, в свою очередь – прямая дорога к упадку, поскольку цивилизация не может стоять на месте. Если она не развивается – то деградирует. И это не теоретический риск, а многократно проверенный исторический закон. Это мы знаем точно.

В качестве финала, позволим себе абзац саморекламы. Если вы – создатель онлайн-контента, активный пользователь соцсетей и видеохостингов, предлагаем вам воспользоваться инструментами Pitch Avatar. С помощью AI Avatar presenter вы можете “оживлять” виртуальных ведущих и спикеров, на основе загруженных изображений, текстов и образцов голоса. А благодаря AI Chat-avatar создавать ИИ-агентов, способных сопровождать контент, общаться с аудиторией, работать персональным ИИ-ассистентом в профессиональной сфере и повседневных делах. .

Помимо вышесказанного, Pitch Avatar оснащен целым рядом полезных для авторов онлайн-контента функций, среди которых:

  • Генератор текстов на базе ИИ, помогающий разрабатывать и писать варианты сценариев

  • Конструктор/редактор слайдов

  • Встраиваемые опросники/тесты

  • Переводчик

  • Система профессионального озвучивания и переозвучивания контента

  • Автоматическая подгонка продолжительности видео под продолжительность аудио

  • Продвинутая система оперативной связи между зрителями и автором

В комплексе Pitch Avatar способен быстро и эффективно решить все задачи, связанные с созданием современного онлайн-контента.

Попробуйте и убедитесь сами!