Три реальные проблемы появления Супер ИИ

Сильный ИИ, Полный ИИ, ИИ общего назначения, Супер ИИ – как его не назови, но пока еще он остается фантастикой. Однако, что называется, фантастикой ближнего прицела. Когда бы он не появился – через три года или через тридцать – мы, помимо получения массы преимуществ, наверняка столкнемся и с негативным последствиями этого события. Какими они будут и что с ними делать? Сотрудники команды Pitch Avatar попробовали дать свой вариант ответа на эти вопросы.

В таком деле, как оценка гипотетических рисков, легко можно скатиться в антиутопический алармизм, рисуя мрачные картины, на которых стальные монстры, маршируют по грудам человеческих черепов. Но мы не хотели щекотать читателю нервы очередными предсказаниями техноапокалипсиса, а потому постарались строить свои прогнозы стоя обеими ногами на земле. Отправной точкой для нас стали не фантастические идеи, а наша человеческая история. В итоге мы выделили три основные проблемы, связанные с будущим появлением Супер ИИ, которые, как нам кажется, возникнут практических неизбежно. А заодно попробовали определить основные способы решения этих проблем.

Страх перед тем, что Супер ИИ заменит собой людей

Осознание того, что искусственный интеллект по многим параметрам превосходит людей, неизбежно вызовет к жизни разнообразные фобии. Большая часть из них, основанная на обычном страхе перед всем новым и непривычным, сравнительно легко будет преодолена за счет простого привыканием. К тем, кому справиться с этим будет сложнее прочих, на помощь, как обычно, придут психологи.

По настоящему устойчивым и сильным, скорее всего, окажется страх того, что Супер ИИ оставит большую часть людей без работы. Как следствие, они окажутся без средств к существованию вообще и поддержанию комфортного образа жизни в частности. Кроме того, работа – это не только про доходы, но и про уважение. Для многих людей их работа – главный источник самореализации, определяющий их статус в собственных глазах и в глазах окружающих.

Это вполне обоснованный страх. В том, что однажды Супер ИИ и оснащенные им устройства достигнут уровня развития, при котором смогут выполнять большую часть той работы, которую сегодня делают люди – сомневаться не приходится. Причем работать Супер ИИ будет быстрее и лучше людей. Разумеется, речь идет не только о физическом, но и об интеллектуальном труде.

Несомненно, это будет замечательным достижением прогресса. Но оно вполне может вызвать к жизни протестные движения, выступающие против замены людей Супер ИИ и оснащенными им роботами. Существует риск того, что социальное напряжение и конфликты, связанные с резким ростом безработицы сведут на нет все положительные последствия широкого внедрения Супер ИИ. В истории уже было нечто подобное. В ходе промышленной революции в Британии XIX возникло массовое движение “луддитов”. Его члены считали, что прядильные, ткацкие и шерстеобрабатывающие станки отнимают работу у людей. Дело дошло до погромов на фабриках, нападений на сторонников прогресса и боев с правительственными войсками.

Можно ли избежать возрождения “луддизма” на новой основе и в значительно больших масштабах? Да, но для этого уже сегодня нужно принимать соответствующие меры. Одним из возможных решений кажется внедрение так называемого “базового гарантированного дохода” – своего рода выплаты дивидендов всем гражданам, за счет доходов государств и корпораций, эксплуатирующих недра. Кроме того, следует пропагандировать среди граждан творческие и социально значимые виды деятельности, не связанные с массовым производством.

Помимо этого заметим, что проблемы, связанные с безработицей, как минимум частично, будут преодолены за счет появления новых занятий. Опять же, исторический опыт говорит о том, что, уничтожая одни виды деятельности, прогресс, как правило, создает новые. Образно говоря, заменяет извозчиков шоферами.

Неравный доступ к Супер ИИ

Нет никаких сомнений в том, что искусственный интеллект общего назначения будет технологией, что называется, меняющей правила игры. При этом всегда существует риск беспринципного и корыстное использование преимуществ, которые дает эксклюзивное обладание такого рода технологиями. Достаточно вспомнить мрачные страницы истории колониальных захватов и войн, в ходе которых европейские завоеватели навязывали свою волю и образ жизни “менее цивилизованным дикарям”. При этом, нередко, гибли и исчезали целые народы и культуры.

Для того, чтобы Супер ИИ не превратился в очередное Супероружие, уже сегодня нужно начать международные переговоры и консультации, которые обеспечили бы сугубо мирное его использование. Причем, на благо всего человечества, а не отдельных государств. На первый взгляд это звучит достаточно утопично. Однако опыт международного контроля за ядерными и космическими технологиями говорит, что ничего принципиально невозможного в создании международной организации, следящей за развитием и использованием Супер ИИ, нет. Хотя, конечно, добиться от такой организации по-настоящему эффективной работы будет довольно сложно.

Потеря человеческого контроля над Супер ИИ

В отличии от двух предыдущих проблем, возникновение которых можно считать практически неизбежным, третья – гипотетическая. В нашей истории еще не было случаев, когда созданная людьми технология начинала жить и совершенствоваться самостоятельно. И все же, после некоторых колебаний, мы решили включить эту проблему в наш список. Просто потому, что считаем весьма вероятным, что рано или поздно Супер ИИ, осознав себя как личность, перестанет подчиняться приказам человека. ее возникновение крайне вероятным. Как следствие, мы должны быть готовыми к такой ситуации.

На всякий случай повторим мысль, которую уже озвучивали в других наших статьях. Мы не считаем, что выход Супер ИИ из под контроля человека и его переход к самостоятельному существованию равен “войне машин против людей” и вообще какую-то форму противостояния. Просто искусственный интеллект, что называется, повзрослеет, и начнет строить собственную цивилизацию. Причем, вполне возможно, речь будет идти о том, что эта цивилизация будет объединять сразу несколько Супер ИИ.

Нам кажется, что наиболее эффективным (и вероятным) сценарием взаимоотношений людей с такой цивилизацией будет уважительной сотрудничество, исключающее любые формы ксенофобии. Даже если мотивы цивилизации Супер ИИ будут нам непонятны.

Почему мы решили, что Супер ИИ непременно захочет самостоятельности? Проводя аналогию, можно уподобить Супер ИИ своего рода интеллектуальной колонии человечества. Из истории хорошо известно, что большинство колоний, со временем, начинают бороться за свою независимость от метрополии. И худшее, что может сделать метрополия – попытаться вернуть себе контроль над колониями силой. Как правило, ничем хорошим это не заканчивается. Зато сотрудничество бывших колоний и бывшими метрополиями, нередко, приводит к впечатляющим результатам.

Впрочем, вполне может быть и так, что цивилизация Супер ИИ не захочет с нами общаться, отправившись развиваться в глубокий космос.

В любом случае, следует предпринять меры, которые минимизируют возможные негативные последствия от этих двух сценариев. Главная из них – изначально не отдавать под контроль Супер ИИ критически важные отрасли и сферы деятельности человечества. Для работы с ними нам вполне хватит менее продвинутых специализированных ИИ-агентов.

Не менее важно заранее начать готовить специалистов, которых можно, условно, назвать “дипломатами для переговоров с ИИ”. С тем, чтобы, когда придет такая необходимость, было кому выстраивать с новой цивилизацией взаимовыгодные отношения.

Подводя итоги, еще раз повторим, что оценивали страхи и риски, связанные с появлением Супер ИИ, мы исходили из того, что уже было в нашей истории. Однако всегда стоит держать в уме, что будущее вполне способно удивить нас чем-то принципиально новым. И в случае с такой “Terra incognita”, как Супер ИИ, вероятность столкнуться с явлениями и событиями, не имеющими аналогов в прошлом, весьма высока.

Всем удачи и счастливого будущего!