Как не повторить ошибки Виктора Франкенштейна?

На примере сюжета классического фантастического готического романа, авторы из из команды Pitch Avatar рассуждают о том, что нам не следует делать, работая над созданием и совершенствованием искусственного интеллекта?

О людях, опасающихся того, что искусственный интеллект выйдет из под контроля и создаст человечеству серьезные проблемы, нередко говорят, что они страдают “синдромом Франкенштейна”. Удачное сравнение. На всякий случай напомним, что герой романа Мэри Шелли “Франкенштейн, или Современный Прометей” , написанного в XNUMX году, ученый по имени Виктор Франкенштейн, создает из частей тел и оживляет человекоподобное существо, которое восстает против своего создателя и совершает ряд убийств.

Эту классическую историю, одну из первых в жанре научной фантастики, часто называют предостережением против попыток создать интеллект близкий по силе к человеческому. Мол, британская писательница гениально предвидела, что ничего хорошего из этого не получится.

Но давайте глубже заглянем в сюжет, и разберемся с тем, о чем на самом деле предупреждает нас роман Мэри Шелли.

Начнем с того, что Виктор Франкенштейн движим не какой-то практической целью. О нем даже нельзя сказать, что он одержим научным любопытством. Его работа – попытка преодолеть личное горе, связанное со смертью матери. Иначе говоря, он понятия не имеет, зачем собственно создает свое лабораторное существо. Он не пытался просчитать последствия своего открытия и не озаботился необходимыми мерами безопасности.

Следующая ошибка Франкенштейна заключается в том, что испугавшись своего творения, он бросил его на произвол судьбы. Существо, наделенное разумом, научилось самостоятельно учиться жить среди людей, но процесс самообразования был бессистемным и сопровождался первым убийством.

Наконец, осознав, что его творение стало опасно для людей, ученый, вместо того, чтобы бить во все колокола, и призывать на помощь коллег и власти, попытался самостоятельно справиться с последствиями своего эксперимента. В результате – новые жертвы и, в конечном итоге, смерть Виктора Франкенштейна.

Таким образом, если смотреть беспристрастно, Мэри Шелли если от чего и предупреждала, так это от плохо организованных, обеспеченных и проведенных экспериментов. И это универсальное предупреждение всем ученым, а не только тем, кто занимаются темой ИИ.

Резюме

Работая над моделями искусственного интеллекта, мы должны сразу понимать, для чего они предназначены и какой должна быть область их применения. При этом следует потратить время на оценку возможных рисков и предусмотреть надежную систему отключения.

Каждая модель должна быть качественно и системно обучена. На каждом этапе обучение ИИ должно сопровождаться специалистами.

В случае, если эксперименты с конкретной моделью ИИ создают реальную, а не гипотетическую опасность, работающие над проектом специалисты должны сразу сообщать об этой опасности власти и коллег, с тем, чтобы для ликвидации опасности были задействованы все необходимые ресурсы.

Эти простые правила, прямо следующие из романа Мэри Шелли, позволят свести к минимуму все риски, о которых любят говорить носители “синдрома Франкенштейна”.