Нужно ли ограничивать использование ИИ?

Авторы из команды Pitch Avatar предлагают свой ответ на популярный вопрос вынесенный в заголовок.

Бурное развитие искусственного интеллекта и решений на его базе почти сразу же породило движение за ограничение его использования. Совершенно серьезно разрабатываются правила и даже законы, касающиеся границ использования ИИ. Например, в академической и образовательной сфере. Или в публицистике и журналистике. Или в политике. Речь идет не только о том, чтобы информировать о том, что контент создан с помощью ИИ, но и о том, чтобы в ряде случаев запрещать пользоваться ИИ-инструментами и решениями. Давайте разберемся, откуда “растут ноги” у такого рода идей. И попробуем оценить их перспективы.

Дьявольские станки

Начнем издалека. Один из авторов еще застал времена, когда ученикам в школе разрешалось использовать исключительно чернильные ручки для того, чтобы вырабатывался хороший почерк. А еще категорически запрещалось пользоваться калькуляторами – чтобы ученики освоили “полезный” навык вычислений на бумаге. Заметим, дело было уже ПОСЛЕ изобретения и начала распространения ПК. Уже тогда было очевидно, что с практической точки зрения упомянутые навыки для большинства учеников не то, чтобы совсем бесполезны… Но, скажем так, второстепенны. Куда полезнее было бы учить “слепому” методу печати на клавиатуре, грамотному использованию ПК, программированию и вычислениям с помощью специальных компьютерных программ. Короче, всему тому, чему вполне спокойно учат нынешних школьников. К слову, автор и его одноклассники, несмотря на запреты, спокойно пользовались калькуляторами. Просто делали это тайком – под партой.

Догадываетесь, к чему мы клоним? Прогрессивные решения всегда пробивает себе дорогу к повседневному использованию во всех сферах человеческой деятельности. В том числе в исследованиях и образовании. И всегда – через грозные окрики и серьезные предупреждения консерваторов. Начиная от педагогов, которые опасаются, что благодаря новинкам (позавчера – компьютерам, вчера – смартфонам и интернету, сегодня – ИИ) очередное поколение будет глупее предыдущего, заканчивая техноалармистами, которые на каждом витке прогресса кричат о том, что человечество становится слишком зависимо от разнообразных изобретений.

Нечто подобное наблюдалось в ранней истории книгопечатания. В ряде городов и стран переписчики и каллиграфы на разных уровнях боролись с распространением печатных станков. Кто-то лоббировал свои интересы на уровне правителей. Кто-то организовывал нападения на типографии и их работников. А кто-то через отцов церкви объявлял печатный станок дьявольским изобретением.

Последний аргумент, к слову, с завидной прилетал в адрес любых технических новинок. Мол, любое изобретение облегчает труд человека, а значит способствует лени. Не правда ли, похоже на рассуждения тех людей, которые сетуют на то, что изобретения, облегчающие интеллектуальный труд “оглупляют” людей, поскольку их разум “ленится”?

Фобии и зависть

К сожалению, насколько можно судить, в ряде случаев побудительные мотивы борцов за ограничение использования ИИ далеки от того, что можно назвать стремлением “сделать мир лучше”. Нередко они основаны на разного рода страхах.

Во-первых, это обычная технофобия. Из нее проистекает инфантильное и невыполнимое требование к изобретателям, конструкторам и разработчикам сделать новую технологию “абсолютно безопасной”. Однако сама природа нашего мира такова, что стопроцентные гарантии безопасности невозможны в принципе. Под многими, кажущимися разумными рассуждениями на тему: “Давайте отложим внедрение и еще поработаем над безопасностью” кроется обычный иррациональный страх перед всем новым. Давайте скажем честно – при таком подходе пароход Фултона никогда бы не поплыл, паровоз Стефенсона – не поехал, а самолет братьев Райт – не полетел.

Как в спорах о внедрении и использовании ИИ отличить технофоба? Довольно просто.

Технофобы напрочь отвергают концепцию “разумного риска”. Кроме того, они, как правило, отказываются от взвешенной оценки технологии, предлагая рассматривать исключительно возможные негативные последствия. В том числе и совершенно фантастические.

Во-вторых, это луддизм. Иначе говоря – страх потерять работу. Или, если смотреть на это явление шире – страх перед вызванными новыми технологиями изменениями, которые могут заставить меняться самого и менять свой образ жизни. Проводя грубую аналогию – страх извозчиков перед автомобилями. Пафосные рассуждения о том, что “роботы крадут работу у людей”, будто сошедшие со страниц книг Айзека Азимова – визитная карточка современных луддитов. Никто не спорит с тем, что прогресс может вызывать и, как правило вызывает, болезненные процессы на рынке труда. Однако совершенно очевидно это не повод запрещать и ограничивать технологии. Вместо этого нужно создавать социальные и общественные механизмы, помогающие людям адаптироваться к новым условиям. Поиск такого рода механизмов – отличительная особенность тех, кто заботятся о реальном решении проблемы, от неолуддитов.

Заметим, что в свете этого нужно думать о том, как внедрить ИИ в процесс образования и обучать работе с инструментами на его основе, а не о том, как ограничить его использование в этой сфере.

Закончим же мы этот раздел таким неприятным явлением, как зависть. Одному из авторов в свое время довелось иметь дело со старым опытным редактором, который, глядя на молодых коллег, любил ворчать, указывая на компьютеры, за которыми те работали: “За что вам платят деньги?” Говоря проще – среди противников широкого внедрения ИИ находятся те, кто считают, что нынешнему поколению работается слишком легко. “Раз мне было трудно, пусть и им будет трудно”, – примерно так можно сформулировать их мотивы. Разумеется, они никогда в этом не признаются и будут искать красивые обоснования своей позиции, вроде рассуждений о том, что использование современных технологий “оглупляет” и мешает “вырабатывать красивый почерк”.

“Гильотина Кларка” вместо запретов

На первый взгляд может показаться, что авторы являются сторонниками бесконтрольного внедрения и распространения ИИ-инструментов везде и всюду. Но это не так. Мы просто указываем на то, что формальные запреты и ограничения ничего не дадут. Люди будут пользоваться искусственным интеллектом где можно и где нельзя. Мы не просто так приводили пример с калькуляторами под партами.

Кроме того, темпы развития ИИ позволяют предположить, что в самом ближайшем будущем отличить результаты работы искусственного интеллекта от результатов работы человека будет практически невозможно. Как в таком случае “ограничители и запретители” намерены контролировать соблюдение ограничений и запретов? Объективно следует признать, что ИИ, как популярная технология, будет применяться и использоваться везде – начиная от дошкольного образования, заканчивая управлением такими сложными системами, как международные корпорации, государства и надгосударственные объединения. Вместо запретов и ограничений следует сосредоточиться на двух, вполне решаемых задачах.

Первая – создание “компетентных” ИИ-агентов. Иначе говоря, тех, которые способны справляться с поставленными перед ними задачами без машинного бреда и галлюцинаций. По всей видимости, создание таких решений станет возможно после появления Сильного ИИ.

Вторая – разработка и внедрение системы контроля за ИИ-агентами, при которой последнее слово всегда остается за человеком. Когда-то фантаст и ученый Артур Кларк, много страниц своего творчества посвятивший теме искусственного интеллекта и взаимоотношениям его с человеком, высказался в том духе, что у людей всегда должна оставаться возможность “выдернуть ИИ из розетки”. В одном из своих романов он даже описал гипотетическое устройство, названное им гильотиной, которое должно было отключить питание суперкомпьютера с ИИ, по команде человека. Так вот – пришло время человечеству задуматься над тем, чтобы обзавестись такого рода “гильотиной”.

Будет ли это этично, если появится Сильный ИИ, который будет признан личностью равной людям? Думаем, никто не будет спорить с тем, что человечество должно сохранять за собой право на последнее слово во всех вопросах и решениях, касающихся людей. Однако при этом, нам стоит уже сегодня начать обсуждать “степень личной свободы” Сильного ИИ. И это куда важнее, чем спорить, о том, как и где можно/нельзя использовать инструменты на базе искусственного интеллекта.