Одна из самых популярных тем, касающихся искусственного интеллекта – угрозы, связанные с его развитием и внедрением. Рано или поздно она обязательно всплывает в беседах и спорах с коллегами, клиентами и просто интересующимися темой ИИ людьми.
При этом сценарии обсуждаются до ужаса банальные. Перечислять их не буду – все они многократно обыграны писателями и кинематографистами. Как правило, все сводится к злобному ИИ, внезапно решающему, что люди представляют для него угрозу и обрушивающему на них что-нибудь смертоносное в глобальном масштабе. Ядерное оружие, например. Или смертельный вирус.
При этом как-то упускается из виду, что у ИИ нет и быть не может мотивов нападать на людей. Для этого ему нужны близкие к человеческим инстинкты и эмоции, которые будут подталкивать к соответствующим решениям. Но он не человек и вообще не биологическое существо. У него совершенно другие задачи и другая система положительных и отрицательных откликов. И именно они задают направление “эволюции” ИИ-моделей.
Что еще важнее, современные ИИ физически не располагают необходимыми ресурсами для того, чтобы причинить существенный вред человечеству. Грубо говоря – искусственный интеллект просто не может захватить управление над стратегическим оружием или создать и распространить вирус. У него нет для этого… Собственно, ничего нет. Чтобы понять, каковы реальные возможности современного искусственного интеллекта, вспомните о том, что мы до сих пор не смогли создать ИИ-решения, способные водить автомобиль в обычном городском режиме. Даже самый продвинутый автопилот может обходиться без человека только в полигонных условиях.
Значит ли это, что ИИ вообще не несет никакой опасности? Разумеется, нет. Это же технология. Любая технология может быть опасна. Просто, в данном случае, большинство пользователей эту опасность не замечают и не осознают.
Дело в том, что ИИ способен ошибаться. “Галлюцинировать”, “генерировать бред” – называйте, как хотите. В данном случае дело не в названии и не в техническом объяснении этих ошибок. Важно, что они есть. do Сами по себе они, разумеется, не несут никакой серьезной угрозы. Достаточно проверять все результаты работы ИИ-моделей…
Думаю, вы уже поняли, какой угрозе, связанной с искусственным интеллектом, посвящен этот текст. Дело в том, что люди все больше склонны доверять суждениям, предложениям и результатам работы ИИ без проверки. Особенно дети и подростки. Для них искусственный интеллект – доброжелательный, дружелюбный и всезнающий компаньон, который всегда рядом. Спаситель от домашних заданий. Помощник во всех делах. Советчик по всем вопросам. В том числе по тем, с которыми стыдно или страшно обратиться к взрослым.
Подобное слепое доверие к решениям машинных алгоритмов я наблюдала еще тогда, когда работала с поисковыми системами. Эффект “первой десятки” выдачи по поисковому запросу срабатывал на подавляющем большинстве пользователей. То есть, давая какой-то запрос поисковой системе (не важно какой) среднестатистический пользователь даже не пытается смотреть, что нашлось на XNUMX-й, XNUMX-й, XNUMX-й странице поиска, ограничиваясь максимум первыми десятью ссылками на XNUMX-й странице. При этом веря, что чем выше ссылка в результатах поиска – тем она лучше отвечает его запросу. Как правило так оно и есть. Но отнюдь не в XNUMX% случаев.
Весьма вероятно, что за счет “человечности” общения ИИ-чатов, доверие к искусственному интеллекту может оказаться даже выше, чем к традиционным поисковикам. Вполне может сложиться ситуация, когда практически все люди будут без проверки принимать на веру почти все советы и решения ИИ
Именно такое безоговорочное доверие к искусственному интеллекту и является самой серьезной ИИ-угрозой. Легко представить себе, какими личными трагедиями может обернуться слепое следование советам ИИ по медицинским или юридическим вопросам. Но еще хуже, если решения ИИ будут без проверки использоваться в профессиональной сфере представителями отраслей, от которых прямо зависит качество жизни и сама жизнь других людей. Допустим, сотрудниками предприятий критической инфраструктуры, фармацевтической промышленности, сферы авиасообщений и тому подобных. Любое ошибочное предложение ИИ, принятое без проверки к исполнению, легко может обернуться катастрофой. Не глобальной, но чувствительной.
Что делать с этой угрозой? Для начала стоит подчеркнуть, что исходит она не от искусственного интеллекта, а от людей. По сути, слепая вера в технологии — это разновидность человеческой ошибки. Как бы мы ни совершенствовали искусственный интеллект, он, время от времени, будет допускать ошибки. А значит проверка результатов работы ИИ должна превратиться в условный рефлекс. Подобный застегиванию ремня безопасности при посадке в автомобиль. Идеальным решением, наверное, было бы внедрение в школах курсов, обучающих безопасному использованию ИИ. И, конечно, родителям стоит уделять внимание этой теме при воспитании детей.
Образно говоря, всегда стоит помнить простую истину – “непотопляемых” кораблей не существует.