Фантазия или реальность: готов ли искусственный интеллект захватить мир

Фантазия или реальность: готов ли искусственный интеллект захватить мир
Акценты

В 2023 году нейросети стали заметным явлением общественной жизни в России: до широких народных масс наконец-то дошли программы, способные писать дипломные работы и создавать по любому запросу оригинальные картинки. Это придало новый импульс дискуссиям о взаимоотношениях человека и искусственного интеллекта – в том числе о том, какие опасности таит в себе такой контакт. Обозреватель РИАМО пообщался на эту тему с рядом специалистов.

ИИ может ошибаться

По словам профессора, руководителя департамента бизнес-информатики Высшей школы бизнеса НИУ ВШЭ Евгения Зараменских, новые технологии всегда встречались населением со страхами и опасениями.

«Вспомните появление автомобиля, самолета и т.д. И сегодня в плане реакции людей не происходит ничего нового», – отметил специалист.

Несмотря на это, по мнению профессора, общество и экономика нуждаются в инструментах, регулирующих области применения искусственного интеллекта.

«Использование ИИ-решений в некоторых сферах экономики, включая здравоохранение, управление транспортом, управление объектами электроэнергетики и прочих, на сегодняшний день может привести к катастрофическим последствиям. Регуляторы ЕС уже несколько лет активно рассматривают возможности по ограничению областей, где может применяться ИИ. А в США уже успели обозначить первую такую область: группа конгрессменов на днях внесла законопроект, запрещающий использовать ИИ для применения ядерного оружия», – рассказал Зараменских.

Профессор видит главную проблему в том, что «ИИ-решения могут ошибаться, при этом скорость развития решений значительно выше той, с которой разработчики смогут устранить ошибки в работе ИИ».

Риск появления суперинтеллекта

Генеральный директор компании «Формайнд», эксперт по цифровой трансформации Павел Гуштюк выделил пять главных опасностей, связанных с развитием ИИ:

  • Несбалансированные и неэтичные применения. ИИ может использоваться для массового сбора данных, слежки и нарушения частной жизни. Кроме того, если ИИ-системы обучены на смещенных данных, это может привести к дискриминации и неправомерным выводам;

  • Проблемы безопасности. С развитием ИИ увеличивается риск кибератак. Злоумышленники могут использовать ИИ для автоматического поиска уязвимостей и проведения атак, что может привести к серьезным последствиям для общества и экономики;

  • Автономные оружейные системы. Развитие ИИ может привести к созданию автономных оружейных систем, которые могут принимать решения о применении силы без прямого участия человека. Это вызывает опасения по поводу этических и международных проблем, связанных с применением таких систем;

  • Потеря рабочих мест. ИИ может заменить людей во многих областях труда, что может привести к росту безработицы и экономическим проблемам, если не будет принято соответствующих мер;

  • Риск суперинтеллекта. Теоретически существует вероятность появления ИИ с интеллектом, превосходящим человеческий. Если такая суперинтеллектуальная система будет преследовать цели, не соответствующие интересам человечества, это может иметь негативные последствия.

ИИ сложно понять

По мнению кандидата экономических наук, соучредителя группы компаний ITGLOBAL.COM Александра Стародубцева, технологии ИИ могут быть использованы в злонамеренных целях, например, для создания фальшивых новостей и кибератак.

«Системы ИИ могут усугубить существующие предубеждения, присутствующие в данных, на которых они обучаются. Это может привести к возможной дискриминации при приеме на работу, получении кредита, а также в сфере правоприменения», – считает эксперт.

Помимо возможного сокращения рабочих мест и роста безработицы, о которых говорят практически все опрошенные специалисты, Стародубцев назвал и довольно оригинальные опасности, связанные с развитием ИИ.

«Многие системы ИИ, особенно модели глубокого обучения, могут быть сложны для понимания, что затрудняет определение причин неверных или необъективных решений», – отметил эксперт.

Кроме того, опасным он считает и то, что «разработка и внедрение технологий ИИ контролируется небольшим числом крупных компаний или правительств, это может влиять на справедливость, равноправие и возможность злоупотребления этими технологиями».

А вот насчет апокалиптических сценариев о том, что ИИ захватит человечество или вызовет массовые разрушения, Стародубцев настроен скептически.

«В настоящее время системы ИИ в основном предназначены для выполнения конкретных задач, и для реализации сюжетов фантастических романов о восстании машин им не хватает общего интеллекта и автономности», – полагает специалист.

«Сильный» и «слабый» ИИ

Директор Trust&Safety «Авито» Андрей Рыбинцев отметил, что в массовом понимании нет различий между «сильным» и «слабым» ИИ, хотя именно здесь и кроется ответ на самый главный вопрос – заменит ли ИИ человечество.

«”Слабый” ИИ может решать конкретную задачу – например, играть в шахматы лучше людей. “Сильный” ИИ обладает сознанием и может успешно выполнять любые умственные задачи, которые под силу людям. Пока что человечеству не удалось создать “сильный” ИИ. При этом не стоит воспринимать определение “слабый” в контексте негативной оценки. Вся сила и прогресс, который достигнуты сегодня на уровне искусственного интеллекта, выполнены с помощью “слабого” ИИ. Такие решения помогли нам снизить количество рутинных задач – от заказа такси до перевода текстов, однако они не могут выйти за рамки предустановленных настроек», – объяснил эксперт.

ИИ сильно отстает от человеческого

Основатель риэлт-сервиса Arina Дмитрий Дьяконов уверен, что захват ИИ власти над человечеством – более фантастический сценарий развития событий, нежели реальный.

«Искусственный интеллект на текущий момент – не более чем база знаний, которая умеет выдавать ответы на вопрос пользователя на основе информации, хранящейся в этой базе данных. Общий интеллект, которым обладаем мы, как люди, ИИ не обладает. Мы осознаем, кто мы, куда двигаемся и чего хотим. Наша “нейронная сеть” преобразовывает всю информацию, которая поступает из внешнего мира», – объясняет специалист.

По его мнению, «искусственный интеллект, возможно, на десятки лет отстает от человеческого».

Нужно помнить о законах Азимова

Как и предыдущий спикер, эксперт в области IT-решений для цифровых медиа Александр Касьянов считает, что нейросети не захватят мир и не поработят человечество – по крайней мере, пока у них не появится свое сознание.

Несмотря на это, по мнению специалиста, ИИ необходимо регулировать.

«Необходимо заниматься разработкой правил, особенно в отношении соблюдения законов, начиная от этики и соблюдением прав детей и до соблюдений авторского права, так как желания мы прививаем ему свои, человеческие. И, поскольку нейросети обучаются на багаже знаний человечества, на всей литературе – то стоит не забывать про три закона робототехники Азимова и всегда их внедрять при проектировании систем с самозарождением сознания. Но я рад, что пока до них далеко», – поделился Касьянов.

Человек умер, да здравствует киберчеловек!

Руководитель направления аудитов и соответствия требованиям ИБ в УЦСБ Евгений Баклушин считает, что апокалиптические настроения в отношении ИИ – всего лишь проявление классического страха человека перед тем, что он не понимает.

«Нельзя очень точно предугадать, на что будет способен будущий ИИ, но вряд ли он способен уничтожить или поработить людей. Наиболее вероятная опасность для человека 2023 года – вероятность того, что мы либо последнее, либо одно из последних поколений классического человека в нашем понимании. Новый человек, вероятнее всего, будет своеобразным симбионтом между человеком, технологиями и ИИ. Такой вот киберчеловек», – полагает эксперт.

Человек для ИИ – как «неуловимый Джо»

Директор Координационного центра доменов .RU/.РФ Андрей Воробьев считает, что опасности, связанные с развитием ИИ, в основном надуманы.

«Несмотря на удивительные для большинства результаты, мы пока работаем с большими, но довольно примитивными по сути нейросетями, не обладающими даже зачатками интеллекта. Так что ожидать проблем нужно не в том, что ИИ поработит или уничтожит человечество, а скорее в том, что он будет банально не справляться с поставленным задачами – например, автопилоты автомобилей будут теряться в обстановке и давить людей, как сейчас это уже нередко происходит», – разбавил эксперт господствующие восторги по поводу нейросетей.

По мнению Воробьева, когда ИИ действительно будет создан, возможно, он и захочет что-то поменять на планете, но пока до этого далеко.

«Более того, технологическая база, необходимая для создания мыслящего ИИ, позволит создать полноценное киберпространство, так что велика вероятность, что нам еще придется побегать за своими созданиями, уговаривая их с нами поговорить», – иронично добавил специалист.

Так есть ли опасность?

Если резюмировать слова множества экспертов, можно сказать следующее: практически все они отмечают, что на данном этапе развития ИИ угрозы «киберапокалипсиса» нет – все опасности связаны либо с злоупотреблениями новой технологией самими людьми, либо с изменениями в социально-трудовой сфере. Однако некоторые все же считают, что думать о такой угрозе нелишне – на тот случай, если мрачная фантастика в какой-то миг вдруг попытается стать реальностью.