«Попытки ограничить развитие ИИ ни к чему не приведут»: эксперты о письме Маска и Возняка

«Попытки ограничить развитие ИИ ни к чему не приведут»: эксперты о письме Маска и Возняка
Люди

Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и еще около тысячи специалистов в развитии искусственного интеллекта призвали немедленно приостановить обучение систем «умного компьютера». О том, почему эту идею вряд ли поддержат разработчики, РИАМО рассказали эксперты по изучению ИИ.

Почему предложили остановить развитие ИИ?

В последние месяцы лаборатории по разработке искусственного интеллекта устроили настоящую гонку вооружений, создавая все более мощные «нечеловеческие умы».

Напомним, что технологическая компания OpenAI в ноябре 2022 года выпустила чат-бот ChatGPT с искусственным интеллектом на базе языковой модели GPT-3.5. Спустя всего два месяца после выхода демоверсии чат-бот стал самым быстрорастущим приложением в истории. Вскоре о собственных версиях умной нейросети сообщили Google, Microsoft, Yandex и другие корпорации.

14 марта 2023 года OpenAI представила языковую модель GPT-4. В новой версии у ИИ появилась возможность интерпретировать не только текст, но и изображения. Также она теперь распознает схематичные образы, в том числе и нарисованные от руки. После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, что вызвало недовольство у многих разработчиков.

«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта», — следует из письма, опубликованного на сайте некоммерческой организации Future of Life.

Авторы, в том числе глава SpaceX Илон Маск и соучредитель Apple Стив Возняк, призвали лаборатории по развитию искусственного интеллекта немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4.

Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда появится уверенность, что их эффекты будут положительными, а риски — управляемыми. Однако, это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки, — следует из доклада.

«Остановка развития ИИ — это бред»

«Я не вижу аргументов в пользу замораживания ИИ», — говорит эксперт по развитию искусственного интеллекта, автор и ведущий youtube-канала «Душкин объяснит» Роман Душкин.

Замораживание таких исследований, по его мнению, сопоставимо с приостановкой ядерных разработок. Никто не станет останавливать изучение ядерных технологий, потому что они в первую очередь обеспечивают современные условия качественной жизни.

«Технологии ИИ тоже нацелены на улучшение жизни и безопасность граждан, кроме этого они положительно влияют на развитие отраслей экономики. Говорить о том, что нужно прекратить все исследования на шесть месяцев — это бред какой-то. Складывается впечатление, что Илон Маск пытается сдержать развитие своей бывшей компании OpenAI, которую он покинул в 2018 году. И кто эти тысячи ученых, которые подписали письмо? Я знаю, что уже обнаружились фейковые фамилии», - считает Душкин.

Чем опасен искусственный интеллект?

Киберэксперт Сергей Вакулин считает, что искусственный интеллект уже превосходит человека по некоторым параметрам. Понимая его могущество, власти или злоумышленники могут эксплуатировать ИИ во вред человечеству. Например, на конференции «Армия 2022» в России показали робота-пса с прикрепленным к нему противотанковым гранатометом. Если такие технологии окажутся в свободном доступе, это может спровоцировать военные конфликты, терроризм, воровство, вандализм и прочее.

«Все боятся, что искусственный интеллект станет настолько мощным, что решит пойти против своего создателя. А вот топор может пойти против хозяина? Вряд ли, если только он не окажется в «злых руках». Технологии искусственного интеллекта — это инструменты. В зависимости от того, кто их использует, инструменты будут действовать на пользу или во вред», - считает Роман Душкин.

Он также отмечает, что задача государства как регулятора заключается в недопущении попадания технологии ИИ в руки злоумышленников.

ИИ не остановить

Эксперты считают, что попытки ограничить развитие ИИ ни к чему не приведут. По словам Душкина, если США и остановятся, то остальные страны — вряд ли. Мир вошел в стадию гонки вооружения в области искусственного интеллекта.

«Китай будет только рад, если в США возьмут паузу. России это тоже выгодно. Мы будем развивать свои технологии, поскольку не обязаны прислушиваться к рекомендациям недружеского государства», - считает эксперт.