На Диалоге о фейках предложили создать суверенный ИИ
:format(webp)/aHR0cHM6Ly94bi0tODBhaGNubGhzeGoueG4tLXAxYWkvbWVkaWEvbXVsdGltZWRpYS9tZWRpYWZpbGUvZmlsZS8yMDE0LzA3LzMxL2ltZ185NjQxLmpwZw.webp)
Фото - © Клавиатура для ноутбука/Медиасток.рф
Риски и перспективы нейросетей для образования, науки и средств массовой информации стали ключевыми вопросами на форуме «Диалог о фейках 3.0», состоявшемся в Москве. Участники дискуссии, которую провела Мастерская новых медиа, выступили с инициативой развития многополярного интернета и ИИ, основанного на традиционных ценностях, таких как свобода и равенство, сообщили организаторы форума.
Касаясь основной темы мероприятия — фейков, модератор беседы, телеведущая Мария Шахова, привела в пример свой утренний звонок от «полковника ФСБ», порекомендовавшего ей не ходить на форум «в целях безопасности».
Для противодействия дезинформации и усиления позиций российской системы знаний в интернете и нейросетях, депутат Госдумы, первый замглавы комитета по просвещению Алена Аршинова предложила организовать перевод российских научных и образовательных областей на все мировые языки.
«Мы должны укреплять систему образования. Никто не должен думать или предполагать, что учителя заменит робот или искусственный интеллект. Наша задача — укрепить учителя для того, чтобы он был опорой ученика, мог помочь разобраться, выйти из этой угрожающей фейками системы», — предложила Аршинова.
Если же применение нейросетей в учебе или работе неизбежно, этот навык необходимо совмещать с критическим мышлением, которое, как отметила замгендиректора по стратегии и прогнозированию ЭИСИ, кандидат политических наук Екатерина Соколова, было утрачено с приходом интернета.
«Теперь студенты также некритично относятся к тому, что им пишет GPT или другие чаты. И, конечно, наше будущее зависит от того, на какой мы стороне и как мы будем развивать собственную экспертизу», — считает Соколова.
В надежных источниках информации нуждаются не только молодые люди, но и старшее поколение. О данных исследования запросов в разных возрастных категориях сообщил главный редактор «360» Алексей Коваль.
«Мы стараемся на этом доверии работать в том числе и с искусственным интеллектом. Поэтому в нашей редакции не используется генерация видео в оперативных новостях. Мы используем ее только в более легких темах. А также мы всегда титруем то, что видео сгенерировано в нейросетях», — делится Коваль.
Результатами своего айтитрекингового изучения фейковых новостей поделился и руководитель кафедры РГУ им. А. Н. Косыгина, доктор экономических наук, участник «Мастерской новых медиа» Борис Тхориков.
«Люди от 18 до 24 лет и старше 55 лет в отдаленных [от зоны боевых действий] регионах на сегодняшний момент времени хуже всего воспринимают фейки и принимают их за правду. И в качестве промежуточных выводов: мы глубоко уверены в том, что одно повышение медиаграмотности населения не способно обеспечить борьбу с фейками. У нас нет от природы никакого механизма, чтобы определять, правдивая или ложная информация до нас сейчас доносится. И здесь крайне важна государственная информационная политика», — поделился профессор Тхориков.
Мысль о том, что искусственный интеллект можно «обучить» определенной идеологии, поддержал французский геополитический аналитик, президент Института 1717 Эммануэль Леруа, сославшись на нейросеть Grok.
«Чтобы сохранить нашу культуру, наш менталитет, нашу религию, нужно создать наш суверенный искусственный интеллект. Сейчас на наших глазах разворачивается битва между, можно сказать, „Кремниевой долиной“ и остальным миром. С одной стороны, есть униполярный, однополярный, глобалистский искусственный интеллект, а с другой стороны, должен развиваться многополярный искусственный интеллект, который включает в себя свободу и равенство», — отметил аналитик.
Как заявил Леруа, именно честный, многополярный искусственный интеллект может стать залогом сохранения человечества. При этом, как полагает CEO Aiinfluence, вице-президент АКАР и член Клуба руководителей медиа Алексей Парфун, важно сдерживать рост разрыва между людьми, не пользующимися нейросетями, и теми, кто их активно применяет.
«Если мы будем преодолевать его недостаточно решительно, будет возрастать разрыв между теми странами, кто развивает искусственный интеллект, и кто его не развивает, между теми людьми, кто его использует и теми, кто его не использует. Потому что это вызов и это преимущество, которое получают люди с доступом к этой технологии. Если мы не будем контролировать разрыв, это повлияет на общество, экономику и другие сферы», — считает он.
Организаторами форума «Диалог о фейках 3.0» выступили Международная ассоциация по фактчекингу Global Fact-Checking Network (GFCN), созданная АНО «Диалог Регионы», информационным агентством ТАСС и Мастерской новых медиа.