ИИ нуждается в тщательном контроле и проверках со стороны человека — эксперт

Эксперт Залилов: ИИ не может отличить правду от вымысла
Общество

Фото - © Unsplash.com

Системы искусственного интеллекта ChatGPT и Bing обвинили Джонатана Терли, одного из ведущих профессоров права в США, в сексуальном насилии в отношении пяти студенток. Сам 61-летний Терли известен своим негативным отношением к ИИ — профессор настаивает на том, что нейросети выдумали данную историю и распространили о нем ложные сведения. Руководитель киберспортивного направления Московского центра воспитательных практик Максим Залилов дал комментарий по поводу этой ситуации, сообщает RuNews24.ru.

По словам эксперта, ИИ пока не способен отличить правду от вымысла в процессе обработки большого объема данных. Кроме того, при обработке информации нейросети проходят процесс самообучения, в результате которого они начинают создавать собственные предположения и логические модели, основанные на реальных примерах. Хотя такие конструкции могут казаться достаточно правдоподобными, на самом деле они могут не иметь никакого отношения к действительности, отметил Залилов.

В некоторых случаях, по словам эксперта, это может привести к нежелательным последствиям.

«На кафедре киберспорта факультета игровой индустрии и киберспорта университета „Синергии“, где я преподаю, был аналогичный анекдот. Наша заведующая кафедрой обнаружила в выпускной квалификационной работе своего студента выдуманного киберспортсмена и так поняла, что работу писал не человек, а ИИ», — поделился специалист.

Также Залилов вспомнил случай, когда американский адвокат Стивен Шварц подал иск от имени своего клиента против авиакомпании. Причиной стало то, что во время полета клиента сильно ударило тележкой с едой. В условиях действия прецедентного права в США юрист подготовил внушительный список юридических прецедентов, призванных поддержать позицию истца. Однако оказалось, что ни один из упомянутых прецедентов не был зарегистрирован в судебных базах данных, так как иск был создан с использованием ChatGPT.

По итогу на скамье подсудимых оказался сам адвокат. «Прецеденты» были настолько правдоподобны, что обмана не заподозрил и опытный юрист.