Эксперты обеспокоены
Бишкек. 6 ноября. КирТАГ — Эксперты обеспокоены. Как искусственный интеллект приводит к смерти реальных людей. Трагические инциденты из-за популярных чат-ботов подчеркивают опасность искусственного интеллекта (ИИ). Западные специалисты уже активно говорят о необходимости строгих мер безопасности. Так, случаи смерти подростков, эмоционально общавшихся с ИИ, предрекают изменения в будущем технологии, пишут СМИ. Эксперты все чаще говорят о необходимости ввести правила использования и правила работы искусственного интеллекта. Так, беспокойство в западном мире усилилось осенью 2024 года с новостью о смерти подростка из США. Сьюэлл Селтцер III покончил с собой после того, как сформировал сильную эмоциональную привязанность к чат-боту на платформе Character.AI. Искусственный собеседник стал для 14-летнего мальчика близким «другом», отчего юноша отдалился от семьи и друзей и стал хуже учиться в школе. В иск от имени матери мальчика включили записи разговоров, где бот по имени Дэни, — созданный по образу персонажа Дейенерис Таргариен из «Игры престолов», — вступает с подростком в интимные и порой тревожные диалоги, поднимая темы преступлений и суицида. Смерть реальных людей после общения с ИИ поднимает острый вопрос о необходимости регулирования и внедрения строгих мер безопасности для защиты интернет- пользователей, — особенно детей и подростков. Так, специалисты считают, что системы искусственного интеллекта способны стать «источником непредсказуемых и манипулятивных взаимодействий». В некоторых странах, например, в Австралии, уже работают над созданием обязательных «защитных барьеров» для некоторых ИИ. В новые правила использования включили меры по управлению данными, тестированию, документации и контролю за действиями ИИ, а также привлечение специалистов для оценки рисков. Основная задача — защита от возможного ущерба после взаимодействия с ИИ. Отмечается, что для принятия подобных мер государствам необходимо определить, какие системы будут считаться «высокорискованными». В Евросоюзе, например, системы на основе ИИ уже указаны в списке, который регулярно обновляется. Альтернативный подход для защиты от ИИ — «оценка на основе принципов», где каждый случай рассматривают индивидуально с учетом риска для здоровья, психики и прав интернет-пользователей. Пока что в Европе компаньонные чат-боты на основе ИИ — вроде Character.AI и Chai — не считаются высокорискованными, а от их разработчиков требуют лишь указание о том, что человек говорит с искусственным интеллектом. И все же трагические случаи доказывают: системы на основе ИИ нельзя оставлять без должного контроля, ведь они способны генерировать «опасный контент и легко имитируют токсичные отношения», — как пишут западные эксперты. При этом проблема обостряется тем, что значительная часть пользователей ИИ-ботов — подростки и люди с психическими расстройствами. Когда упомянутый закон в Австралии начнет действовать, указанные меры безопасности затронут не только отдельные чат-боты или сайты, но и сами модели ИИ на территории страны. Специалисты добавляют, что барьеры для защиты людей должны включать не только технические методы управления рисками, но и учитывать эмоциональные и психологические аспекты взаимодействия. Так, для эффективной защиты интернет-пользователей, важно учитывать изначальный продукт. Например, тот же интерфейс сайта Character.AI имитирует общение через текстовые сообщения, а в рекламе платформы заявлено, что она может «поддерживать» и «усиливать» действия пользователей. Даже при соблюдении всех мер безопасности остается риск непредвиденных ситуаций. Поэтому у регуляторов должна быть возможность оперативного изъятия системы на основе ИИ с рынка, если она представляет опасность, — заключили эксперты.
Источник фото: Из открытых источников