Правила для ИИ

Правила для ИИ

С 2020 года в России проводят эксперимент, чтобы создать условия для развития технологий искусственного интеллекта (ИИ).

Правила прописали в Федеральном законе от 24.04.2020 № 123-ФЗ. Однако этических вопросов развития технологии в документе не учли. Законодатель лишь делает акцент, что эксперимент нужно проводить с учетом принципов защиты прав и свобод человека и гражданина, обеспечения безопасности личности, общества и государства.

Безопасность — основной принцип развития. Важно предотвращать ситуации, когда ИИ используют, чтобы намеренно причинить вред. Это отразили в Национальной стратегии развития искусственного интеллекта на период до 2030 года, которую утвердил Президент в Указе от 10.10.2019 № 490.

Рамочную основу для государств разработала ЮНЕСКО. Организация выпустила рекомендации об этических аспектах использования искусственного интеллекта. Она призывает избегать ущерба для человека или общества на всех этапах жизненного цикла искусственной интеллектуальной системы (d-russia.ru). В то же время в некоторых странах акцент делают на том, что искусственный интеллект важно развивать в военных сферах.

Активные действия предпринимают крупные игроки на рынке. Императивные акты в этом направлении редко появляются. В основном существующие технологии ИИ регулируют на основе концепции «мягкого права», которая включает кодексы поведения, правила и рекомендации. Например, RoboPravo выпустило Модельную Конвенцию о робототехнике и ИИ, или Азиломарские принципы ИИ, а в Сбере анонсировали принципы этики ИИ, направленные на повышение доверия к технологиям.

С помощью искусственного интеллекта компании и страны получают преимущества. Но на данный момент существует ряд проблем. Одна из них — вопрос ответственности за действия компьютерных алгоритмов, когда они действуют автономно. Например, в случае автомобильных аварий. Власти попытались решить проблему. Правительство утвердило паттерны поведения беспилотных транспортных средств в различных аварийных ситуациях (п. 25 постановления от 09.03.2022 № 309).Важно реалистично относиться к возможностям ИИ, чтобы избежать ложных ожиданий или ошибочного понимания его функций. Алгоритмы могут некорректно обрабатывать данные или предвзято выстроить решение. Например, системы распознавания лиц могут неправильно идентифицировать людей определенных расовых или этнических групп. Бывает, нейросеть дает ответ на запрос, который может расходиться с мировоззрением человека в конкретном регионе. По этой причине власти должны учитывать этические нормы и правила, когда разрабатывают нормы, которыми будут регулировать технологию. ИИ нельзя сравнивать с человеком. Если машина видит цель, она может производить противоправные действия

Команда АН-Секьюрити Кибер

Мы используем файлы «Cookie» для сбора и анализа информации о производительности и использовании сайта, а также для улучшения и индивидуальной настройки предоставления информации. Нажимая кнопку «Принять» или продолжая пользоваться данным сайтом, вы соглашаетесь на обработку файлов «Cookie».
Принять