Вездесущий ИИ или как защитить личные данные в период цифровизации
26 Ноября 2020

Развитие новых технологий меняет устройство мира, что неизбежно влечет за собой и изменение законодательной базы. Но как юридически оценивать события, когда одним из действующих лиц станет искусственный интеллект (ИИ)? Одной из ключевых тем для сотрудников ЮИ ТГУ стала защита личных данных. Томские юристы обсудили ее с коллегами из Курска, Иркутска и Самары на интенсиве «Архипелаг 20.35».

– Развитие машинного обучения, ИИ формирует новые вызовы. В период коронавирусных ограничений начала активно применяться видеофиксация с распознаванием лиц. Но во всем мире еще не успели определиться, действительно ли это правомерно и насколько она нарушает или не нарушат права человека, – объясняет необходимость изучения темы личных данных директор Центра клинических методов обучения (юридической клиники) ЮИ ТГУ Татьяна Трубникова.

Сегодня российские законы никак не регламентируют прецеденты с участием ИИ или роботов. Поэтому ЮИ начал свою работу в этом направлении еще в 2017 году с проекта «Суд над роботами».  Особенно остро встал вопрос о персональных данных в конце апреля 2020 года. В это время вступил в силу федеральный закон о проведении эксперимента по созданию условий для разработки и внедрения ИИ на территории Москвы. Теперь юридические лица или индивидуальные предприниматели, вошедшие в реестр участников эксперимента, могут хранить, обрабатывать и обмениваться между собой личными данными своих посетителей.

Обработка персональных данных, полученных в результате обезличивания персональных данных, осуществляется в целях повышения эффективности государственного или муниципального управления – Пункт 9.1 Статьи 6 Федерального закона РФ «О персональных данных».

Нюанс здесь именно в обезличивании. Изображение лица, взятое с камеры наблюдения, хранится и обрабатывается программой, например, для обеспечения безопасности. Теперь, если вор, которого взяли с поличным в магазине, решит попытать счастья в другом месте, программа сообщит посту охраны о подозрительной личности. Трудности же начинаются в тот момент, когда обезличенные данные могут повлиять на конкретного человека.

– Так, в Южно-Сахалинске за нарушение предписания Роспотребнадзора о самоизоляции женщину привлекли к уголовной ответственности по видеофиксации с распознаванием личности. При том, что ИИ показал всего лишь 50 % совпадения, – приводит пример Татьяна Трубникова.

Основная проблема заключается в том, что не существует способа гарантированно обезопасить свои персональные данные. Новые технологии требуют новых решений, поэтому Юридический институт ТГУ планирует продолжать изучение этого вопроса и в 2021 году, заручившись грантовой поддержкой.