«Важно, чтобы государство нашло баланс между развитием инноваций и безопасностью»

Александр Журавлев, председатель комиссии Ассоциации юристов России

Об испытаниях инноваций в экспериментальных правовых режимах и возможных рисках в интервью “Ъ” рассказал председатель комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Александр Журавлев.

Фото: из личного архива

Фото: из личного архива

— Можно ли делать выводы о безопасности применения экспериментальных правовых режимов (ЭПР), исходя из прошедших тестирований?

— На базе «Сколково» проводилось тестирование беспилотных автомобилей, которые после этого выехали на улицы города. При этом тестирование беспилотного транспорта сопряжено с рисками причинения вреда жизни и здоровью граждан, имуществу. Если мы говорим про оживленную трассу или район, там могут возникнуть проблемы с тестированием. Например, в марте 2018 года в Аризоне беспилотный автомобиль Uber, передвигавшийся в автономном режиме с человеком на водительском сиденье, сбил женщину, и она скончалась в больнице от полученных травм. Поэтому тестирование определенных инноваций на ранних стадиях следует применять в малонаселенных регионах или на специальных полигонах.

— Есть ли риски при внедрении ЭПР с точки зрения использования биометрических данных?

— В мире идут жаркие споры по поводу биометрических данных (голос человека, отпечатки пальцев, распознавание лица, сетчатка глаза). Они являются особенно чувствительными, и если они попадут на черный рынок, то в отличие от персональных данных изменить их нельзя. При утечке таких данных злоумышленники получают бесценный товар, а человек становится скомпрометирован навсегда. Это очень серьезный риск, поэтому принимать решение об использовании биометрических данных можно, только проработав все моменты, касающиеся безопасности их обработки и хранения. Многие компании специально начали кампанию по отказу от биометрии: в июне 2020 года IBM, Amazon, Microsoft на фоне протестов в США отказались от технологии распознавания лиц.

— С обработкой персональных данных те же проблемы?

— Анализ и обработка больших массивов данных лежит, например, в основе применения искусственного интеллекта. Правовая основа для работы с такими данными пока не определена, а сбор информации может сопровождаться нарушениями в сфере обработки персональных данных.

Кроме того, не решен вопрос требований к безопасности накапливаемой информации, особенно если она не относится к категориям информации, охраняемой законом. Например, данные, накапливаемые в результате взаимодействия машин (технических устройств), формально не подпадают под установленные законом виды тайн, но утечка такой информации может иметь серьезные последствия для целых отраслей экономики.

— Есть ли решение?

— С одной стороны, для развития инноваций необходима экспериментальная среда, но с другой — на чаше весов — неприкосновенность и безопасность данных человека. Чтобы использовать весь потенциал цифровой экономики, нужно позволить внедрять технологии на опережение, смотреть на результат эксперимента и только после этого вносить изменения в законы по всей стране. Однако важно, чтобы государство нашло баланс между развитием инноваций и безопасностью и, только проработав все моменты, принимало решения об обороте и порядке использования персональных и биометрических данных граждан.

Интервью взяла Юлия Степанова

Зыбучие песочницы

Станут ли экспериментальные правовые режимы фундаментом цифровизации

Читать далее

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...