Восстания машин пока не предвидится

Искусственный интеллект обещают держать в рамках

Нынешние системы искусственного интеллекта (ИИ) пока далеки от так называемого сильного ИИ, который мог бы обладать правосубъектностью,— однако из-за особенностей использования этой технологии установление ответственности за его действия будет становиться все более трудным делом. Об этом вчера говорили участники конференции AI Journey, организованной Сбербанком. По их словам, риски при активном развитии ИИ существуют, но пока они в первую очередь связаны с тем, как эта технология применяется человеком в отношении других людей.

Фото: Анатолий Жданов, Коммерсантъ

Фото: Анатолий Жданов, Коммерсантъ

Пока опасения по поводу появления систем искусственного интеллекта, которые обладали бы собственной волей и были способны выходить из-под контроля человека, завышены — нынешний уровень развития технологий предполагает, что цель системе задает разработчик, а качество ее выводов зависит от входных данных. К таким выводам пришли участники дискуссии по правосубъектности ИИ, прошедшей вчера в рамках форума AI Journey.

Впрочем, как отметил директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин, сейчас представление о том, кто должен нести ответственность в этой сфере и как надо регулировать применение технологии, исходит из представления об «узком ИИ» — но технологически не существует препятствий для появления систем, которые будут полностью осознавать себя в качестве личности и обладать внутренней мотивацией и эмоциональной структурой.

«ИИ эффективен в рамках достижения определенной задачи, вряд ли у таких систем появится целевая функция стать отдельным существом. Собака — это тоже пример сильного интеллекта, сейчас на порядок более сильного, чем текущие системы ИИ»,— возразил на это директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов. По его мнению, возможные последствия развития ИИ зависят от постановки задачи при его разработке, именно от этого зависит, насколько он будет полезен или вреден,— так что все права находятся у человека — автора ИИ.

Напомним, Кодексом этики искусственного интеллекта, который был подписан в конце октября рядом крупных российских компаний (см. “Ъ” от 27 октября), вся ответственность за ошибки ИИ возложена на разработчиков и тех, кто внедряет технологию — то есть ИИ не обладает самостоятельной правосубъектностью. В готовящихся рекомендациях ЮНЕСКО также нет речи о наделении ИИ правосубъектностью, отметил исполнительный директор по вопросам нормативного регулирования технологий ИИ Сбербанка Андрей Незнамов.

В то же время юридическое определение ответственности при использовании ИИ уже затруднено, так как человеку нельзя вменить злой умысел, как в случае с обычными преступлениями, отметил руководитель российской практики в области интеллектуальной собственности, IT и телекоммуникаций юридической фирмы Dentons Виктор Наумов. Основные риски он связывает с тем, что растущее количество компаний попытается извлекать прибыль от использования ИИ, не обращая внимания на этические аспекты. Поэтому потребуется введение ограничений: обязательной идентификации систем, унифицированного принципа квалификации разработчика и пользователя ИИ (это станет аналогом «прав»), а также гарантий соблюдения права человека на отказ от использования ИИ (что даст возможность полноценного выбора), полагает юрист.

Распределение ответственности усложняется устройством ИИ. Разработчик может отвечать только за архитектуру и топологию системы, разметчик данных (он определяет, какие данные будут использованы) играет роль «воспитателя» — но то, чему эта система научится на полученных данных, будет знать только она, указал Роман Душкин. Директор департамента планирования и развития «Сколково» Сергей Израйлит предположил, что в будущем ИИ «будет и чем отвечать» — система сможет иметь за собой активы и репутацию (по аналогии с юрлицом), что будет защищать потребителей от рисков.

Татьяна Едовина

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...