Top.Mail.Ru
Размер:
A A A
Цвет: C C C
Изображения Вкл. Выкл.
Обычная версия сайта

Приемная комиссия

+7 (3522) 65-30-30

Искусственный интеллект глазами юристов: как технологии могут угрожать правопорядку

Искусственный интеллект глазами юристов: как технологии могут угрожать правопорядку

Что видят юристы в возможностях искусственного интеллекта?  Для них это уже не игрушка или помощник в работе, а риск роста новых преступлений! 

Разбираемся в теме с Алексеем Демидовым, студентом магистратуры института экономики и права.

 

Алексей учится на 1 курсе по направлению «Юрист в судебной и правоохранительной деятельности». На студенческой научно-практической конференции он выступит с докладом «Потенциальная криминализация деяний, совершаемая искусственным интеллектом или с его участием» Научный руководитель доктор юридических наук, доцент, заслуженный юрист РФ, заведующий кафедрой «Уголовное право» Роберт Абдулин.

 

— Искусственный интеллект, — говорит Алексей, — уже стал неотъемлемой частью современной жизни. Теперь наша реальность стала цифровой, появились киберпреступления. С появлением искусственного интеллекта возникла опасность не только его использования в преступных целях, но и совершения преступлений самим «искусственным субъектом». И уже вполне возможно создание системы, которая будет направлена на разрушение и уничтожение, в том числе людей. При этом люди пока слабо защищены законом от подобного рода деяний. 

Рассматривая данную проблему, Алексей ставил перед собой следующие вопросы: во-первых, какие противоправные деяния может совершить как человек с использованием искусственного интеллекта, так и сам ИИ? Во-вторых, как предупредить такие деяния, и, в-третьих, а это самое главное, как привлечь к ответственности ИИ, если он не является субъектом права. 

 

Алексей пришел к выводу, чтобы привлечь к ответственности за действия, связанные с искусственным интеллектом, необходимо рассматривать данную проблему в комплексе, то есть в совокупной связи технических, правовых и этических аспектов.

 

Безусловно, совершение преступления с применением искусственного интеллекта (ИИ) следует признавать отягчающим обстоятельством, поскольку его технические характеристики позволяют значительно повысить вероятность достижения желаемого преступного результата. В то же время надо иметь в виду — чтобы привлечь искусственный интеллект к ответственности следует его признать субъектом права. Это довольно долгий процесс, и поэтому вполне вероятно, что ответственность за действия ИИ будет нести изготовитель, запрограммировавший его действия на совершение преступлений. При этом в ИИ закладывается умысел организатора на совершение того или иного преступления: мошенничество,  взлом смартфонов,  обман банковских приложений, нарушение авторских прав и другие.

Алексей уверен, что работа юристов в этом направлении поможет предупредить ряд преступлений и не позволит злоумышленнику уйти от уголовной ответственности. 

 

— Например, если мы возложим ответственность на создателей и разработчиков искусственного интеллекта, то они должны будут гарантировать безопасность своих продуктов и предотвращать возможные риски, связанные с их использованием. Или, например, внедрение системы учёта и авторизации для систем искусственного интеллекта может способствовать контролю над их применением и установлению стандартов безопасности. Разработчики и пользователи будут обязаны пройти процедуру сертификации и следовать установленным правилам использования.  

 

Магистрант намерен продолжить изучение проблемы и планирует защищать магистерскую диссертацию по этой либо по схожей теме.

Telegram_logo