https://1prime.ru/20260326/ekspert-868629268.html
Эксперт рассказал о последствиях применения ИИ оружия
Эксперт рассказал о последствиях применения ИИ оружия - 26.03.2026, ПРАЙМ
Эксперт рассказал о последствиях применения ИИ оружия
Принятие системой искусственного интеллекта (ИИ) боевого решения вместо человека создаст "пробел" относительно ответственного за последствия применения силы,... | 26.03.2026, ПРАЙМ
2026-03-26T04:06+0300
2026-03-26T04:06+0300
2026-03-26T05:10+0300
технологии
экономика
общество
сша
иран
https://cdnn.1prime.ru/images/sharing/article/rus/868629268.jpg?1774491038
МОСКВА, 26 мар - ПРАЙМ. Принятие системой искусственного интеллекта (ИИ) боевого решения вместо человека создаст "пробел" относительно ответственного за последствия применения силы, рассказал РИА Новости замдиректора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов. По данным агентства Рейтер, военное министерство США планирует внедрение на постоянной основе в рамках вооруженных сил США системы ИИ Maven, которая уже применяется в нанесении ударов по Ирану. "В действующей правовой модели система ИИ может рассматриваться как средство информационно-аналитической поддержки, при том, что окончательное юридически значимое решение о применении силы должно оставаться за уполномоченным человеком. В тот момент, когда ИИ фактически подменяет волевое решение уполномоченного должностного лица, возникает некий пробел, поскольку исчезает надлежащий субъект принятия решения и затрудняется распределение ответственности. Именно поэтому российское законодательство и военная доктрина исходят из того, что финальное решение о применении силы остается за человеком, и любое техническое средство не может его подменять", - сказал Рашитханов. По его словам, как только выводы системы ИИ начинают непосредственно влиять на параметры боевого решения, включается не только внутренний правовой режим информационной системы, но и международно-правовой режим средства или метода ведения войны, в частности, Дополнительный протокол от 8 июня 1977 года к Женевским конвенциям. "Согласно статье 36 Дополнительного протокола юридически оценивается не алгоритм или средство, а конкретная конфигурация его использования в контуре применения силы, а статья 57 того же протокола закрепляет обязанность принимать все практически возможные меры предосторожности при нападении, и общие принципы международного гуманитарного права о различении, соразмерности и предосторожности", - пояснил эксперт. При этом он отметил, что ни российское право, ни действующее международное право не создают для системы ИИ статуса самостоятельного субъекта для принятия боевого решения.
сша
иран
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2026
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://1prime.ru/docs/about/copyright.html
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, общество , сша, иран
Технологии, Экономика, Общество , США, ИРАН
Эксперт рассказал о последствиях применения ИИ оружия
Эксперт Рашитханов: принятие ИИ боевого решения создаст пробел ответственности за удар
МОСКВА, 26 мар - ПРАЙМ. Принятие системой искусственного интеллекта (ИИ) боевого решения вместо человека создаст "пробел" относительно ответственного за последствия применения силы, рассказал РИА Новости замдиректора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов.
По данным агентства Рейтер, военное министерство США планирует внедрение на постоянной основе в рамках вооруженных сил США системы ИИ Maven, которая уже применяется в нанесении ударов по Ирану.
"В действующей правовой модели система ИИ может рассматриваться как средство информационно-аналитической поддержки, при том, что окончательное юридически значимое решение о применении силы должно оставаться за уполномоченным человеком. В тот момент, когда ИИ фактически подменяет волевое решение уполномоченного должностного лица, возникает некий пробел, поскольку исчезает надлежащий субъект принятия решения и затрудняется распределение ответственности. Именно поэтому российское законодательство и военная доктрина исходят из того, что финальное решение о применении силы остается за человеком, и любое техническое средство не может его подменять", - сказал Рашитханов.
По его словам, как только выводы системы ИИ начинают непосредственно влиять на параметры боевого решения, включается не только внутренний правовой режим информационной системы, но и международно-правовой режим средства или метода ведения войны, в частности, Дополнительный протокол от 8 июня 1977 года к Женевским конвенциям.
"Согласно статье 36 Дополнительного протокола юридически оценивается не алгоритм или средство, а конкретная конфигурация его использования в контуре применения силы, а статья 57 того же протокола закрепляет обязанность принимать все практически возможные меры предосторожности при нападении, и общие принципы международного гуманитарного права о различении, соразмерности и предосторожности", - пояснил эксперт.
При этом он отметил, что ни российское право, ни действующее международное право не создают для системы ИИ статуса самостоятельного субъекта для принятия боевого решения.