МОСКВА, 24 авг — ПРАЙМ. Российские разработчики при работе с искусственным интеллектом должны пользоваться специальным руководством, которое предотвратит возникновение последующих проблем на этической почве. Об этом заявила руководитель группы регуляторной поддержки экосистемы МТС Елена Сурагина в рамках форума "Технопром-2022".
По ее словам, проблемы этики искусственного интеллекта заключаются в том, чтобы определить в новой ситуации при каких обстоятельствах и в каких условиях эта ситуация допустима в человеческом обществе.
"Проблема, которую хотелось бы обозначить — это сложность перевода социальных концепций — добра, справедливости — в формализованную область инженерной практики. Сами разработчики говорят о том, что кодекса этики ИИ недостаточно, требуется однозначное понимание этических проблем и руководство, как действовать разработчику, чтобы не внести "раздрай" в общество и быть корректными к человеку", — отметила эксперт.
В качестве примера Сурагина привела ситуацию в одной из иностранных компаний, которая позволила искусственному интеллекту мониторить личный контент пользователей смартфонов на предмет появления сцен насилия над детьми.
"Очень важно определить, где проходит этическая черта, ведь с одной стороны, право на приватность пользователя, с другой стороны — право детей на безопасность", — пояснила она.
Кодекс этики в сфере искусственного интеллекта был принят в октябре 2021 года в рамках международного форума "Этика искусственного интеллекта: начало доверия". Документ устанавливает общие этические принципы и стандарты поведения, которыми должны руководствоваться компании, применяющие технологии искусственного интеллекта в своей деятельности или создающие продукты на основе таких технологий. Кроме того, рекомендации, приведенные в кодексе, рассчитаны на системы нейросетей, применяемые исключительно в гражданских целях.