Статья

Система распознавания лиц нуждается в этическом регулировании

Читать на сайте 1prime.ru

МОСКВА, 24 июл — ПРАЙМ. Моя мама всегда говорила, что у меня лицо создано для радио. Слава богу, что радио это последнее место в этом практически полностью технологичном мире, где твое лицо не определяет твой социальный статус или потенциал к совершению преступления, утверждает Уильям Майкл Картер в авторской статье, размещенной на сайте Science X™.

RealNetworks — мировой технологический лидер, который обеспечивает беспрерывную передачу аудио и видео файлов через интернет, только что анонсировал последнее обновление своей компьютерной версии: пакет программного обучения для машины. Есть надежда, что это новое программное обновление будет обнаруживать и предсказывать подозрительное поведение посредством распознавания лиц.

Набор инструментов под названием SAFR (безопасное и точное распознавание лиц) был подан как экономически выгодный путь, способный вписаться в существующую систему видео мониторинга CCTV. Он сможет обнаружить и отсканировать миллионы лиц в реальном времени, особенно в школьных условиях. 

Якобы, представленная технология от RealNetworks сможет сделать мир безопаснее. Однако, многословный маркетинг маскирует реальные этические проблемы, соседствующие со сканированием лица. 

КИТАЙСКАЯ МОДЕЛЬ

Большой брат следит. Ни в одной стране мира нет столько камер видеонаблюдения как в Китае. При существующих 170 миллионах CCTV камер планируется установить еще 400 миллионов, в этой стране популярен оруэлловский стиль распознавания лиц.

Samsung запатентовал дрон с распознаванием взгляда и жестов‍

Одним из тревожных звоночков является недавнее внедрение сканеров лица для мониторинга поведения школьников в китайской государственной школе. 

Система сканирования лица мониторит все в классе, начиная с посещаемости и заканчивая тем, о чем мечтает ребенок и чем он занят в данный момент. Это полная система мониторинга, которая определяет в полной мере будущее ребенка, не считая того, что некоторые абстрактные действия/мысли не могут быть обнаружены сканером лица и распознаны как положительные.

Это также вызывает некоторые неудобные вопросы, связанные с этикой или ее отсутствием, особенно в отношении уязвимых слоев населения. 

НУЖДАЕТСЯ В ГОСУДАРСТВЕННОМ РЕГУЛИРОВАНИИ

Скорый запуск SAFR от RealNetworks приобрел тревожную популярность благодаря страстному манифесту президента Microsoft Брэда Смита, который заявил, что технология распознавания лиц нуждается как в государственном, так и в корпоративном регулировании. 

Смит прав, инструменты распознавания лиц несколько искажены и имеют большую частоту ошибок, связанных с лицами женщин и представителями других наций. Это двоякая проблема, поскольку люди, кодирующие программу, могут иметь пристрастное отношение к представителям другой расы из-за культурных предубеждений. 

Существующие в настоящее время наборы данных не могут объективно считаться надежными, чтобы использовать их при сканировании лиц людей и избежать ошибок, или что еще хуже, прогнозировать благодаря коду, который уже внедряется в китайских школах. 

Чтобы решить эту и многие другие связанные с этим проблемы, Microsoft создала комитет по проблемам искусственного интеллекта и этики в области инженерии и исследований (AETHER). Этот комитет призван помощь Европейскому союзу с нововведениями в Общем регламенте по защите данных (GDPR) и возможно с будущими изменениями, принятыми в той или иной форме в Северной Америке.

ОТЧЕТ О МЕНЬШИНСТВАХ

Черты нашего лица — не более чем жесты, которые в силу привычки приобрели завершенность. Марсель Пруст 1919

Многие технологии уже открыли ящик Пандоры. Если у вас есть смартфон и вы пользуетесь интернетом, вы уже отказались от некоторых базовых представлений по отношению к персональной анонимности в западном обществе. 

Учитывая GDPR в настоящее время при посещении сайта, он должен запрашивать у вас разрешение на обработку персональных данных. Система сканирования лица не подчиняется правилам GDPR, что означает, то мы "автоматически" позволяем сканировать и обрабатывать информацию с наших лиц, которая впоследствии будет храниться и анализироваться правительством и корпорациями, использующими CCTV систему. 

Google не позволит использовать свои технологии искусственного интеллекта в сфере вооружений

Система распознавания лиц тестировалась в Англии, в полиции лондонского метрополитена она показала результат в 98% ошибок. Результаты тестов в юго-западном Уэльсе продемонстрировали процент попаданий чуть менее 10%. 

Ответ кроется в том, что компьютерная программа содержит в себе данные и закодирована таким образом, что считывает только положительные совпадения. Другими словами, написанный код поддерживает только идеализированные представления, не учитывая возможную деформацию, травмы физические и психологические, отражающиеся на лице. Для программы мы все похожи друг на друга, без учета микроособенностей человеческих лиц.

Если это так, несовершенные системы распознавания лиц в конечном итоге изменят реальность и объективные представления о том, кто мы есть.

Обсудить
Рекомендуем