Рейтинг@Mail.ru
Центробанк раскрыл основные риски внедрения ИИ на финрынке - 28.02.2024, ПРАЙМ
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Центробанк раскрыл основные риски внедрения ИИ на финрынке

ЦБ: внедрения ИИ на финрынке грозит утечкой данных и этическими рисками

Здание Центрального банка РФ - ПРАЙМ, 1920, 28.09.2023
Читать Прайм в
Дзен Telegram

СОЧИ, 28 сен — ПРАЙМ. Статс-секретарь, заместитель председателя Банка России Алексей Гузнов назвал основные риски внедрения искусственного интеллекта на финансовом рынке, в числе которых конкуренция, доступ к данным, в частности возможность их утечки, и этические риски. 

Заместитель министра финансов Российской Федерации Алексей Сазанов - ПРАЙМ, 1920, 28.09.2023
В Минфине прокомментировали возможную налоговую допнагрузку для нефтяников

"Я хотел зафиксировать несколько рисков с точки зрения применения искусственного интеллекта вообще и на финансовом рынке в частности. Их несколько. Назову, может быть, те, которые мы видим как главные", — сказал он, выступая на XX Международном банковском форуме.

"Во-первых, риск конкуренции. Понятно, что искусственный интеллект может многое, но его создание — ресурсоемкий процесс. Наверное, результат получат только те, кто может иметь возможность уже сейчас на данном этапе вложиться, и, собственно говоря, это углубляет определенные перекосы на рынке", — продолжил он.

ИИ требует значительных инвестиций в вычислительные мощности, инфраструктуру обработки данных, подготовку профессиональных кадров. В связи с этим растут риски монополизации крупными игроками технологий на основе ИИ, говорится в презентации Гузнова.

"Второй риск — риск доступа к данным, которые используются для обучения искусственного интеллекта. Вопросы утечки, фальсификации этих данных, они не снимаются, и закрытых моделей вроде как нет", — отметил он.

По мнению Гузнова, одна из самых больших проблем — проблема объяснимости алгоритмов, определение основных факторов, лежащих в основе рекомендаций, которые выдает модель ИИ. Это влечет угрозу принятия предвзятых или дискриминационных решений.

"Мы в этом смысле не предполагаем каких-то радикальных решений по регулированию применения искусственного интеллекта, но вопрос стоит. Может быть, нужно начинать с того, что какие-то образы, тексты, вещи, которые создаются искусственным интеллектом, помечать, что это создано искусственным интеллектом", — заключил он.

 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Чаты
Заголовок открываемого материала