В России вырос спрос на услуги киберзащиты для сервисов с ИИ

Эксперт Иванов: спрос на услуги киберзащиты для сервисов с ИИ в России вырос в 2,5 раза

Читать на сайте 1prime.ru
МОСКВА, 19 дек - ПРАЙМ. Спрос на услуги киберзащиты для сервисов, где используется искусственный интеллект (ИИ), в 2024 году в России вырос в 2,5 раза - этот показатель возрастает прямо пропорционально проценту внедрения ИИ в бизнес-направления, рассказал РИА Новости директор по развитию бизнеса ГК Swordfish Security (специализируется на консалтинге в сфере защищенного ПО) Андрей Иванов.
"Если в 2023 году среди обращений услуга по применению практик киберзащиты сервисов с использованием больших языковых моделей фигурировала в 10-15% случаев, в этом году таких обращений уже 35%. Эта цифра прямо пропорциональна проценту внедрения ИИ в бизнес-процессы. Применение практик LLM Security в 2025 будет становиться все более актуальным, поскольку уровень внедрения ИИ в различных отраслях бизнеса в России составит не менее 40%, уверены специалисты по кибербезопасности", - сказал Иванов.
Он объясняет такую динамику тем, что на фоне дефицита кадров бизнес особенно активно внедряет ИИ-технологии. "И поскольку кадровый кризис в ближайшие годы никуда не исчезнет, ИИ будет брать на себя все больше функций", - полагает Иванов.
Чаще всего компании используют большие языковые модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, а также ИИ-помощников.
Иванов перечислил риски кибербезопасности, которые могут возникнуть при использовании ИИ. Это внедрение вредоносного кода в запросы к нейросетям, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.
"Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и приводящей, в случае компрометации, к потерям репутации и убыткам", - продолжил он.
Эксперт отметил, что специалисты зачастую перекладывают на искусственный интеллект ответственность за безопасность, так как он якобы "исключает человеческий фактор". Однако он рекомендует компаниям ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения.
Обсудить
Рекомендуем