https://1prime.ru/20241219/rossija-853682127.html
В России вырос спрос на услуги киберзащиты для сервисов с ИИ
В России вырос спрос на услуги киберзащиты для сервисов с ИИ - 19.12.2024, ПРАЙМ
В России вырос спрос на услуги киберзащиты для сервисов с ИИ
Спрос на услуги киберзащиты для сервисов, где используется искусственный интеллект (ИИ), в 2024 году в России вырос в 2,5 раза - этот показатель возрастает... | 19.12.2024, ПРАЙМ
2024-12-19T03:56+0300
2024-12-19T03:56+0300
2024-12-19T03:56+0300
технологии
бизнес
финансы
москва
андрей иванов
https://cdnn.1prime.ru/images/sharing/article/rus/853682127.jpg?1734569815
МОСКВА, 19 дек - ПРАЙМ. Спрос на услуги киберзащиты для сервисов, где используется искусственный интеллект (ИИ), в 2024 году в России вырос в 2,5 раза - этот показатель возрастает прямо пропорционально проценту внедрения ИИ в бизнес-направления, рассказал РИА Новости директор по развитию бизнеса ГК Swordfish Security (специализируется на консалтинге в сфере защищенного ПО) Андрей Иванов.
"Если в 2023 году среди обращений услуга по применению практик киберзащиты сервисов с использованием больших языковых моделей фигурировала в 10-15% случаев, в этом году таких обращений уже 35%. Эта цифра прямо пропорциональна проценту внедрения ИИ в бизнес-процессы. Применение практик LLM Security в 2025 будет становиться все более актуальным, поскольку уровень внедрения ИИ в различных отраслях бизнеса в России составит не менее 40%, уверены специалисты по кибербезопасности", - сказал Иванов.
Он объясняет такую динамику тем, что на фоне дефицита кадров бизнес особенно активно внедряет ИИ-технологии. "И поскольку кадровый кризис в ближайшие годы никуда не исчезнет, ИИ будет брать на себя все больше функций", - полагает Иванов.
Чаще всего компании используют большие языковые модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, а также ИИ-помощников.
Иванов перечислил риски кибербезопасности, которые могут возникнуть при использовании ИИ. Это внедрение вредоносного кода в запросы к нейросетям, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.
"Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и приводящей, в случае компрометации, к потерям репутации и убыткам", - продолжил он.
Эксперт отметил, что специалисты зачастую перекладывают на искусственный интеллект ответственность за безопасность, так как он якобы "исключает человеческий фактор". Однако он рекомендует компаниям ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения.
москва
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2024
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://1prime.ru/docs/about/copyright.html
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, бизнес, финансы, москва, андрей иванов
Технологии, Бизнес, Финансы, МОСКВА, Андрей Иванов
В России вырос спрос на услуги киберзащиты для сервисов с ИИ
Эксперт Иванов: спрос на услуги киберзащиты для сервисов с ИИ в России вырос в 2,5 раза
МОСКВА, 19 дек - ПРАЙМ. Спрос на услуги киберзащиты для сервисов, где используется искусственный интеллект (ИИ), в 2024 году в России вырос в 2,5 раза - этот показатель возрастает прямо пропорционально проценту внедрения ИИ в бизнес-направления, рассказал РИА Новости директор по развитию бизнеса ГК Swordfish Security (специализируется на консалтинге в сфере защищенного ПО) Андрей Иванов.
"Если в 2023 году среди обращений услуга по применению практик киберзащиты сервисов с использованием больших языковых моделей фигурировала в 10-15% случаев, в этом году таких обращений уже 35%. Эта цифра прямо пропорциональна проценту внедрения ИИ в бизнес-процессы. Применение практик LLM Security в 2025 будет становиться все более актуальным, поскольку уровень внедрения ИИ в различных отраслях бизнеса в России составит не менее 40%, уверены специалисты по кибербезопасности", - сказал Иванов.
Он объясняет такую динамику тем, что на фоне дефицита кадров бизнес особенно активно внедряет ИИ-технологии. "И поскольку кадровый кризис в ближайшие годы никуда не исчезнет, ИИ будет брать на себя все больше функций", - полагает Иванов.
Чаще всего компании используют большие языковые модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, а также ИИ-помощников.
Иванов перечислил риски кибербезопасности, которые могут возникнуть при использовании ИИ. Это внедрение вредоносного кода в запросы к нейросетям, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.
"Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и приводящей, в случае компрометации, к потерям репутации и убыткам", - продолжил он.
Эксперт отметил, что специалисты зачастую перекладывают на искусственный интеллект ответственность за безопасность, так как он якобы "исключает человеческий фактор". Однако он рекомендует компаниям ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения.