Эксперт назвал фактор, при котором ИИ может стать опасным

Эксперт Ермилов: ИИ станет опасным, если получит возможность управлять системами

Читать на сайте 1prime.ru
МОСКВА, 25 ноя — ПРАЙМ. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов.
В России в ближайшее время утвердят новую редакцию стратегии развития ИИ
"Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", — сказал Ермилов.
При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.
Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.
В свою очередь, Q* — разработка OpenAI, которую обучили решать задачи из начальной математики — справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", — резюмировал он.
Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".
Обсудить
Рекомендуем