https://1prime.ru/20231125/842371936.html
Эксперт назвал фактор, при котором ИИ может стать опасным
Эксперт назвал фактор, при котором ИИ может стать опасным - 25.11.2023, ПРАЙМ
Эксперт назвал фактор, при котором ИИ может стать опасным
Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов | 25.11.2023, ПРАЙМ
2023-11-25T09:29+0300
2023-11-25T09:29+0300
2023-11-25T09:29+0300
технологии
россия
искусственный интеллект
https://cdnn.1prime.ru/img/84150/35/841503536_0:187:2000:1312_1920x0_80_0_0_e359692eda635d61e343a33e69c20b97.jpg
МОСКВА, 25 ноя — ПРАЙМ. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов."Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", — сказал Ермилов.При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.В свою очередь, Q* — разработка OpenAI, которую обучили решать задачи из начальной математики — справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", — резюмировал он.Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".
https://1prime.ru/20231124/842367625.html
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
2023
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
Новости
ru-RU
https://1prime.ru/docs/about/copyright.html
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
https://cdnn.1prime.ru/img/84150/35/841503536_0:0:2000:1500_1920x0_80_0_0_f7983b3e7ff2d784a7ee9ae2ab2509b2.jpgПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
ПРАЙМ
internet-group@rian.ru
7 495 645-6601
ФГУП МИА «Россия сегодня»
https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/
технологии, россия, искусственный интеллект
Технологии, РОССИЯ, искусственный интеллект
Эксперт назвал фактор, при котором ИИ может стать опасным
Эксперт Ермилов: ИИ станет опасным, если получит возможность управлять системами
МОСКВА, 25 ноя — ПРАЙМ. Искусственный интеллект и нейросети могут нести угрозу в том случае, если человек передаст им возможность управлять системами, например диспетчеризацией полетов в аэропорту, таким мнением с РИА Новости поделился руководитель департамента машинного обучения и искусственного интеллекта "Билайна" Дмитрий Ермилов.
В России в ближайшее время утвердят новую редакцию стратегии развития ИИ "Нейросети, на мой взгляд, не представляют угрозы. Это математическая функция, которая не может ничего сделать без внешнего воздействия. Потенциальная угроза появляется, если отдать управление процессами алгоритмам ИИ. Например, если отдать диспетчеризацию полетов в аэропорту ИИ, то может произойти ошибка. Намеренно ли? Нет. Это статистическая ошибка, которая всегда присутствует в моделях машинного обучения", — сказал Ермилов.
При этом эксперт сомневается в том, что в ближайшее время это будет реалистичным сценарием развития. Пока что, по его мнению, процент задач, которые ИИ выполняет лучше, чем люди, не превышает 7%.
Ермилов объяснил, что все большие лингвистические модели, такие как ChatGPT разных версий, GigaChat от "Сбера", YandexGPT, обучаются выполнять набор типичных задач: ответы на вопросы, выполнение арифметических операций, генерация кода и так далее.
В свою очередь, Q* — разработка OpenAI, которую обучили решать задачи из начальной математики — справляется с ними, потому что они довольно шаблонные и делятся на несколько типов. "Алгоритм учится искать этот тип задачи в тексте и выполнять операцию над соответствующими числами. Другими словами, мы наблюдаем ожидаемое развитие больших лингвистических моделей в сторону расширения их функциональности", — резюмировал он.
Ранее в ноябре агентство Рейтер со ссылкой на источники сообщило, что перед решением уволить Сэма Альтмана с поста гендиректора OpenAI, разработчика чат-бота ChatGPT, совет директоров компании получил письмо от исследователей компании с предупреждением об опасном открытии, связанном с ИИ. Уточнялось, что OpenAI достигла прогресса в разработки своей системы Q*, и в компании полагают, что она может быть прорывом на пути к созданию общего искусственного интеллекта (AGI), или "суперинтеллекта".