МОСКВА, 29 мар — ПРАЙМ. Создателям искусственного интеллекта (ИИ) необходимо как минимум на полгода остановить исследование мощных систем, говорится в открытом письме на сайте организации Future of Life, занимающейся снижением рисков для человечества, особенно возникающих в сфере ИИ. Письмо было подписано главой Tesla, SpaceX и Twitter Илоном Маском, сооснователем Apple Стивом Возняком, сооснователем Pinterest Эваном Шарпом, а также рядом экспертов в области искусственного интеллекта.
"Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки всех систем мощнее GPT-4. Эта пауза должна быть публичной и действительной… Если такая приостановка не может быть быстро сделана, правительства должны вмешаться и ввести мораторий", — говорится в письме.
Как показывают обширные исследования, системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общества и человечества, говорится в письме. Лаборатории и независимые эксперты должны использовать этот перерыв для совместной разработки и внедрения общего набора протоколов безопасности для более мощных систем, соблюдение которых должны контролировать независимые эксперты.
Также разработчикам ИИ необходимо сотрудничать с политиками в рамках создания системы управления в данной сфере. Она, по мнению составителей письма, должна включать в себя новые дееспособные регулирующие органы, занимающиеся вопросами искусственного интеллекта, надежную систему проверки и сертификации, а также должна заниматься контролем более продвинутых систем ИИ.
Азиломарские принципы исследования искусственного интеллекта, разработанные в 2017 году, указывают, что продвинутый ИИ способен привнести серьезные изменения в историю жизни на Земле, и поэтому необходимы внимание и ресурсы для управления им. Как отмечают в письме эксперты, на данный момент соответствующий контроль не обеспечивается и лаборатории стремятся обогнать друг друга, разрабатывая и внедряя все более мощные системы, поведение которых не могут предсказать даже их создатели.