Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в разработке систем, мощнее недавно запущенной OpenAI GPT-4 из-за потенциальных рисков для общества. Об этом сообщает Reuters.
Маск и другие эксперты призывают приостановить разработку искусственного интеллекта из-за рисков для общества
► Читайте страницу «Минфина» в фейсбуке: главные финансовые новости
Ранее в этом месяце компания OpenAI, поддерживаемая Microsoft, представила четвертую итерацию своей программы GPT (Generative Pre-trained Transformer), поразившей пользователей.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми», — говорится в письме, которое опубликовал Future of Life Institute (некоммерческая организация, работающая над уменьшением глобальных катастрофических и экзистенциальных рисков, с которыми сталкивается человечество).
Согласно реестру прозрачности Европейского Союза, некоммерческая организация в основном финансируется Фондом Маска, а также лондонской группой Founders Pledge и Silicon Valley Community Foundation.
В Future of Life Institute призывают все лаборатории по разработке искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучение более мощных GPT-4 систем.
Отмечается, что Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, тщательно проверяемых и контролируемых независимыми сторонними экспертами.
«Это не означает приостановки развития искусственного интеллекта в целом, а просто уход от опасной гонки к все большим и непредсказуемым моделям черного ящика с чрезвычайными возможностями», — говорится в письме.
Читайте также: В Европоле рассказали, как мошенники могут использовать ChatGPT
Что предлагается
Исследования и разработки искусственного интеллекта следует переориентировать на то, чтобы сделать современные мощные, самые современные системы более точными, безопасными, доступными для интерпретации, прозрачными и надежными.
Параллельно разработчики искусственного интеллекта должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ.
Они должны включать как минимум:
- новые и состоятельные регуляторные органы, занимающиеся ИИ;
- наблюдение и отслеживание высокопроизводительных систем искусственного интеллекта и больших вычислительных возможностей;
- системы происхождения и водяных знаков, чтобы помочь отличить подлинное от синтетического и отслеживать утечки моделей;
- надежная экосистема аудита и сертификации;
- ответственность за вред, причиненный ИИ;
- надежное государственное финансирование технических исследований безопасности ИИ;
- хорошо обеспечены ресурсами учреждения для преодоления драматических экономических и политических срывов (особенно для демократии), которые приведет к ИИ.
Кто подписал письмо
Письмо уже подписали более 1000 человек, среди которых генеральный директор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк, старший научный сотрудник DeepMind Виктория Краковна, соучредитель Ripple Крис Ларсен и другие.
Комментарии - 4