Читайте страницу «Минфина» в фейсбуке: главные финансовые новости

Ранее в этом месяце компания OpenAI, поддерживаемая Microsoft, представила четвертую итерацию своей программы GPT (Generative Pre-trained Transformer), поразившей пользователей.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми», — говорится в письме, которое опубликовал Future of Life Institute (некоммерческая организация, работающая над уменьшением глобальных катастрофических и экзистенциальных рисков, с которыми сталкивается человечество).

Согласно реестру прозрачности Европейского Союза, некоммерческая организация в основном финансируется Фондом Маска, а также лондонской группой Founders Pledge и Silicon Valley Community Foundation.

В Future of Life Institute призывают все лаборатории по разработке искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучение более мощных GPT-4 систем.

Отмечается, что Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, тщательно проверяемых и контролируемых независимыми сторонними экспертами.

«Это не означает приостановки развития искусственного интеллекта в целом, а просто уход от опасной гонки к все большим и непредсказуемым моделям черного ящика с чрезвычайными возможностями», — говорится в письме.

Читайте также: В Европоле рассказали, как мошенники могут использовать ChatGPT

Что предлагается

Исследования и разработки искусственного интеллекта следует переориентировать на то, чтобы сделать современные мощные, самые современные системы более точными, безопасными, доступными для интерпретации, прозрачными и надежными.

Параллельно разработчики искусственного интеллекта должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ.

Они должны включать как минимум:

  • новые и состоятельные регуляторные органы, занимающиеся ИИ;
  • наблюдение и отслеживание высокопроизводительных систем искусственного интеллекта и больших вычислительных возможностей;
  • системы происхождения и водяных знаков, чтобы помочь отличить подлинное от синтетического и отслеживать утечки моделей;
  • надежная экосистема аудита и сертификации;
  • ответственность за вред, причиненный ИИ;
  • надежное государственное финансирование технических исследований безопасности ИИ;
  • хорошо обеспечены ресурсами учреждения для преодоления драматических экономических и политических срывов (особенно для демократии), которые приведет к ИИ.

Кто подписал письмо

Письмо уже подписали более 1000 человек, среди которых генеральный директор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк, старший научный сотрудник DeepMind Виктория Краковна, соучредитель Ripple Крис Ларсен и другие.