Читайте сторінку«Мінфіну» у фейсбуці: головні фінансові новини

Раніше цього місяця компанія OpenAI, яка підтримується Microsoft, представила четверту ітерацію своєї програми GPT (Generative Pre-trained Transformer), яка вразила користувачів.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими», — йдеться в листі, який опублікував Future of Life Institute (некомерційна організація, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство).

Відповідно до реєстру прозорості Європейського Союзу, некомерційна організація в основному фінансується Фондом Маска, а також лондонською групою Founders Pledge і Silicon Valley Community Foundation.

У Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на 6 місяців навчання потужніших за GPT-4 систем.

Зазначається, що Лабораторії штучного інтелекту та незалежні експерти повинні використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проектування та розробки штучного інтелекту, які ретельно перевіряються та контролюються незалежними сторонніми експертами.

«Це не означає призупинення розвитку штучного інтелекту в цілому, а просто відхід від небезпечної гонки до все більших і непередбачуваних моделей чорного ящика з надзвичайними можливостями», — йдеться у листі.

Читайте також: В Європолі розповіли, як шахраї можуть використовувати ChatGPT

Що пропонується

Дослідження та розробки штучного інтелекту слід переорієнтувати на те, щоб зробити сучасні потужні, найсучасніші системи більш точними, безпечними, доступними для інтерпретації, прозорими, та надійними.

Паралельно розробники штучного інтелекту повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління ШІ.

Вони повинні включати як мінімум:

  • нові та спроможні регуляторні органи, які займаються ШІ;
  • нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей;
  • системи походження та водяних знаків, щоб допомогти відрізнити справжнє від синтетичного та відстежувати витоки моделей;
  • надійна екосистема аудиту та сертифікації;
  • відповідальність за шкоду, заподіяну ШІ;
  • надійне державне фінансування технічних досліджень безпеки ШІ;
  • добре забезпечені ресурсами установи для подолання драматичних економічних і політичних зривів (особливо для демократії), які спричинить ШІ.

Хто підписав лист

Лист вже підписали понад 1000 людей, серед яких генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, старший науковий співробітник DeepMind Вікторія Краковна, співзасновник Ripple Кріс Ларсен та інші.