Мінфін - Курси валют України

Встановити
30 березня 2023, 10:02

Маск та інші експерти закликають призупинити розробку штучного інтелекту через ризики для суспільства

Ілон Маск і група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущену OpenAI GPT-4 через потенційні ризики для суспільства. Про це повідомляє Reuters.

Ілон Маск і група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущену OpenAI GPT-4 через потенційні ризики для суспільства.
Фото: pixabay.com

Читайте сторінку«Мінфіну» у фейсбуці: головні фінансові новини

Раніше цього місяця компанія OpenAI, яка підтримується Microsoft, представила четверту ітерацію своєї програми GPT (Generative Pre-trained Transformer), яка вразила користувачів.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими», — йдеться в листі, який опублікував Future of Life Institute (некомерційна організація, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство).

Відповідно до реєстру прозорості Європейського Союзу, некомерційна організація в основному фінансується Фондом Маска, а також лондонською групою Founders Pledge і Silicon Valley Community Foundation.

У Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на 6 місяців навчання потужніших за GPT-4 систем.

Зазначається, що Лабораторії штучного інтелекту та незалежні експерти повинні використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проектування та розробки штучного інтелекту, які ретельно перевіряються та контролюються незалежними сторонніми експертами.

«Це не означає призупинення розвитку штучного інтелекту в цілому, а просто відхід від небезпечної гонки до все більших і непередбачуваних моделей чорного ящика з надзвичайними можливостями», — йдеться у листі.

Читайте також: В Європолі розповіли, як шахраї можуть використовувати ChatGPT

Що пропонується

Дослідження та розробки штучного інтелекту слід переорієнтувати на те, щоб зробити сучасні потужні, найсучасніші системи більш точними, безпечними, доступними для інтерпретації, прозорими, та надійними.

Паралельно розробники штучного інтелекту повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління ШІ.

Вони повинні включати як мінімум:

  • нові та спроможні регуляторні органи, які займаються ШІ;
  • нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей;
  • системи походження та водяних знаків, щоб допомогти відрізнити справжнє від синтетичного та відстежувати витоки моделей;
  • надійна екосистема аудиту та сертифікації;
  • відповідальність за шкоду, заподіяну ШІ;
  • надійне державне фінансування технічних досліджень безпеки ШІ;
  • добре забезпечені ресурсами установи для подолання драматичних економічних і політичних зривів (особливо для демократії), які спричинить ШІ.

Хто підписав лист

Лист вже підписали понад 1000 людей, серед яких генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, старший науковий співробітник DeepMind Вікторія Краковна, співзасновник Ripple Кріс Ларсен та інші.

Автор:
Роман Мирончук
Редактор стрічки новин Роман Мирончук
Пише на теми: Економіка, фінанси, банки, криптовалюти, інвестиції, технології

Коментарі - 4

+
+32
Strain
Strain
30 березня 2023, 10:16
#
Просто слабаки, проигравшие гонку прогресса пытаются выиграть время и доделать что-то своё=)
+
0
AlSaher
AlSaher
30 березня 2023, 14:33
#
Просто тебе зможе замінити аі через декліька років таким темпом і будеш шукати що б поїсти
+
+15
locustsucol
locustsucol
30 березня 2023, 20:18
#
Серйозно? Може треба було відмінити в свій час тоді комп’ютери? Паровий двигун? Ткацький станок?
+
0
Сергій Т
Сергій Т
30 березня 2023, 12:07
#
Генезис — это Скайнет.
Щоб залишити коментар, потрібно увійти або зареєструватися