Що таке ШІ? — Це застосування математики та програмного коду, щоб навчити компʼютери розуміти, синтезувати та генерувати знання так, як це роблять люди.

ШІ — це просто компʼютерна програма; як і будь-яка інша — вона запускається, отримує вхідні дані, обробляє їх та генерує результат.

Чим ШІ не є: вбивчими програмами та роботами із фільмів, які оживають і вирішують вбити людську расу чи зруйнувати все якимось іншим чином. Чим може стати ШІ: способом поліпшити все, що нам подобається.

Що може поліпшити ШІ

Людський інтелект робить широкий спектр життєвих результатів кращими. Розумніші люди досягають кращих результатів практично у будь-якій сфері діяльності.

Ба більше, людський інтелект — це важіль, яким ми користувалися протягом тисячоліть, аби створити світ, у якому ми живемо сьогодні. ШІ дає нам можливість значною мірою посилити людський інтелект.

Зростання продуктивності в економіці різко прискорюватиметься, сприяючи економічному зростанню, створенню нових галузей, нових робочих місць і зростанню заробітної плати, що призведе до нової ери підвищеного матеріального процвітання.

ШІ може допомогти нам краще зрозуміти світ, збільшити культурну свідомість і розширювати горизонти знань.

Звичайно, зʼявляються й етичні та соціальні питання, які потребують ретельного розгляду та регулювання, щоб максимізувати позитивні наслідки й мінімізувати негативні.

Тож звідки паніка?

На відміну від цього позитивного погляду, публічні розмови про штучний інтелект зараз пронизані істеричним страхом і параноєю.

Ми чуємо заяви, що штучний інтелект вб'є нас усіх, зруйнує наше суспільство, забере всі наші робочі місця, спричинить жахливу нерівність і дозволить поганим людям робити жахливі речі.

Цю моральну паніку різні субʼєкти вже використовують, щоб вимагати політичних дій — нових обмежень ШІ, правил і законів. Ці актори, які роблять надзвичайно драматичні публічні заяви про небезпеку штучного інтелекту, підживлюючи і розпалюючи моральну паніку, уявляють себе самовідданими борцями за суспільне благо. Розгляньмо їхні аргументи по суті.

Ризик № 1: Чи знищить ШІ людство

Перший і оригінальний ризик штучного інтелекту, за версією «думерів», полягає в тому, що штучний інтелект вирішить буквально знищити людство.

Я вважаю, що ця ідея є помилкою. Штучний інтелект — нежива істота, яку мільярди років еволюції підготували для участі в битві за виживання.

Це математика — код — компʼютери, що побудовані, належать людям, використовуються та контролюються людьми. Ідея, що в якийсь момент він розвине власний розум і вирішить, що має мотиви вбити нас, — міф.

Ризик № 2: Чи зруйнує ШІ наше суспільство

Поширеною теорією про небезпеку ШІ є твердження, що він може знищити суспільство, генеруючи результати, які будуть настільки «шкідливими», що завдадуть глибокої шкоди людству.

Існують певні види контенту, такі як дитяча порнографія та заклики до насильства, які практично всі суспільства вважають неприпустимими. Тому будь-яка технологічна платформа, яка допомагає або генерує контент, матиме обмеження.

Читайте також: Як вкластися в штучний інтелект: три стратегії інвестування

Ризик № 3: Чи забере ШІ наші робочі місця

Збереження робочих місць на фоні загроз, повʼязаних зі ШІ, є довготривалими пересторогами, які повторюються протягом сотень років, починаючи з появи механічного ткацького верстата.

Попри те, що кожна нова велика технологія призводила до збільшення кількості робочих місць із вищою заробітною платою протягом усієї історії, кожна хвиля цієї паніки супроводжується твердженнями, що «цього разу все інакше».

Помилка — у хибній думці, що в економіці існує фіксована кількість роботи, яку можуть виконувати машини або люди. І якщо машини роблять цю роботу, то для людей її не залишиться.

Технологія дозволяє людям стати продуктивнішими. Це призводить до зниження цін на наявні товари та послуги, а також до підвищення заробітної плати.

Наше завдання — адаптуватися до змін, розвивати нові навички та використовувати переваги, які надаються штучним інтелектом та автоматизацією, для досягнення нових горизонтів у суспільстві та економіці.

Ризик № 4: Чи призведе ШІ до руйнівної нерівності

Чергове занепокоєння — чи не призведе ШІ до величезної та нищівної нерівності багатства, оскільки власники штучного інтелекту отримають усі економічні винагороди, а звичайні люди не отримають нічого?

Недолік цієї теорії полягає в тому, що будучи власником певної технології, вам невигідно тримати її при собі. Навпаки, вам вигідно продавати її якомога більшій кількості клієнтів.

Тому на практиці кожна нова технологія — навіть ті, які спочатку продаються лише вищим колам великих компаній або заможних споживачів, — швидко поширюється, доки не потрапить до рук найбільшої можливої масової аудиторії. А, зрештою, — до кожної людини на планеті.

Ризик № 5: Чи призведе ШІ до того, що погані люди робитимуть погані речі?

Але тепер розгляньмо ризик, із яким я фактично згоден: ШІ полегшить поганим людям завдання робити погані речі.

Будь-яка технологія може бути використана для добра або зла. Це зрозуміло. І ШІ дійсно робить легшим завдання злочинцям, терористам і ворожим урядам робити погані речі, це без сумніву.

Вочевидь, «ШІ-кота» вже витягли з мішка. Ви можете навчитися будувати ШІ з тисяч безоплатних онлайн-курсів, книг, наукових статей і відео. І щодня зʼявляються відмінні реалізації з відкритим вихідним кодом. ШІ подібний до повітря — він буде скрізь.

У нас вже є закони, які криміналізують більшість поганих речей, які хтось може зробити зі ШІ. Зламати Пентагон? — Це злочин. Викрасти гроші з банку? — Це злочин. Створити біологічну зброю? — Це злочин. Вчинити терористичний акт? — Це злочин.

Ми просто можемо зосередитися на запобіганні таких злочинів, коли це можливо, і проводити їхнє розслідування, коли цього не можна зробити. Нам навіть не потрібні нові закони — я не знаю жодного фактичного поганого використання ШІ, що вже не є незаконним. І якщо буде виявлено новий поганий спосіб використання, ми заборонимо його.

Читайте також: Інвестори скуповують активи ШІ: що це означає для ринку

Реальний ризик просування ШІ і що з ним робити

ШІ розробляється не лише у відносно вільних суспільствах Заходу, але й у Китаї. Китай має значно інший погляд на ШІ — його розглядають, як механізм авторитарного контролю над населенням.

Я пропоную просту стратегію щодо того, що з цим робити.

Замість того, щоб дозволити безпідставній паніці навколо штучного інтелекту-вбивці, «шкідливого» штучного інтелекту, штучного інтелекту, який руйнує робочі місця, і штучного інтелекту, що створює нерівність, поставити нас на ноги, ми у Сполучених Штатах і на Заході повинні спиратися на штучний інтелект якомога сильніше.

Ми повинні прагнути виграти гонку за глобальну технологічну перевагу ШІ та переконатися, що Китай цього не зробить.

У цьому процесі ми повинні впроваджувати ШІ в нашу економіку та суспільство якомога швидше та потужніше, щоб максимізувати його переваги для економічної продуктивності та людського потенціалу.

Це найкращий спосіб як компенсувати реальні ризики штучного інтелекту, так і гарантувати, що наш спосіб життя не буде витіснено набагато темнішим китайським баченням.