Мінфін - Курси валют України

Встановити
14 червня 2023, 16:29

5 міфів про штучний інтелект і як він може врятувати світ

Бум використання ШІ-інструментів викликає занепокоєність впливом його на людство. Але паніка навколо штучного інтелекту не є обгрунтованою, — таку думку висловив співзасновник Netscape та одного з найвпливовіших венчурних фондів Кремнієвої долини Andreessen Horowitz Марк Андріссен у блозі фонду. «Мінфін» публкує головні тези.

Що таке ШІ? — Це застосування математики та програмного коду, щоб навчити компʼютери розуміти, синтезувати та генерувати знання так, як це роблять люди.

ШІ — це просто компʼютерна програма; як і будь-яка інша — вона запускається, отримує вхідні дані, обробляє їх та генерує результат.

Чим ШІ не є: вбивчими програмами та роботами із фільмів, які оживають і вирішують вбити людську расу чи зруйнувати все якимось іншим чином. Чим може стати ШІ: способом поліпшити все, що нам подобається.

Що може поліпшити ШІ

Людський інтелект робить широкий спектр життєвих результатів кращими. Розумніші люди досягають кращих результатів практично у будь-якій сфері діяльності.

Ба більше, людський інтелект — це важіль, яким ми користувалися протягом тисячоліть, аби створити світ, у якому ми живемо сьогодні. ШІ дає нам можливість значною мірою посилити людський інтелект.

Зростання продуктивності в економіці різко прискорюватиметься, сприяючи економічному зростанню, створенню нових галузей, нових робочих місць і зростанню заробітної плати, що призведе до нової ери підвищеного матеріального процвітання.

ШІ може допомогти нам краще зрозуміти світ, збільшити культурну свідомість і розширювати горизонти знань.

Звичайно, зʼявляються й етичні та соціальні питання, які потребують ретельного розгляду та регулювання, щоб максимізувати позитивні наслідки й мінімізувати негативні.

Тож звідки паніка?

На відміну від цього позитивного погляду, публічні розмови про штучний інтелект зараз пронизані істеричним страхом і параноєю.

Ми чуємо заяви, що штучний інтелект вб'є нас усіх, зруйнує наше суспільство, забере всі наші робочі місця, спричинить жахливу нерівність і дозволить поганим людям робити жахливі речі.

Цю моральну паніку різні субʼєкти вже використовують, щоб вимагати політичних дій — нових обмежень ШІ, правил і законів. Ці актори, які роблять надзвичайно драматичні публічні заяви про небезпеку штучного інтелекту, підживлюючи і розпалюючи моральну паніку, уявляють себе самовідданими борцями за суспільне благо. Розгляньмо їхні аргументи по суті.

Ризик № 1: Чи знищить ШІ людство

Перший і оригінальний ризик штучного інтелекту, за версією «думерів», полягає в тому, що штучний інтелект вирішить буквально знищити людство.

Я вважаю, що ця ідея є помилкою. Штучний інтелект — нежива істота, яку мільярди років еволюції підготували для участі в битві за виживання.

Це математика — код — компʼютери, що побудовані, належать людям, використовуються та контролюються людьми. Ідея, що в якийсь момент він розвине власний розум і вирішить, що має мотиви вбити нас, — міф.

Ризик № 2: Чи зруйнує ШІ наше суспільство

Поширеною теорією про небезпеку ШІ є твердження, що він може знищити суспільство, генеруючи результати, які будуть настільки «шкідливими», що завдадуть глибокої шкоди людству.

Існують певні види контенту, такі як дитяча порнографія та заклики до насильства, які практично всі суспільства вважають неприпустимими. Тому будь-яка технологічна платформа, яка допомагає або генерує контент, матиме обмеження.

Читайте також: Як вкластися в штучний інтелект: три стратегії інвестування

Ризик № 3: Чи забере ШІ наші робочі місця

Збереження робочих місць на фоні загроз, повʼязаних зі ШІ, є довготривалими пересторогами, які повторюються протягом сотень років, починаючи з появи механічного ткацького верстата.

Попри те, що кожна нова велика технологія призводила до збільшення кількості робочих місць із вищою заробітною платою протягом усієї історії, кожна хвиля цієї паніки супроводжується твердженнями, що «цього разу все інакше».

Помилка — у хибній думці, що в економіці існує фіксована кількість роботи, яку можуть виконувати машини або люди. І якщо машини роблять цю роботу, то для людей її не залишиться.

Технологія дозволяє людям стати продуктивнішими. Це призводить до зниження цін на наявні товари та послуги, а також до підвищення заробітної плати.

Наше завдання — адаптуватися до змін, розвивати нові навички та використовувати переваги, які надаються штучним інтелектом та автоматизацією, для досягнення нових горизонтів у суспільстві та економіці.

Ризик № 4: Чи призведе ШІ до руйнівної нерівності

Чергове занепокоєння — чи не призведе ШІ до величезної та нищівної нерівності багатства, оскільки власники штучного інтелекту отримають усі економічні винагороди, а звичайні люди не отримають нічого?

Недолік цієї теорії полягає в тому, що будучи власником певної технології, вам невигідно тримати її при собі. Навпаки, вам вигідно продавати її якомога більшій кількості клієнтів.

Тому на практиці кожна нова технологія — навіть ті, які спочатку продаються лише вищим колам великих компаній або заможних споживачів, — швидко поширюється, доки не потрапить до рук найбільшої можливої масової аудиторії. А, зрештою, — до кожної людини на планеті.

Ризик № 5: Чи призведе ШІ до того, що погані люди робитимуть погані речі?

Але тепер розгляньмо ризик, із яким я фактично згоден: ШІ полегшить поганим людям завдання робити погані речі.

Будь-яка технологія може бути використана для добра або зла. Це зрозуміло. І ШІ дійсно робить легшим завдання злочинцям, терористам і ворожим урядам робити погані речі, це без сумніву.

Вочевидь, «ШІ-кота» вже витягли з мішка. Ви можете навчитися будувати ШІ з тисяч безоплатних онлайн-курсів, книг, наукових статей і відео. І щодня зʼявляються відмінні реалізації з відкритим вихідним кодом. ШІ подібний до повітря — він буде скрізь.

У нас вже є закони, які криміналізують більшість поганих речей, які хтось може зробити зі ШІ. Зламати Пентагон? — Це злочин. Викрасти гроші з банку? — Це злочин. Створити біологічну зброю? — Це злочин. Вчинити терористичний акт? — Це злочин.

Ми просто можемо зосередитися на запобіганні таких злочинів, коли це можливо, і проводити їхнє розслідування, коли цього не можна зробити. Нам навіть не потрібні нові закони — я не знаю жодного фактичного поганого використання ШІ, що вже не є незаконним. І якщо буде виявлено новий поганий спосіб використання, ми заборонимо його.

Читайте також: Інвестори скуповують активи ШІ: що це означає для ринку

Реальний ризик просування ШІ і що з ним робити

ШІ розробляється не лише у відносно вільних суспільствах Заходу, але й у Китаї. Китай має значно інший погляд на ШІ — його розглядають, як механізм авторитарного контролю над населенням.

Я пропоную просту стратегію щодо того, що з цим робити.

Замість того, щоб дозволити безпідставній паніці навколо штучного інтелекту-вбивці, «шкідливого» штучного інтелекту, штучного інтелекту, який руйнує робочі місця, і штучного інтелекту, що створює нерівність, поставити нас на ноги, ми у Сполучених Штатах і на Заході повинні спиратися на штучний інтелект якомога сильніше.

Ми повинні прагнути виграти гонку за глобальну технологічну перевагу ШІ та переконатися, що Китай цього не зробить.

У цьому процесі ми повинні впроваджувати ШІ в нашу економіку та суспільство якомога швидше та потужніше, щоб максимізувати його переваги для економічної продуктивності та людського потенціалу.

Це найкращий спосіб як компенсувати реальні ризики штучного інтелекту, так і гарантувати, що наш спосіб життя не буде витіснено набагато темнішим китайським баченням.

Коментарі - 13

+
0
dsn
dsn
14 червня 2023, 19:50
#
ШІ як шило в мішку. Люди все одно навчаться виявляти його діяльність.
+
+30
bonv
bonv
14 червня 2023, 22:41
#
№ 5 спочатку створити, а потім запобігати. Створи собі проблему, а потім шукай вирішення:)
+
0
neverice
neverice
15 червня 2023, 12:12
#
Проблема ШІ в тому, що він є саме інтелектом. Ніхто не програмує його на конкретні рішення. Він сам здатен приймати рішення на основі даних, що він має. Це й відрізняє його від класичних алгоритмічних програм. Фактично — він непередбачуваний.
На даний момент загрози ніякої немає, бо все що він може — то видавати інформацію по запиту. Але з усе більшою інтеграцією його в різні системи у нього може з’явитись можливість діяти. І тут можуть початись цікаві наслідки. Аналогічно з дивними і невірними відповідями, що часто генерує той самий ChatGPT, він може дивно і «нелогічно» діяти. І наслідки вже будуть залежити від того, до яких дій він матиме доступ.
+
0
SkeptikUA
SkeptikUA
15 червня 2023, 15:36
#
Ви це десь прочитали чи своїми руками «щупали» так званий ШІ? Я схиляюсь до першого. Чутки про те що це «інтелект» і він може «думати» вигідні для великих корпорацій які бояться втратити долю ринчу через запровадження технологій на базі ШІ, саме тому вони запускають ці чутки про небезпеку. Але ШІ не є більш небезпечним ніж автомобіль з «автопілотом», які доречі вже їздять в Китаї та нікого не вбивають. Єдина різниця ШІ від класичних програм у тому що алгоритм обчислень він «складає» для себе сам, а не пишуть програмісти. Але у ШІ дуже чіткі рамки та обмежені ресурси. ChatGPT не зможе вирішити вбити людей, бо він вміє лише працювати з «людською мовою», не більше. Ніхто не довірить ШІ керування стратегічними ядерними ракетами скажімо.
+
0
neverice
neverice
15 червня 2023, 15:54
#
На даний момент так і є. Але ви ж самі підтвердили тезу, що я висловив — «Єдина різниця ШІ від класичних програм у тому що алгоритм обчислень він „складає“ для себе сам, а не пишуть програмісти».
І саме це робить його непередбачуваним, бо, насправді, ніхто не знає яке саме рішення він прийме. Аналогічно, візьмемо значно простіші нейронні мережі - ніхто вам точно не скаже, чому нейронна мережа визначила саме цей об'єкт як собаку (який взагалі не собака).
Відповідно, що більше ШІ буде використовуватись, то більшими можуть бути потенційні наслідки його непередбачуваності. І світ всполошився через те, що ера розповсюдження ШІ в усіх сферах значно ближче, ніж гадалось. А регуляторні норми не готові. І регуляція тут стосуєтся саме рішень ШІ - що він може, а що ні.
+
0
SkeptikUA
SkeptikUA
15 червня 2023, 17:05
#
ШІ не може стати більш непередбачуваним ніж людина апріорі. Бо його «створюють» якраз по подобі людського. Людей же ніхто не забороняє. Перед тим як дати людині посвідчення водія її перевіряють, так само і з ШІ. Але на відміну від ШІ людина може порушити заборони, а ШІ лише обійти, але тоді це помилка того хто писав закони (оператора). Тому ШІ є навіть безпечнішим ніж людина.
+
0
neverice
neverice
15 червня 2023, 17:24
#
Але небезпечнішим ніж «класична» програма. Ми фактично про одне говоримо. Так, ШІ не такий небезпечний, як його малюють, але він не є абсолютно безпечним.
+
0
SkeptikUA
SkeptikUA
15 червня 2023, 18:57
#
«Все — отрута, все — ліки; те й інше визначає доза»
А у даному випадку це більше схоже на «приручення атома» — можна використати щоб добувати енергію, а можна щоб знищити світ, але це лише інструмент в руках ЛЮДИНИ, саме людство «натискає кнопку».
+
0
neverice
neverice
15 червня 2023, 16:03
#
Можна розглянути приклад суддя-ШІ. Це чудове застосування. Але от наслідки можуть бути вельми цікаві, якщо не перевіряти його рішення людьми.
+
0
SkeptikUA
SkeptikUA
15 червня 2023, 17:02
#
Пояснюю. Для того щоб з"явився ШІ-суддя, потрібно прийняти якісь закони для цього і це ой як не просто буде. Ті ж автомобілі без водія досі поза законом, при тому що всі розуміють що це «золота жила». Тому немає сенсу забороняти те що і так не дозволено…
+
0
neverice
neverice
15 червня 2023, 17:25
#
Саме так. В цьому і є «небезпека» ШІ. Щось нове, що неясно як регулювати і до яких наслідків може призвести використання його без регулювання в сферах, де може бути якась відповідальність — той самий автопілот то лише вершина айсбергу.
+
0
SkeptikUA
SkeptikUA
15 червня 2023, 18:59
#
А чим це відрізняється від всього іншого «нового»? Навіть з криптою поки не знають що робити.
+
0
SkrudjMacduck
SkrudjMacduck
18 червня 2023, 14:49
#
Звісно, ШІ відбере частину робочих місць. Подивіться, як штампують друковані плати, зварюють автомобілі, готують ширпотребну пакетовану їжу… людей майже немає в процесі. Але ж і обсяги цих товарів зросли стократно, тому загальна зайнятість не падає. Так само, ШІ зможе знищити людство, якщо дати йому апаратний доступ до ядерної зброї. Але більш корисне те, що ШІ нічого не забуває, в нього є банк інформації, як у лікаря, як у судді тощо, і ШІ зважує всі фактори, але вага кожного фактора різна… тому мені комфортно давати ШІ запит, а рішення приймати самостійно. Це економія часу і є можливість уникнути помилки.
Щоб залишити коментар, потрібно увійти або зареєструватися