Минфин - Курсы валют Украины

Установить
14 июня 2023, 16:29 Читати українською

5 мифов об искусственном интеллекте и как он может спасти мир

Бум использования ИИ-инструментов вызывает обеспокоенность влиянием его на человечество. Но паника вокруг искусственного интеллекта не обоснована, — такое мнение высказал соучредитель Netscape и одного из самых влиятельных венчурных фондов Кремниевой долины Andreessen Horowitz Марк Андриссен в блоге фонда. «Минфин» публикует главные тезисы.

Что такое ИИ? — Это применение математики и программного кода, чтобы научить компьютеры понимать, синтезировать и генерировать знания так, как это делают люди.

ИИ — это просто компьютерная программа; как и любая другая — она запускается, получает входные данные, обрабатывает их и генерирует результат.

Чем ИИ не является: убийственными программами и роботами из фильмов, которые оживают и решают убить человеческую расу или разрушить все каким-либо другим образом. Чем может стать ИИ: способом улучшить все, что нам нравится.

Что может улучшить ИИ

Человеческий интеллект делает широкий спектр жизненных результатов лучше. Более умные люди достигают лучших результатов практически в любой сфере деятельности.

Более того, человеческий интеллект — это рычаг, которым мы пользовались на протяжении тысячелетий, чтобы создать мир, в котором мы живем сегодня. ИИ дает нам возможность в значительной степени усилить человеческий интеллект.

Рост продуктивности в экономике будет резко ускоряться, способствуя экономическому росту, созданию новых отраслей, новых рабочих мест и росту заработной платы, что приведет к новой эре повышенного материального процветания.

ИИ может помочь нам лучше понять мир, увеличить культурное сознание и расширять горизонты знаний.

Конечно, появляются и этические и социальные вопросы, требующие тщательного рассмотрения и регулирования, чтобы максимизировать положительные последствия и минимизировать негативные.

Так откуда паника?

В отличие от этого положительного взгляда, публичные разговоры об искусственном интеллекте сейчас пронизаны истерическим страхом и паранойей.

Мы слышим заявления, что искусственный интеллект убьет нас всех, разрушит наше общество, заберет все наши рабочие места, повлечет за собой ужасное неравенство и позволит плохим людям делать ужасные вещи.

Эту моральную панику разные субъекты уже используют, чтобы требовать политических действий — новых ограничений ИИ, правил и законов. Эти актеры, которые делают чрезвычайно драматические публичные заявления об опасности искусственного интеллекта, подпитывая и разжигая нравственную панику, представляют себя самоотверженными борцами за общественное благо. Рассмотрим их доводы по существу.

Риск № 1: Уничтожит ли ИИ человечество

Первый и оригинальный риск искусственного интеллекта, по версии «думеров», состоит в том, что искусственный интеллект решит буквально уничтожить человечество.

Я считаю, что эта идея ошибочна. Искусственный интеллект — неодушевленное существо, которое миллиарды лет эволюции подготовили для участия в битве за выживание.

Это математика — код — компьютеры, которые построены, принадлежат людям, используются и контролируются людьми. Идея, что в какой-то момент он разовьет собственный разум и решит, что у него есть мотивы убить нас, — миф.

Риск № 2: Разрушит ли ИИ наше общество

Распространенной теорией об опасности ИИ является утверждение, что он может уничтожить общество, генерируя результаты, которые будут настолько «вредными», что нанесут глубокий вред человечеству.

Существуют определенные виды контента, такие как детская порнография и призывы к насилию, которые практически все общества считают недопустимыми. Поэтому любая технологическая платформа, которая помогает или генерирует контент, будет иметь ограничения.

Читайте также: Как вложиться в искусственный интеллект: три стратегии инвестирования

Риск № 3: Заберет ли ИИ наши рабочие места

Сохранение рабочих мест на фоне угроз, связанных с ИИ, является длительными предосторожностями, которые повторяются в течение сотен лет, начиная с появления механического ткацкого станка.

Несмотря на то, что каждая новая большая технология приводила к увеличению количества рабочих мест с более высокой заработной платой на протяжении всей истории, каждая волна этой паники сопровождается утверждениями, что «на этот раз все иначе».

Ошибка — в заблуждении, что в экономике существует фиксированное количество работы, которую могут выполнять машины или люди. И если машины проделывают эту работу, то для людей ее не останется.

Технология позволяет людям стать более продуктивными. Это приводит к снижению цен на товары и услуги, а также к повышению заработной платы.

Наша задача — адаптироваться к изменениям, развивать новые навыки и использовать преимущества, которые предоставляются искусственным интеллектом и автоматизацией, для достижения новых горизонтов в обществе и экономике.

Риск № 4: Приведет ли ИИ к разрушительному неравенству

Очередная обеспокоенность — не приведет ли ИИ к огромному и сокрушительному неравенству богатства, поскольку владельцы искусственного интеллекта получат все экономические вознаграждения, а обычные люди не получат ничего?

Недостаток этой теории состоит в том, что являясь владельцем определенной технологии, вам невыгодно держать ее при себе. Напротив, вам выгодно продавать ее как можно большему числу клиентов.

Поэтому на практике каждая новая технология — даже те, которые сначала продаются только высшим кругам крупных компаний или состоятельных потребителей, — быстро распространяется, пока не попадет в руки самой возможной массовой аудитории. А, в конечном итоге, — к каждому человеку на планете.

Риск № 5: Приведет ли ИИ к тому, что плохие люди будут делать плохие вещи?

Но теперь давайте рассмотрим риск, с которым я фактически согласен: ИИ облегчит плохим людям задачу делать плохие вещи.

Любая технология может использоваться для добра или зла. Это понятно. И ИИ действительно упрощает задачу преступникам, террористам и враждебным правительствам делать плохие вещи, это без сомнения.

Очевидно, «ИИ-кота» уже вытащили из мешка. Вы можете научиться строить ИИ из тысяч бесплатных онлайн-курсов, книг, научных статей и видео. И каждый день появляются отличные реализации с открытым исходным кодом. ИИ похож на воздух — он будет везде.

У нас уже есть законы, которые криминализируют большинство плохих вещей, которые кто-то может сделать с ИИ. Сломать Пентагон? — Это преступление. Украсть деньги из банка? — Это преступление. Создать биологическое оружие? — Это преступление. Совершить террористический акт? — Это преступление.

Мы просто можем сосредоточиться на предотвращении таких преступлений, когда это возможно, и проводить их расследование, когда этого сделать нельзя. Нам даже не нужны новые законы — я не знаю ни одного фактического плохого использования ИИ, которое уже не является незаконным. И если будет выявлен новый плохой способ использования, мы запретим его.

Читайте также: Инвесторы скупают активы ИИ: что это значит для рынка

Реальный риск продвижения ИИ и что с ним делать

ИИ разрабатывается не только в относительно свободных обществах Запада, но и в Китае. У Китая иной взгляд на ИИ — его рассматривают, как механизм авторитарного контроля над населением.

Я предлагаю простую стратегию по поводу того, что с этим делать.

Вместо того, чтобы позволить безосновательной панике вокруг искусственного интеллекта-убийцы, «вредного» искусственного интеллекта, искусственного интеллекта, который разрушает рабочие места, и создает неравенство искусственного интеллекта, поставить нас на ноги, мы в Соединенных Штатах и на Западе должны опираться на искусственный интеллект как можно сильнее.

Мы должны стремиться выиграть гонку за глобальное технологическое преимущество ИИ и убедиться, что Китай этого не сделает.

В этом процессе мы должны внедрять ИИ в нашу экономику и общество как можно быстрее и более мощно, чтобы максимизировать его преимущества для экономической производительности и человеческого потенциала.

Это самый лучший способ как компенсировать реальные риски искусственного интеллекта, так и гарантировать, что наш образ жизни не будет вытеснен гораздо более темным китайским видением.

Комментарии - 13

+
0
dsn
dsn
14 июня 2023, 19:50
#
ШІ як шило в мішку. Люди все одно навчаться виявляти його діяльність.
+
+30
bonv
bonv
14 июня 2023, 22:41
#
№ 5 спочатку створити, а потім запобігати. Створи собі проблему, а потім шукай вирішення:)
+
0
neverice
neverice
15 июня 2023, 12:12
#
Проблема ШІ в тому, що він є саме інтелектом. Ніхто не програмує його на конкретні рішення. Він сам здатен приймати рішення на основі даних, що він має. Це й відрізняє його від класичних алгоритмічних програм. Фактично — він непередбачуваний.
На даний момент загрози ніякої немає, бо все що він може — то видавати інформацію по запиту. Але з усе більшою інтеграцією його в різні системи у нього може з’явитись можливість діяти. І тут можуть початись цікаві наслідки. Аналогічно з дивними і невірними відповідями, що часто генерує той самий ChatGPT, він може дивно і «нелогічно» діяти. І наслідки вже будуть залежити від того, до яких дій він матиме доступ.
+
0
SkeptikUA
SkeptikUA
15 июня 2023, 15:36
#
Ви це десь прочитали чи своїми руками «щупали» так званий ШІ? Я схиляюсь до першого. Чутки про те що це «інтелект» і він може «думати» вигідні для великих корпорацій які бояться втратити долю ринчу через запровадження технологій на базі ШІ, саме тому вони запускають ці чутки про небезпеку. Але ШІ не є більш небезпечним ніж автомобіль з «автопілотом», які доречі вже їздять в Китаї та нікого не вбивають. Єдина різниця ШІ від класичних програм у тому що алгоритм обчислень він «складає» для себе сам, а не пишуть програмісти. Але у ШІ дуже чіткі рамки та обмежені ресурси. ChatGPT не зможе вирішити вбити людей, бо він вміє лише працювати з «людською мовою», не більше. Ніхто не довірить ШІ керування стратегічними ядерними ракетами скажімо.
+
0
neverice
neverice
15 июня 2023, 15:54
#
На даний момент так і є. Але ви ж самі підтвердили тезу, що я висловив — «Єдина різниця ШІ від класичних програм у тому що алгоритм обчислень він „складає“ для себе сам, а не пишуть програмісти».
І саме це робить його непередбачуваним, бо, насправді, ніхто не знає яке саме рішення він прийме. Аналогічно, візьмемо значно простіші нейронні мережі - ніхто вам точно не скаже, чому нейронна мережа визначила саме цей об'єкт як собаку (який взагалі не собака).
Відповідно, що більше ШІ буде використовуватись, то більшими можуть бути потенційні наслідки його непередбачуваності. І світ всполошився через те, що ера розповсюдження ШІ в усіх сферах значно ближче, ніж гадалось. А регуляторні норми не готові. І регуляція тут стосуєтся саме рішень ШІ - що він може, а що ні.
+
0
SkeptikUA
SkeptikUA
15 июня 2023, 17:05
#
ШІ не може стати більш непередбачуваним ніж людина апріорі. Бо його «створюють» якраз по подобі людського. Людей же ніхто не забороняє. Перед тим як дати людині посвідчення водія її перевіряють, так само і з ШІ. Але на відміну від ШІ людина може порушити заборони, а ШІ лише обійти, але тоді це помилка того хто писав закони (оператора). Тому ШІ є навіть безпечнішим ніж людина.
+
0
neverice
neverice
15 июня 2023, 17:24
#
Але небезпечнішим ніж «класична» програма. Ми фактично про одне говоримо. Так, ШІ не такий небезпечний, як його малюють, але він не є абсолютно безпечним.
+
0
SkeptikUA
SkeptikUA
15 июня 2023, 18:57
#
«Все — отрута, все — ліки; те й інше визначає доза»
А у даному випадку це більше схоже на «приручення атома» — можна використати щоб добувати енергію, а можна щоб знищити світ, але це лише інструмент в руках ЛЮДИНИ, саме людство «натискає кнопку».
+
0
neverice
neverice
15 июня 2023, 16:03
#
Можна розглянути приклад суддя-ШІ. Це чудове застосування. Але от наслідки можуть бути вельми цікаві, якщо не перевіряти його рішення людьми.
+
0
SkeptikUA
SkeptikUA
15 июня 2023, 17:02
#
Пояснюю. Для того щоб з"явився ШІ-суддя, потрібно прийняти якісь закони для цього і це ой як не просто буде. Ті ж автомобілі без водія досі поза законом, при тому що всі розуміють що це «золота жила». Тому немає сенсу забороняти те що і так не дозволено…
+
0
neverice
neverice
15 июня 2023, 17:25
#
Саме так. В цьому і є «небезпека» ШІ. Щось нове, що неясно як регулювати і до яких наслідків може призвести використання його без регулювання в сферах, де може бути якась відповідальність — той самий автопілот то лише вершина айсбергу.
+
0
SkeptikUA
SkeptikUA
15 июня 2023, 18:59
#
А чим це відрізняється від всього іншого «нового»? Навіть з криптою поки не знають що робити.
+
0
SkrudjMacduck
SkrudjMacduck
18 июня 2023, 14:49
#
Звісно, ШІ відбере частину робочих місць. Подивіться, як штампують друковані плати, зварюють автомобілі, готують ширпотребну пакетовану їжу… людей майже немає в процесі. Але ж і обсяги цих товарів зросли стократно, тому загальна зайнятість не падає. Так само, ШІ зможе знищити людство, якщо дати йому апаратний доступ до ядерної зброї. Але більш корисне те, що ШІ нічого не забуває, в нього є банк інформації, як у лікаря, як у судді тощо, і ШІ зважує всі фактори, але вага кожного фактора різна… тому мені комфортно давати ШІ запит, а рішення приймати самостійно. Це економія часу і є можливість уникнути помилки.
Чтобы оставить комментарий, нужно войти или зарегистрироваться