Бум использования ИИ-инструментов вызывает обеспокоенность влиянием его на человечество. Но паника вокруг искусственного интеллекта не обоснована, — такое мнение высказал соучредитель Netscape и одного из самых влиятельных венчурных фондов Кремниевой долины Andreessen Horowitz Марк Андриссен в блоге фонда. «Минфин» публикует главные тезисы.
5 мифов об искусственном интеллекте и как он может спасти мир
Что такое ИИ? — Это применение математики и программного кода, чтобы научить компьютеры понимать, синтезировать и генерировать знания так, как это делают люди.
ИИ — это просто компьютерная программа; как и любая другая — она запускается, получает входные данные, обрабатывает их и генерирует результат.
Чем ИИ не является: убийственными программами и роботами из фильмов, которые оживают и решают убить человеческую расу или разрушить все каким-либо другим образом. Чем может стать ИИ: способом улучшить все, что нам нравится.
Что может улучшить ИИ
Человеческий интеллект делает широкий спектр жизненных результатов лучше. Более умные люди достигают лучших результатов практически в любой сфере деятельности.
Более того, человеческий интеллект — это рычаг, которым мы пользовались на протяжении тысячелетий, чтобы создать мир, в котором мы живем сегодня. ИИ дает нам возможность в значительной степени усилить человеческий интеллект.
Рост продуктивности в экономике будет резко ускоряться, способствуя экономическому росту, созданию новых отраслей, новых рабочих мест и росту заработной платы, что приведет к новой эре повышенного материального процветания.
ИИ может помочь нам лучше понять мир, увеличить культурное сознание и расширять горизонты знаний.
Конечно, появляются и этические и социальные вопросы, требующие тщательного рассмотрения и регулирования, чтобы максимизировать положительные последствия и минимизировать негативные.
Так откуда паника?
В отличие от этого положительного взгляда, публичные разговоры об искусственном интеллекте сейчас пронизаны истерическим страхом и паранойей.
Мы слышим заявления, что искусственный интеллект убьет нас всех, разрушит наше общество, заберет все наши рабочие места, повлечет за собой ужасное неравенство и позволит плохим людям делать ужасные вещи.
Эту моральную панику разные субъекты уже используют, чтобы требовать политических действий — новых ограничений ИИ, правил и законов. Эти актеры, которые делают чрезвычайно драматические публичные заявления об опасности искусственного интеллекта, подпитывая и разжигая нравственную панику, представляют себя самоотверженными борцами за общественное благо. Рассмотрим их доводы по существу.
Риск № 1: Уничтожит ли ИИ человечество
Первый и оригинальный риск искусственного интеллекта, по версии «думеров», состоит в том, что искусственный интеллект решит буквально уничтожить человечество.
Я считаю, что эта идея ошибочна. Искусственный интеллект — неодушевленное существо, которое миллиарды лет эволюции подготовили для участия в битве за выживание.
Это математика — код — компьютеры, которые построены, принадлежат людям, используются и контролируются людьми. Идея, что в какой-то момент он разовьет собственный разум и решит, что у него есть мотивы убить нас, — миф.
Риск № 2: Разрушит ли ИИ наше общество
Распространенной теорией об опасности ИИ является утверждение, что он может уничтожить общество, генерируя результаты, которые будут настолько «вредными», что нанесут глубокий вред человечеству.
Существуют определенные виды контента, такие как детская порнография и призывы к насилию, которые практически все общества считают недопустимыми. Поэтому любая технологическая платформа, которая помогает или генерирует контент, будет иметь ограничения.
Читайте также: Как вложиться в искусственный интеллект: три стратегии инвестирования
Риск № 3: Заберет ли ИИ наши рабочие места
Сохранение рабочих мест на фоне угроз, связанных с ИИ, является длительными предосторожностями, которые повторяются в течение сотен лет, начиная с появления механического ткацкого станка.
Несмотря на то, что каждая новая большая технология приводила к увеличению количества рабочих мест с более высокой заработной платой на протяжении всей истории, каждая волна этой паники сопровождается утверждениями, что «на этот раз все иначе».
Ошибка — в заблуждении, что в экономике существует фиксированное количество работы, которую могут выполнять машины или люди. И если машины проделывают эту работу, то для людей ее не останется.
Технология позволяет людям стать более продуктивными. Это приводит к снижению цен на товары и услуги, а также к повышению заработной платы.
Наша задача — адаптироваться к изменениям, развивать новые навыки и использовать преимущества, которые предоставляются искусственным интеллектом и автоматизацией, для достижения новых горизонтов в обществе и экономике.
Риск № 4: Приведет ли ИИ к разрушительному неравенству
Очередная обеспокоенность — не приведет ли ИИ к огромному и сокрушительному неравенству богатства, поскольку владельцы искусственного интеллекта получат все экономические вознаграждения, а обычные люди не получат ничего?
Недостаток этой теории состоит в том, что являясь владельцем определенной технологии, вам невыгодно держать ее при себе. Напротив, вам выгодно продавать ее как можно большему числу клиентов.
Поэтому на практике каждая новая технология — даже те, которые сначала продаются только высшим кругам крупных компаний или состоятельных потребителей, — быстро распространяется, пока не попадет в руки самой возможной массовой аудитории. А, в конечном итоге, — к каждому человеку на планете.
Риск № 5: Приведет ли ИИ к тому, что плохие люди будут делать плохие вещи?
Но теперь давайте рассмотрим риск, с которым я фактически согласен: ИИ облегчит плохим людям задачу делать плохие вещи.
Любая технология может использоваться для добра или зла. Это понятно. И ИИ действительно упрощает задачу преступникам, террористам и враждебным правительствам делать плохие вещи, это без сомнения.
Очевидно, «ИИ-кота» уже вытащили из мешка. Вы можете научиться строить ИИ из тысяч бесплатных онлайн-курсов, книг, научных статей и видео. И каждый день появляются отличные реализации с открытым исходным кодом. ИИ похож на воздух — он будет везде.
У нас уже есть законы, которые криминализируют большинство плохих вещей, которые кто-то может сделать с ИИ. Сломать Пентагон? — Это преступление. Украсть деньги из банка? — Это преступление. Создать биологическое оружие? — Это преступление. Совершить террористический акт? — Это преступление.
Мы просто можем сосредоточиться на предотвращении таких преступлений, когда это возможно, и проводить их расследование, когда этого сделать нельзя. Нам даже не нужны новые законы — я не знаю ни одного фактического плохого использования ИИ, которое уже не является незаконным. И если будет выявлен новый плохой способ использования, мы запретим его.
Читайте также: Инвесторы скупают активы ИИ: что это значит для рынка
Реальный риск продвижения ИИ и что с ним делать
ИИ разрабатывается не только в относительно свободных обществах Запада, но и в Китае. У Китая иной взгляд на ИИ — его рассматривают, как механизм авторитарного контроля над населением.
Я предлагаю простую стратегию по поводу того, что с этим делать.
Вместо того, чтобы позволить безосновательной панике вокруг искусственного интеллекта-убийцы, «вредного» искусственного интеллекта, искусственного интеллекта, который разрушает рабочие места, и создает неравенство искусственного интеллекта, поставить нас на ноги, мы в Соединенных Штатах и на Западе должны опираться на искусственный интеллект как можно сильнее.
Мы должны стремиться выиграть гонку за глобальное технологическое преимущество ИИ и убедиться, что Китай этого не сделает.
В этом процессе мы должны внедрять ИИ в нашу экономику и общество как можно быстрее и более мощно, чтобы максимизировать его преимущества для экономической производительности и человеческого потенциала.
Это самый лучший способ как компенсировать реальные риски искусственного интеллекта, так и гарантировать, что наш образ жизни не будет вытеснен гораздо более темным китайским видением.
Комментарии - 13
На даний момент загрози ніякої немає, бо все що він може — то видавати інформацію по запиту. Але з усе більшою інтеграцією його в різні системи у нього може з’явитись можливість діяти. І тут можуть початись цікаві наслідки. Аналогічно з дивними і невірними відповідями, що часто генерує той самий ChatGPT, він може дивно і «нелогічно» діяти. І наслідки вже будуть залежити від того, до яких дій він матиме доступ.
І саме це робить його непередбачуваним, бо, насправді, ніхто не знає яке саме рішення він прийме. Аналогічно, візьмемо значно простіші нейронні мережі - ніхто вам точно не скаже, чому нейронна мережа визначила саме цей об'єкт як собаку (який взагалі не собака).
Відповідно, що більше ШІ буде використовуватись, то більшими можуть бути потенційні наслідки його непередбачуваності. І світ всполошився через те, що ера розповсюдження ШІ в усіх сферах значно ближче, ніж гадалось. А регуляторні норми не готові. І регуляція тут стосуєтся саме рішень ШІ - що він може, а що ні.
А у даному випадку це більше схоже на «приручення атома» — можна використати щоб добувати енергію, а можна щоб знищити світ, але це лише інструмент в руках ЛЮДИНИ, саме людство «натискає кнопку».