Почему искусственный интеллект необходимо остановить прямо сейчас

0
92

Фото Маркуса Винклера

Сторонники искусственного интеллекта рекламируют огромные преимущества использования этой технологии. Например, в статье на CNN указывается, как искусственный интеллект помогает ученым Принстона решить «ключевую проблему» с термоядерной энергией. Искусственный интеллект, который может переводить текст в аудио и аудио в текст, делает информацию более доступной. Многие цифровые задачи можно выполнять быстрее с помощью этой технологии.

Однако любые преимущества, которые может обещать ИИ, затмеваются катастрофическими опасностями этой противоречивой новой технологии. У человечества есть узкий шанс остановить технологическую революцию, чьи непредвиденные негативные последствия значительно перевесят любые краткосрочные выгоды.

В начале 20-го века люди (особенно в Соединенных Штатах) могли бы остановить распространение автомобилей, сосредоточив внимание на совершенствовании общественного транспорта, тем самым экономя огромное количество энергии, избегая миллиардов тонн выбросов парниковых газов и предотвращая потерю только в США ежегодно в автокатастрофах погибает более 40 000 человек. Но мы этого не сделали.

В середине столетия мы могли бы предотвратить разработку атомной бомбы и предотвратить апокалиптические опасности, в которых мы сейчас находимся. Мы упустили и эту возможность. (Новые ядерные боеголовки все еще разрабатываются и производятся.)

В конце 20-го века правила, основанные на принципе предосторожности, могли предотвратить распространение токсичных химикатов, которые сейчас отравляют всю планету. Мы потерпели неудачу и в этом случае.

Теперь у нас есть еще один шанс.

С помощью ИИ человечество передает исполнительный контроль почти во всех ключевых секторах — финансах, военном деле, медицине и сельском хозяйстве — алгоритмам, не имеющим моральных способностей.

Если вам интересно, что может пойти не так, ответов много.

Если он все еще существует, окно возможностей остановить ИИ скоро закроется. ИИ коммерциализируется быстрее, чем другие крупные технологии. Действительно, скорость — это его суть: оно саморазвивается посредством машинного обучения, причем каждая итерация намного превосходит закон Мура.

А поскольку ИИ используется для ускорения всех процессов, оказывающих серьезное воздействие на планету (производство, транспорт, связь и добыча ресурсов), это представляет собой сверхугрозу не только выживанию человечества, но и всей жизни на Земле.

Угрозы искусственного интеллекта растут каскадом

В июне 2023 года я написал статью, в которой изложил некоторые опасности ИИ. Теперь эта статья странно устарела. Всего за короткий период ИИ выявил более опасные последствия, чем многие из нас могли себе представить.

В статье под названием «DNAI — конвергенция искусственного интеллекта и искусственной жизни» Джим Томас сообщает о перспективах «экстремальной генной инженерии», предоставляемой ИИ. Если искусственный интеллект хорош в создании текста и изображений, он также очень компетентен в чтении и перестановке букв генетического алфавита. Технологический гигант в области искусственного интеллекта Nvidia уже разработал то, что Томас называет «первым проходом ChatGPT для дизайна вирусов и микробов», и его использование находит применение в науках о жизни, включая медицину, сельское хозяйство и разработку биологического оружия.

Как будут работать меры биобезопасности для новых синтетических организмов, учитывая, что вся система проектирования, создающая их, непостижима? Как мы можем адекватно защитить себя от опасностей тысяч новых белков, созданных ИИ, когда мы уже проделываем ужасающую работу по оценке опасностей новых химических веществ?

Исследования продвигаются с невероятной скоростью, но надзор и регулирование движутся черепашьим шагом.

Угрозы финансовой системе со стороны ИИ только начинают осознаваться. В декабре 2023 года Совет по надзору за финансовой стабильностью США (FSOC), в состав которого входят ведущие правительственные регуляторы, классифицировал ИИ как «новую уязвимость».

Поскольку ИИ действует как «черный ящик», скрывающий его внутренние операции, банкам, использующим его, может быть труднее «оценить концептуальную надежность системы». Согласно статье CNN, регуляторы FSOC отметили, что ИИ «может выдавать и, возможно, маскировать предвзятые или неточные результаты». [raising] беспокоится о справедливом кредитовании и других вопросах защиты потребителей». Может ли торговля акциями и облигациями, управляемая искусственным интеллектом, оживить рынки ценных бумаг? Возможно, нам не придется долго ждать, чтобы это узнать. Председатель Комиссии по ценным бумагам и биржам Гэри Генслер в мае 2023 года говорил «о потенциале ИИ стимулировать [financial] кризис», согласно статье US News, называя его «потенциальным системным риском».

Между тем, ChatGPT недавно провел большую часть дня, извергая странную ерунду в ответ на вопросы пользователей, и у него часто случаются «галлюцинации», то есть когда система «начинает выдумывать вещи — вещи, которые не являются [in line] с реальностью», — сказал Джевин Уэст, профессор Вашингтонского университета, согласно статье CNN, в которой он цитировался. Что происходит, когда ИИ начинает галлюцинировать финансовые отчеты и биржевые сделки?

Смертоносное автономное оружие уже используется на поле боя. Добавьте к этому оружию искусственный интеллект, и вся человеческая ответственность, моральные суждения и сострадание, которые все еще сохраняются в войне, начнут исчезать. Роботы-убийцы уже проходят испытания в новых кровавых конфликтах по всему миру — в Украине и России, Израиле и Палестине, а также в Йемене и других местах.

С самого начала было очевидно, что ИИ усугубит экономическое неравенство. В январе МВФ прогнозировал, что ИИ повлияет почти на 40 процентов рабочих мест во всем мире (около 60 процентов в богатых странах). Заработная плата пострадает, а рабочие места будут сокращены. Это, несомненно, заниженные оценки, поскольку возможности технологии постоянно растут.

В целом, результатом будет то, что люди, которые получат выгоду от этой технологии, станут богаче (некоторые очень сильно), в то время как большинство других отстанут еще больше. Говоря более конкретно, чрезвычайно богатые и влиятельные компании, занимающиеся цифровыми технологиями, вырастут свое социальное и политическое влияние далеко за пределы и без того абсурдного уровня.

Иногда утверждают, что ИИ поможет решить проблему изменения климата, ускорив развитие низкоуглеродных технологий. Но потребление энергии ИИ вскоре может затмить потребление энергии во многих небольших странах. Центры обработки данных искусственного интеллекта также имеют тенденцию поглощать землю и воду.

Искусственный интеллект вторгается даже в нашу личную жизнь, как это было предсказано в фильме 2013 года «Она». В то время как Интернет изменил отношения посредством онлайн-знакомств, у ИИ есть потенциал заменить партнерство между людьми интимными отношениями между человеком и машиной. Replika уже позиционируется как «небезразличный ИИ-компаньон», предлагающий вовлечь пользователей в глубоко личные беседы, включая секстинг. Секс-роботы разрабатываются якобы для пожилых людей и людей с ограниченными возможностями, хотя первыми покупателями, судя по всему, станут состоятельные мужчины.

Личное общение между людьми становится все реже, а пары сообщают о меньшей частоте сексуальной близости. С появлением ИИ эти тревожные тенденции могут вырасти в геометрической прогрессии. Вскоре против всего мира останетесь только вы и ваши машины.

По мере приближения президентских выборов в США потенциальный выпуск волны дипфейковых аудио- и видеозаписей может поставить национальную демократию на волосок. Действительно ли кандидат так сказал? Чтобы это выяснить, потребуется некоторое время. Но будет ли сама проверка фактов генерироваться искусственным интеллектом? Индия экспериментирует с политическим контентом, генерируемым ИИ, в преддверии национальных выборов, которые запланированы на 2024 год, и результаты оказались странными, обманчивыми и подрывными.

Комплексный взгляд на ситуацию показывает, что ИИ, скорее всего, ускорит все негативные тенденции, угрожающие в настоящее время природе и человечеству. Но это обвинение по-прежнему не объясняет его конечную способность делать людей и, возможно, все живые существа устаревшими.

Угрозы ИИ — это не серия легко исправимых ошибок. Они являются неизбежным выражением внутренней природы технологии – ее скрытой внутренней работы и саморазвития функций. И это не тривиальные опасности; они экзистенциальны.

Тот факт, что некоторые разработчики ИИ, наиболее знакомые с этой технологией, являются ее самыми резкими критиками, должен нам кое-что сказать. Фактически, политики, эксперты по ИИ и журналисты выступили с заявлением, предупреждающим, что «смягчение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Не ставь это на паузу, прекрати это

Многие критические статьи в отношении ИИ в основных средствах массовой информации призывают приостановить его развитие «на безопасном уровне». Некоторые критики призывают к регулированию «плохих» применений этой технологии – в исследованиях оружия, распознавании лиц и дезинформации. Действительно, официальные лица Европейского Союза сделали шаг в этом направлении в декабре 2023 года, достигнув предварительной договоренности о первых в мире всеобъемлющих законах, регулирующих ИИ.

Всякий раз, когда внедряется новая технология, обычной практикой является подождать и увидеть ее положительные и отрицательные результаты, прежде чем внедрять правила. Но если мы подождём, пока ИИ разовьётся дальше, мы больше не будем управлять. Возможно, мы не сможем восстановить контроль над созданной нами технологией.

Аргумент в пользу полного запрета ИИ вытекает из самой природы технологии: ее технологическая эволюция предполагает ускорение до скоростей, которые не поддаются человеческому контролю или ответственности. Полный запрет — это решение, которое предложил пионер искусственного интеллекта Элиэзер Юдковский в своей ключевой статье в журнале TIME:

«[T]Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, станет то, что буквально все на Земле умрут. Не как «может быть, какой-то отдаленный шанс», а как «это очевидно, что произойдет».

Юдковский далее объясняет, что в настоящее время мы не можем наделить ИИ заботой или нравственностью, поэтому мы получим ИИ, который «не любит вас и не ненавидит вас, и вы сделаны из атомов, которые он может использовать для чего-то другого».

Подчеркивая и подтверждая предупреждение Юдковски, опубликованное 11 марта исследование, финансируемое Государственным департаментом США, заявило, что нерегулируемый ИИ представляет собой «угрозу вымирания» для человечества.

Чтобы прекратить дальнейшее использование и развитие этой технологии, потребуется глобальный договор, а это огромное препятствие, которое необходимо преодолеть. Разработчикам соглашения придется определить ключевые технологические элементы, которые делают возможным ИИ, и запретить исследования и разработки в этих областях где угодно и повсюду в мире.

Есть лишь несколько исторических прецедентов, когда происходило что-то подобное. Тысячелетие назад китайские лидеры остановили зарождающуюся промышленную революцию, основанную на угле и технологиях, работающих на нем (потомственные аристократы опасались, что выскочки-промышленники в конечном итоге захватят политическую власть). В период сёгуната Токугава (1603-1867) в Японии большинство огнестрельного оружия было запрещено, что почти полностью исключило случаи смерти от огнестрельного оружия. А в 1980-х годах мировые лидеры собрались в Организации Объединенных Наций, чтобы запретить большинство химических веществ, содержащих ХФУ, чтобы сохранить озоновый слой атмосферы планеты.

Запрет ИИ, вероятно, станет более серьезной проблемой, чем та, с которой приходилось сталкиваться в любом из этих трех исторических случаев. Но если это произойдет, то это должно произойти сейчас.

Предположим, что движение за запрет ИИ увенчается успехом. В этом случае это может разрушить нашу коллективную лихорадочную мечту о неолиберальном капитализме, чтобы люди и их правительства наконец осознали необходимость установления ограничений. Это уже должно было произойти в связи с климатическим кризисом, который требует от нас строгого ограничения добычи ископаемого топлива и использования энергии. Если угроза искусственного интеллекта, будучи столь острой, вынуждает нас устанавливать для себя ограничения, возможно, это может пробудить институциональную и межправительственную смелость, необходимую для принятия мер по устранению других экзистенциальных угроз.

Эта статья была подготовлена Земля | Еда | Жизньпроект Независимого медиа-института.

Source: https://www.counterpunch.org/2024/03/22/why-artificial-intelligence-must-be-stopped-now/

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ