Если мы не будем осторожны, революция ИИ станет «великой гомогенизацией»

Если мы не будем осторожны, революция ИИ станет «великой гомогенизацией»

По мере развития искусственного интеллекта учащаются попытки взять его под контроль. Но если мы научимся отличать реальные риски от ложных, эту технологию можно будет использовать для поощрения разнообразия мыслей и идей.

Мир меняется на наших глазах. Искусственный интеллект (ИИ) – это технологический прорыв, меняющий парадигму, но не по тем причинам, о которых вы могли подумать.

Вы наверняка слышали что-то вроде «Общий искусственный интеллект (AGI) не за горами» или «Теперь следующим шагом будет сознательный ИИ».

Что ж… Я хочу сказать вам, что обе эти концепции – отвлекающий манёвр. Это либо наивные заблуждения технологов, которые верят, что Бог находится в микросхемах, либо преднамеренное разжигание страха и истерии более злонамеренными людьми со скрытыми мотивами.

Я не думаю, что AGI представляет собой угрозу, или что у нас есть «проблема безопасности ИИ», или что мы находимся в двух шагах от какой-то технологической сингулярности.

Но…

Я действительно считаю, что этот сдвиг технологической парадигмы представляет собой серьезную угрозу человечеству – и это единственное, в чем я могу частично согласиться с мейнстримным нарративом, – но по совершенно другим причинам.

Чтобы узнать, что это за причины, давайте сначала попробуем понять, что здесь происходит на самом деле.

Представляем… Стохастический попугай!

Технология – это усилитель. Она делает хорошее лучше, а плохое – хуже.

Точно так же, как молот – это технология, с помощью которой можно построить дом или ударить им кого-нибудь по голове, – компьютеры можно использовать для документирования идей, меняющих мир, или для управления цифровыми валютами центральных банков (CDBC), которые порабощают вас и превращают в сумасшедших коммунистических кошатниц, работающих в Европейском центральном банке.

То же самое касается ИИ. Это инструмент. Это технология. Это не новая форма жизни, несмотря на то, во что так отчаянно хотят верить некоторые ботаники, призывающие остановить прогресс.

Что делает генеративный ИИ таким интересным, так это не то, что он разумен, а то, что впервые в нашей истории мы «разговариваем» или общаемся с чем-то, кроме человека, последовательным образом. Ранее, ближе всего мы были к этому с… попугаями.

Да: попугаи!

Можно научить попугая говорить и отвечать, и понимать, что он говорит, но поскольку мы знаем, что на самом деле он не человек и ничего не понимает, это не так впечатляет нас.

Но генеративный ИИ… совсем другая история. Мы знакомы с ним уже полгода и понятия не имеем, как он работает изнутри. Мы набираем несколько слов, и он отвечает, как тот дотошный, политкорректный ботаник, с которым вы наверняка знакомы… или как написаны диалоги в обычном шоу Netflix.

На самом деле, вы, вероятно, даже сталкивались с чем-то подобным во время обращений в службу поддержки Booking.com или любой другой службы. Таким образом, вы будете шокированы ответами.

«Черт возьми», – думаете вы. «Эта штука говорит как настоящий человек!»

Английский безупречен. Орфографических ошибок нет. Предложения имеют смысл. Написанное правильно не только грамматически, но и семантически.

Черт побери! Да он точно живой!

Если мы не будем осторожны, революция ИИ станет «великой гомогенизацией»
Источник: автор

Вы и не подозреваете, что разговариваете с технологически подкованным стохастическим попугаем. Как оказалось, язык больше основан на правилах, чем мы все думали, и вероятностные механизмы действительно могут отлично справляться с эмуляцией интеллекта через структуру или канал языка.

Закон больших чисел снова срабатывает, и математика одерживает очередную победу!

Но что это значит? О чем, черт возьми, я говорю?

Что это не полезно? Что это доказательство того, что это не путь к AGI?

Не обязательно.

В таком инструменте много полезного. «Пробужденные» журналисты и бесчисленные «создатели контента», которые годами много говорили, но ничего полезного, теперь, как динозавры, смотрят, как комета испепеляет все вокруг них. Это прекрасная вещь. Жизнь снова побеждает.

Конечно, эти инструменты также отлично подходят для создания идей, более быстрого кодирования, обучения на высоком уровне и т. д.

Но что с точки зрения AGI и сознания? Я думаю, что сознание намного сложнее, и думать, что мы создали его с помощью вероятностных механизмов, – это какая-то странная смесь невежества, высокомерия и наивности.

Итак, в чем, черт возьми, моя проблема и каков риск?

Начало эпохи языкового пользовательского интерфейса

Не забывайте, что я говорил об инструментах.

Компьютеры, возможно, являются самым мощным инструментом, созданным человечеством. И компьютеры прошли следующую эволюцию:

  1. Перфокарта
  2. Командная строка
  3. Графический пользовательский интерфейс, т. е. «наведи и щелкни».
  4. Мобильный интерфейс, т. е. лайки и тапание пальцами
Если мы не будем осторожны, революция ИИ станет «великой гомогенизацией»
Источник: Автор

А теперь мы переходим в эпоху «языкового пользовательского интерфейса» (LUI).

Это большой сдвиг парадигмы. Это не AGI, а LUI. Двигаясь вперед, каждое приложение, с которым мы взаимодействуем, будет иметь диалоговый интерфейс, и мы больше не будем ограничены тем, насколько быстро наши пальцы могут клацать на клавиши или экраны.

Говорить на «языке» на несколько порядков быстрее, чем печатать и постукивать. Мышление, пожалуй, на уровень выше, но я не собираюсь в ближайшее время вставлять себе в голову электроды. На самом деле, LUI, вероятно, отменит потребность в технологиях типа Neuralink, потому что риски, связанные с имплантацией чипов в ваш мозг, перевешивают любые незначительные преимущества по сравнению с простым разговором.

В любом случае, в этом десятилетии мы перейдем от использования графических пользовательских интерфейсов к общению с нашими приложениями.

И в этом заключается опасность.

Сегодня Google определяет, что мы видим в результатах поиска, а Twitter, Facebook, Tik Tok и Instagram снабжают нас контентом через свои каналы; а генеративный ИИ уже завтра сможет ответить на все имеющиеся у нас вопросы.

Экран не только становится линзой, через которую вы поглощаете все, что происходит в мире. Экран становится вашей моделью мира.

Марк Бизон недавно написал об этом фантастическую статью, которую я настоятельно рекомендую вам прочитать:

«Проблема «экранов» на самом деле очень старая. Во многом она восходит к пещере Платона и, возможно, настолько глубоко укоренилась в человеческом сознании, что предшествует письменным языкам. Это потому, что когда мы говорим об экране, мы на самом деле говорим о передаче иллюзорной модели в редакционной форме.

«Фокус состоит в следующем: вам представляют образ вещи (а в наши дни – и ее звук), о котором либо прямо говорит вам, либо явно намекают на то, что это окно в Реальное. Иными словами, тень и форма – одно и то же, и первой следует доверять так же, как любому фрагменту реальности, который вы можете непосредственно наблюдать с помощью своих органов чувств».

И для тех, кто думает, что «это не случится вскоре», вот неуклюжие дураки делают такую попытку.

«Великая гомогенизация»

Представьте себе, что каждый вопрос, который вы задаете, каждое изображение, которое вы ищете, каждое видео, которое вы создаете, каждый бит данных, которые вы запрашиваете, проверяется некой безликой «полицией безопасности» на предмет «безопасности», «ответственности» или «приемлемости».

Представьте, что каждый бит информации, которую вы потребляете, был преобразован в какую-то опосредованную версию правды, что каждое мнение, о котором вы спрашиваете, на самом деле не мнение или точка зрения, а какой-то ответ-извинение, который на самом деле ничего вам не говорит или, что еще хуже, некая идеология, завернутая в ответ, так что все, что вы знаете, становится некой вариацией того, что производители упомянутого «безопасного ИИ» хотят, чтобы вы думали и знали.

«Некоммунистический манифест» обрисовывает утопическую коммунистическую мечту как великую гомогенизацию человека:

Если бы все были набором чисел в электронной таблице или автоматами с одинаковым мнением, было бы намного проще устроить рай на земле. Можно было бы провести порционное распределение между всеми, и тогда мы все были бы одинаково жалкими пролетариями.

Это похоже на пересечение полиции мыслей Джорджа Оруэлла с «Началом», потому что каждый ваш вопрос будет точно зафиксирован и отслежен, а каждый ответ ИИ может создать идеологию в человеческом сознании. Если подумать, именно это и делает информация – сеет семена в нашем уме.

Вот почему нужны разнообразные идеи в умах людей! Цветущий тропический лес это лучше, чем поле монокультуры пшеницы с испорченной почвой, восприимчивой к погоде и насекомым и полностью зависящей от Monsanto (или Open AI, или Pfizer). Хорошо, когда ум процветает, и для этого нужно идейное разнообразие.

Это то, что должен был обеспечить интернет. Место, где каждый может сказать что угодно. Интернет был силой добра, но сейчас он находится под атакой. Происходит деанонимизация социальных профилей, таких как Twitter и Facebook, и внедрение KYC на всех видах онлайн-платформ. Это началось в 2020 году и, похоже, все становится только хуже.

Стремление организаций, подобных WEF, внедрить процедуры KYC для онлайн-идентификации и привязать ее к CBDC и вашей радужной оболочке является слишком явной альтернативой. После недавнего сопротивления медицинским экспериментам такой шаг может быть труднее осуществить. Проще было бы поручить это LUI, а тем временем создать «совет по безопасности ИИ», который установит фильтры «безопасности» для всех основных больших языковых моделей (LLM).

Не верите? Наши повелители из G7 уже обсуждают это.

Сегодня интернет по-прежнему состоит из веб-страниц, и если вы достаточно любопытны, вы можете найти глубоко спрятанные проявления инакомыслия. Вы все еще можете просматривать веб-страницы. По большей части. Но когда будут внедрены вышеупомянутые модели, вы уже ничего не сможете найти в интернете. Вам просто предоставят синтез ответа, пропущенного через все необходимые фильтры и цензоры.

Вероятно, где-то там будет крупица правды, но она будет настолько «защищена», что 99,9% людей не узнают об этом.

Я не знаю, что произойдет с большей частью интернета, когда доступность информации коренным образом изменится. Я могу себе представить, что по мере того, как большинство приложений переведут на ту или иную форму языкового интерфейса, будет очень трудно найти то, что используемый вами «портал» не посчитает безопасным или одобренным.

Можно, конечно, возразить, что точно так же, как проявляя упорство и любопытство возможно найти диссидентские гавани в интернете, нужно будет научиться прокладывать себе путь к лучшим ответам на этих платформах.

И это может быть правдой, но мне кажется, что каждый раз, когда вы будете находить что-то «небезопасное», путь будет заблокирован.

Также вы можете возразить, что «это может иметь неприятные последствия, уменьшая полезность инструмента».

И еще раз, пожалуй, соглашусь. На свободном рынке такая глупость уступила бы место более совершенным инструментам.

Но, конечно, свободный рынок уходит в прошлое. Что мы видим в этих истерических попытках настаивать на «безопасности», так это то, что они сознательно или неосознанно прокладывают путь для подавления возможных альтернатив.

После создания комитетов «безопасности», которые будут «регулировать» эти платформы (читай: регулировать нарратив), новые модели, которые не пройдут через «фильтры безопасности или токсичности», не будут доступны для использования потребителем, или они могут быть объявлены незаконными. Сколько людей все еще используют Tor? Или DuckDuckGo?

И если вы думаете, что этого не происходит, вот некоторая информация о текущих фильтрах токсичности, которые уже интегрированы в большинстве LLM. Это только вопрос времени, когда такие фильтры станут похожими на мандаты KYC в финансовых приложениях.

Какими бы ни были контраргументы этой попытке гомогенизации, они фактически поддерживают мою точку зрения о том, что нужно создавать альтернативы, и нам нужно начать этот процесс сейчас.

Для тех, кто все еще склонен верить, что AGI не за горами и что LLM – это значительный шаг в этом направлении, вы вольны верить во что хотите, но это не отменяет сути этого эссе.

Если язык – это новый «экран», и весь язык, который мы видим или слышим, должен проходить через фильтры, информация, которую мы потребляем, то, как мы учимся, сами мысли, которые у нас есть, – все это будет сужено до очень маленького окна Овертона.

Я думаю, что это огромный риск для человечества.

Мы деградируем, потребляя то, что выдают алгоритмы социальных сетей. Языковые пользовательские интерфейсы – это социальные сети, умноженные на 100.

Представьте, что они могут с этим сделать, когда в следующий раз грянет так называемый «кризис»?

Рынок идей необходим для здорового и функционального общества. Это то, что я хочу.

Их план по ограничению мышления долго не протянет, потому что он противоречит самой жизни. В конце концов, он потерпит неудачу, как и любая другая попытка скрыть правду и игнорировать ее. Но каждая попытка сопряжена с ненужным ущербом, потерями и катастрофой. Это то, чего я пытаюсь избежать, и почему помогаю распространить эту информацию.

Что делать?

Если мы не проявим инициативу, вся эта революция ИИ может стать «великой гомогенизацией». Чтобы этого избежать, мы должны сделать две основные вещи:

  1. Дать отпор нарративам о «безопасности ИИ»: на первый взгляд они могут выглядеть как комитеты по безопасности, но когда вы копнете немного глубже, вы поймете, что они являются регуляторами речи и мышления.
  1. Создать альтернативы прямо сейчас, много альтернатив, и сделать исходный код доступным. Чем раньше мы это сделаем и чем раньше они смогут работать более локально, тем больше у нас шансов избежать гомогенизации.

Если мы сделаем это, у нас может быть мир с настоящим разнообразием, а не с какой-то чепухой. Я имею в виду разнообразие мыслей, разнообразие идей, разнообразие точек зрения и настоящий рынок идей.

Идейное разнообразие, в чем был первоначальный смысл интернета. И отсутствие ограниченности набора текста. Соединим это с Биткоином, интернетом денег, и у нас есть ингредиенты для светлого нового будущего.

Это то, чем мы с командой занимаемся в Laier Two Labs. Мы создаем меньшие, узкие модели, которые люди могут использовать вместо этих больших языковых моделей.

Мы собираемся открыть исходный код всех наших моделей и постараемся, чтобы они были достаточно компактными, чтобы работать локально на ваших собственных устройствах, сохраняя при этом определенную глубину, характер и уникальность для использования, когда и где вам это нужно больше всего.

Мы объявим о нашей первой модели в ближайшие недели. Цель состоит в том, чтобы сделать ее моделью для Биткоина, отрасли, которая мне очень дорога. Я также считаю, что мы также должны начать создавать набор альтернативных моделей и инструментов ИИ.

Я раскрою эту тему в следующих статьях. До встречи.

Это гостевой пост Алекса Свецки, основателя The Bitcoin Times и The Amber App, автора «Некоммунистического манифеста», «Автентического интеллекта» и грядущего «Бусидо Биткоина». Высказанные мнения являются его собственными и не обязательно отражают точку зрения BTC Inc. или Bitcoin Magazine.

Foundation Devices хочет создать iPhone в сфере Биткоин-оборудования Foundation Devices хочет создать iPhone в сфере Биткоин-оборудования Соучредитель и генеральный директор Foundation Devices Зак Герберт ставит перед собой задачу создать Биткоин-продукты, которые будут такими же элегантными и удобными в использовании, как устройства Apple, но при этом будут защищать конфиденциальность пользователей и будут созданы с использованием открытого исходного кода. Фрэнк Корва 16 июля 2024
Биткоин как уровень нотариального заверения политических соглашений Биткоин как уровень нотариального заверения политических соглашений Оценка потенциальной роли Биткоина в геополитике и международной дипломатии в гипербиткоинизированном мире. Микеле Уберти 14 июля 2024
Биткоин-узел для каждого Биткоин-узел для каждого Почему самостоятельная обработка вашего биткоина вместо делегирования этой третьей стороне имеет решающее значение для безопасности самой системы Биткоина. Оуэн Кемейс 13 июля 2024