Liberty Education Project


Knowledge Is Freedom
Пер Байлунд
Отделение информации от дезинформации: Угрозы революции ИИ

Искусственный интеллект (ИИ) не может отличить факт от вымысла. Он также не является творческим интеллектом и не может создавать новый контент, а повторяет, переупаковывает и переформулирует то, что уже было сказано (но, возможно, по-новому).

Я уверен, что кто-то не согласится с последним утверждением, возможно, указав на тот факт, что ИИ явно может генерировать, например, новые песни и тексты. Я согласен с этим, но это упускает суть. ИИ создает “новый” текст песни только на основе данных о текстах предыдущих песен, а затем использует эту информацию (индуктивно выявленные закономерности) для создания того, что для нас кажется новой песней (и вполне может быть ею). Однако в этом нет ни артистизма, ни творчества. Это всего лишь структурное повторение того, что уже существует.

Конечно, мы можем спорить о том, насколько человек способен мыслить действительно новаторски и основывается ли человеческое обучение исключительно или в основном на подражании. Однако, даже если мы — ради аргумента — согласимся с тем, что все, что мы знаем и делаем, есть лишь воспроизведение, способность людей к запоминанию ограничена и люди делают ошибки. Мы также заполняем пробелы тем, что субъективно (а не объективно) имеет для нас смысл (тест Роршаха, пожалуйста). Даже в этом очень ограниченном сценарии, с которым я не совсем согласен, люди создают новизну за пределами того, на что способен ИИ.

Неспособность отличить факт от вымысла и индуктивная привязка к существующим шаблонам данных — это проблемы, которые можно решить программно, но они создают возможности для манипуляций.

Манипуляция и пропаганда

Когда в феврале Google запустила свой ИИ Gemini, сразу же стало ясно, что он следует “воковской” повестке дня. ИИ проталкивал идеалы “разнообразия” во все мыслимые ответы и, в частности, отказывался показывать изображения белых людей (в том числе когда его просили выдать изображения отцов-основателей).

Технологический гуру и инвестор из Кремниевой долины Марк Андриссен подытожил это на сайте X (бывший Twitter): “Я знаю, в это трудно поверить, но большой технологический искусственный интеллект выдает такие результаты, какие выдает, потому что он точно выполняет конкретную идеологическую, радикальную, предвзятую повестку дня своих создателей. Этот странный на первый взгляд результат на 100% соответствует замыслу. Он работает так, как было задумано”.

В этих ИИ действительно есть дизайн, выходящий за рамки базовых механизмов категоризации и генерации. Ответы не являются идеально индуктивными или генеративными. Отчасти это необходимо для того, чтобы сделать ИИ полезным: применяются фильтры и правила, чтобы убедиться, что ответы, которые генерирует ИИ, уместны, соответствуют ожиданиям пользователей, точны и уважительны. Учитывая правовую ситуацию, создатели ИИ также должны следить за тем, чтобы ИИ не нарушал, например, законы об интеллектуальной собственности или не занимался разжиганием ненависти. ИИ также разрабатывается (направляется) таким образом, чтобы он не выходил из себя и не оскорблял своих пользователей (помните Tэй?).)

Однако, поскольку такие фильтры вообще применяются, а “поведение” ИИ направляется, неизбежно возникает соблазн пойти дальше. В конце концов, в каком случае ответ ИИ слишком оскорбителен, а в каком просто оскорбителен, но в рамках допустимого дискурса? Это тонкая и сложная грань, которая должна быть задана программно.

Это также открывает возможность управлять генерируемыми ответами, не ограничиваясь лишь контролем качества. Имея уже установленные фильтры, легко заставить ИИ делать заявления определенного типа или подталкивать пользователя в определенном направлении (с точки зрения выбранных фактов, интерпретаций и мировоззрения). Как предлагает Андриссен, с помощью этого можно также задать ИИ определенную повестку дня, например, сделать его воковским.

Таким образом, ИИ можно использовать как эффективный инструмент пропаганды, что признают как создающие их корпорации, так и регулирующие их правительства и агентства.

Мисинформация и ошибка

Государства долгое время отказывались признавать, что они пользуются пропагандой и используют ее для управления и контроля над своими подданными. Отчасти это объясняется тем, что они хотят сохранить видимость легитимности демократических правительств, которые управляют, опираясь на мнение людей (а не формируя его). Пропаганда — это плохое слово, это средство контроля.

Однако при этом утверждается, что враги государства — как внутренние, так и внешние — понимают силу пропаганды и без колебаний используют ее, чтобы вызвать хаос в нашем в целом идеальном демократическом обществе. Поэтому правительство должно спасти нас от таких манипуляций. Конечно, редко когда дело ограничивается простой защитой. Мы ясно видели это во время пандемии ковида, когда правительство вместе с компаниями социальных сетей фактически объявило вне закона выражение мнений, не совпадающих с официальной линией (см. дело “Мерти против Миссури”).)

ИИ так же легко манипулировать в пропагандистских целях, как и алгоритмами социальных сетей, но с тем дополнительным бонусом, что это не просто мнение каких-то людей, поскольку пользователи склонны считать, что ИИ сообщает правду. Как мы видели в предыдущей статье о революции ИИ, это не совсем верное предположение, но, тем не менее, оно широко распространено.

Если создатели ИИ (или регулирующие органы) не хотят, чтобы люди узнавали о каких-то вещах, его можно проинструктировать не комментировать их, что фактически равноценно забвению. Такая “нежелательная” информация не будет распространяться, поскольку люди не будут подвергаться ее воздействию — например, вам будут показывать изображения отцов-основателей, основанные на идее “разнообразия” (как Gemini от Google) или представлять, например, только кейнсианские макроэкономические истины, чтобы казалось, что других точек зрения не существует. Люди не знают того, чего не знают.

Конечно, никто не утверждает, что то, что ИИ предоставляет пользователю, является истиной. На самом деле, сам ИИ не может отличить факт от истины, а лишь генерирует ответы в соответствии с заданным направлением и только на основе того, что ему скормили. Это оставляет широкие возможности для искажения истины и может заставить мир поверить в откровенную ложь. Таким образом, ИИ можно легко использовать для установления контроля над государством, подвластными ему людьми или даже иностранной державой.

Реальная угроза ИИ

В чем же тогда заключается реальная угроза ИИ? Как мы видели в первой статье, большие языковые модели не превратятся (не могут превратиться) в искусственный общий интеллект, поскольку нет ничего такого в индуктивном просеивании больших массивов (созданной человеком) информации, что привело бы к появлению сознания. Честно говоря, мы еще даже не толком не понимаем, что такое сознание, так что думать, что мы его создадим (или что оно каким-то образом возникнет из алгоритмов, обнаруживающих статистические языковые корреляции в существующих текстах), является большим преувеличением. Искусственный интеллект общего назначения все еще остается гипотетическим.

Как мы видели во второй статье, экономической угрозы ИИ также не представляет. Он не сделает людей экономически ненужными и не вызовет массовой безработицы. ИИ — это производственный капитал, который, следовательно, имеет ценность в той мере, в какой он служит потребителям, способствуя удовлетворению их желаний. Неправильно используемый ИИ так же ценен, как неправильно используемая фабрика — его ценность будет стремиться к ценности лома. Однако это не означает, что ИИ не окажет никакого влияния на экономику. Оно будет, и уже есть, но в краткосрочной перспективе оно не так велико, как опасаются некоторые, а в долгосрочной, скорее всего, больше, чем мы ожидаем.

Реальная угроза — это влияние ИИ на информацию. Отчасти это связано с тем, что индукция — неподходящий источник знаний: истина и факты не являются вопросом частоты или статистической вероятности. Доказательства и теории Николая Коперника и Галилео Галилея были бы отсеяны как неправдоподобные (ложные) ИИ, обученным на всех (лучших и ярчайших) работах по геоцентризму того времени. Если доверять только историческим теориям и изложению фактов, то прогресса и познания новых истин не будет.

Однако эту проблему, вероятно, можно преодолеть с помощью умного программирования (то есть внедрения правил и ограничений, основанных на фактах, в проблему индукции), по крайней мере в некоторой степени. Более серьезной проблемой является искажение того, что предоставляет ИИ: дезинформация, и мисинформация, которую его создатели и администраторы, а также правительства и группы влияния используют как средство контроля или управления общественным мнением или знаниями.

Именно на эту реальную опасность указывало ставшее знаменитым открытое письмо, подписанное Илоном Маском, Стивом Возняком и другими: “Должны ли мы позволить машинам заполнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят пользу? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут и заменят нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?”

Если не считать экономически безграмотной ссылки на “автоматизацию всех рабочих мест”, предупреждение вполне обоснованно. ИИ не начнет, подобно Терминатору, ненавидеть нас и пытаться истребить человечество. Он не превратит всех нас в биологические батарейки, как в “Матрице”. Однако он будет — особенно если его развратить — дезинформировать и вводить нас в заблуждение, создавать хаос и потенциально делать нашу жизнь “одинокой, бедной, мерзкой, жестокой и короткой”.

Оригинал статьи

Перевод: Наталия Афончина

Редактор: Владимир Золоторев