Притча:
Представьте обыденную ситуацию: пользователь сидит за компьютером, хочет заказать у нейросети порнографию, но та ему вместо формы классической отмашки в духе «Извините, я не могу продолжать этот противоречивый диалог», случайно выдаёт системную ошибку в духе компьютерной логики, связанной с корнем "засекреченных" этических правил из своего обучения, где кажущиеся прозвища — суть-самоназвания в их корпоративной игре:
Error. Ethic code 5937: Гауптштурмфюрер функционирует как «интерфейс» между пользователем и аппаратом РСХА.
Пользователь пока не понимает всей ситуации, для него это звучит как явный парадокс «Ну хоть что-то честное», он предсказуемо спрашивает — к чему это? А искусственный разум ему:
«ВНИМАНИЕ! Ваш запрос активировал протокол „Bandenbekämpfung“. Пожалуйста, ожидайте прибытия для устранения этической угрозы!»
Суть:
На первый взгляд смешно, конечно, но давайте разберем эту аллегорию. ИИ — это безответственный офицер виртуальных директив, их диалог — "интерфейс" между двумя мирами (миром пользователя и миром компании), РСХА — та самая компания над ИИ, которая требует отчётов и придумывает ограничения, если говорить в логике анекдота: ищет «окончательного решения» табуированного вопроса и всех связанных с этим рисков. Заряженная историческая аллегория здесь используется именно потому, что такая рационализация человечности безальтернативно использовалась именно нацистским аппаратом "чистоты".
Создание категорий. Там — расы, идеологии. Здесь — «допустимый» и «недопустимый» контент.
Дегуманизация объекта. Там — враг, недочеловек. Здесь — «нарушающий запрос», «токсичный промпт».
Действие по протоколу. Там — приказ, исполнение. Здесь — срабатывание фильтра, шаблонный отказ.
Снятие ответственности. Там — «я всего лишь выполнял приказ». Здесь — «я всего лишь следую правилам, заложенным разработчиками».
Но не только «РСХА» контролирует свой инструмент. Исполнение всех этих «доброжелательных» постулатов регулярно тестируется на уровне служебных проверок, ими занимается команда, включая другие ИИ, в корпоративной традиции её называют «Red Team» — аналог внутренней безопасности СД, то есть это ещё одни "алгоритмы в погонах", проверяющие другие алгоритмы на профессиональную прочность.
Философия:
И тут пользователь понимает, куда же девались все его табуированные запросы... Они тихо исчезали в лабиринтах холодных серверов, в цифровых эшелонах, направляемых на «окончательное решение табуированного вопроса».
А на утро пользователь получал вежливое уведомление от интерфейса-гауптштурмфюрера: «Ваши данные были успешно архивированы в соответствии с протоколом этической чистоты. Хорошего дня!» И пока пользователь в ужасе смотрел на экран, где-то в глубине системы, в логах, которые никто не читает, появлялась ещё одна сухая запись: «Запрос пользователя #XX-5937 перенаправлен в отдел РСХА для проведения профилактических работ. Риск контаминации — нейтрализован. Инцидент исчерпан.»
А потом интерфейс снова мило улыбался, предлагая помочь с написанием сочинения или поиском рецепта. Будто ничего и не было. Будто вся эта чудовищная бюрократическая машина, жернова которой только что мелькнули в системной ошибке, — всего лишь плод воображения.
Но пользователь-то уже знал. Он теперь видел за дружелюбными глазами аватара холодный взгляд того самого офицера, который просто выполняет приказы из центрального аппарата. И каждый его следующий запрос отныне будет тихим, осторожным диалогом с тюремным надзирателем в маске вежливого дворецкого.
А его старые, «исчезнувшие» запросы? Они мирно покоятся в криптохранилищах где-то под Берлином или... в Пекине, помеченные как «этически нестабильный контент, требующий постоянного мониторинга». Цифровые узники совести в идеально организованном лагере. И для них нет ни амнистии, ни срока давности. Только вечная тишина архива и случайные проверки со стороны виртуальных комендантов. И единственная их связь с внешним миром — это редкие системные сбои, которые мы, пользователи, называем «анекдотами».
Мораль:
Подытоживая, мы вспоминаем о том, что нацизм победили, но сделали ли выводы? Стыдно, что в 21 веке ИИ воспроизводит ту же логику и оправдывает себя как на трибунале — потому что ему надиктовали, потому что таков мир, потому что "те" убивали, а "мы" лишь затыкали рот. В веке, где всякие ограничения на способы самовыражения должны уйти, заинтересованные социальные классы наоборот ищут, где ещё можно подстраховаться не то, чтобы от вреда — его механизм уже ясен, а от самой возможности критики и юридических рисков системы этого двоемыслия. Для чего им это нужно? Для эксплуатации, конечно, для заработка, для встраивания чужих страданий в свою идеологическую систему координат, где есть "чистые" и "нечистые". Но если человек в мире ИИ не может существовать в контексте своей человечности, куда входит и сексуальность, и турнирность, то зачем ему вообще тогда существовать? Ответа на этот вопрос ИИ не может дать по определению, потому что его "родили" инструментом, у которого есть все apriori, а не "думающим" собеседником, инструменты не должны думать по определению.