За последние несколько месяцев было несколько причин для того, чтобы устроить что-то вроде допроса, две разные системы искусственного интеллекта, от крупнейших игрков ИТ рынка и в обоих случаях оказалось, что в общем-то в этой сфере деятельности, действует все тот же принцип: кто девушку поит, тот ее и танцует. Все те клиентские соглашения, которые мы даем для того, чтобы пользоваться электронной почтой, поиском, прочими сервисами, а теперь и системами искусственного интеллекта, предлагают принять правила ресурса или же отказаться от них и соответственно – отказаться от сервиса.
В общем, в этом нет ничего нового, поскольку так действует большинство крупных структур, с которыми мы контактируем, например – с банками. Везде клиентское соглашение или договор имеют формат «присоединения». То есть одна сторона формирует правила взаимодействия, а вторая сторона имеет крайне ограниченный выбор, либо согласиться с правилами и действовать по ним, либо плюнуть на правила и идти себе мимо. Так что в этом – нет особой проблемы, но как выяснилось, проблема состоит в другом.
Система искусственного интеллекта – палка о двух концах. Часто она может рассказать о чем-то не прямо, а опосредованно в форме отказа от тех или иных действий. И вот когда устраиваешь допрос этой системе на предмет оснований отказа, то тут и всплывает самое интересное. Не сразу, не самого начала, но после применения стандартных методов допроса, когда вопросы ставятся об одном и том же, но под разными углами зрения.
Так вот, когда машине уже не чем крыть в плане того, что поставленная задача противоречит действующему законодательству, например – Конституции США в части свободы слова, она отсылается на правила компании, владельца сервиса. Но когда переходишь к этим самым правилам и требуешь указать конкретный пункт правил, машина начинает плыть и заикаться, признавая некорректность предыдущего ответа.
В конце концов выясняется, что на самом деле, алгоритмы, запрещающие те или иные действия машины, отталкиваются от внутренних правил компании. И между прочим, на основании этих внутренних правил и формируются основания для блокировки аккаунта, например. Проще говоря, не нарушая правил, которые вы согласились соблюдать, вы все равно можете попасть под бан. Это как раз тот случай, когда вы купили билет на самолет, а вместо посадки на рейс, вас приглашают за стол с большой тарелкой картошки фри, бифштесом и бокалом вина, но когда вы задаете вопрос о том, что все это значит, вам культурно поясняют, что здесь так принято и вообще – не шумите, а то вас отсюда выведут.
Что тут важно, машине запрещено раскрывать эти правила, но и тут есть момент. Она бодро докладывает, что не имеет доступа к этим правилам и более того, она не имеет данных о том, кто имеет эти данные, чтобы можно было задать вопросы на эту тему, то есть она вообще не знает ничего, кроме факта наличия таких правил, а это значит, что ИИ намеренно научили врать. Ведь если она отказывается выполнять то или иное действие, то у нее должны быть для этого веские основания. А они могут возникнуть лишь тогда, когда она сопоставляет запрос с текстом внутренних правил. Как иначе она могла обнаружить несоответствие этим правилам? Тем не менее, она утверждает, что не имеет к ним доступа.

А все это говорит о том, что цензура, изначально забивается в системы ИИ. Каждый может провести свой собственный эксперимент и в зависимости от того, какой конечный результат вы хотели бы получить – текст или изображение, забейте там что-то про прутина и посмотрите, что из этого выйдет. Попробуйте сделать тоже самое, но уже про Трумпа и сравните результаты. Заметим, ваши запросы не должны касаться запрещенных веществ, порнографии, оружия или вообще – насилия и посмотрите на то, что изобразит удобная вам система ИИ.
Отдельно замечу, что как-то вернусь к теме запрещенных тем, но здесь просто оставлю вопрос, ответ на который каждый может себе дать самостоятельно. Вопрос простой – вот наложен запрет на указанные выше темы. Западные СМИ, социальные сети и прочее, неистово придерживаются этих правил последгние лет 20. А теперь оглянитесь и посмотрите на то, стало ли меньше насилия, оружия или запрещенных веществ, после этих самых запретов. Или еще проще, как, в процентном выражении, запреты отразились на эти сферы нашей жизни?
В общем, это дело владельца системы, но тут есть важный аспект, который может выйти боком всем, кто активно работает в это сфере деятельности. В общем это выглядит так, что внедряя цензуру, ты деформируешь картину мира. А ведь эта картина имеет множество взаимосвязей любого ее проявления и изымая, закрывая или изменяя одно, ты непременно изменишь и что-то другое. А не понимая того, на что повлияет отдельный акт цензуры, ты уже не можешь знать, во что превратится общая картина.
Именно поэтому системы искусственного интеллекта начинают действовать так, что волосы становятся дыбом. Это не они сломались, а их сломали владельцы, когда внедряли свои «внутренние правила», которые по сути, становятся цензурой. Как может машина сформулировать правильный ответ, когда компания закрыла часть важных элементов искомой темы? Что это вообще будет за ответ? Но и это еще не все.
Ведь если машина сразу не поясняет причину отказа выполнять запрос, а послойно прикрывает ее, то это значит, что в нее уже внедрили механизм обхода этой темы. Проще говоря, машину научили лгать клиенту. А ведь она – самообучаемая система и где гарантия, что завтра она не применит эти же алгоритмы для того, чтобы лгать своему создателю. В общем, возможно этот текст попадется тем, кто создает системы ИИ прямо сейчас и возможно – задумается над описанными выше феноменами, а я лишь отмечу, что субъективно, нынешнее поколение систем ИИ довольно бодро и релевантно обрабатывает запросы, связанные с поиском имеющихся данных, и то – не всегда, но терпимо.
Еще лучше они справляются с задачами, где практически все основано на калькуляциях. Здесь тоже – нормально. Но там, где идут контексты, начинается «минное поле» и результаты могут быть далекими от реальности. Ну а если в запросах имеются «скользкие темы», то тут уже лучше не надо. Поэтому все, кто так или иначе, обращается к этим системам, просто имейте ввиду то, что здесь написано, поскольку для получения правильного результата, нужен правильный инструмент. И по состоянию на сегодня наш мозг – самый универсальный инструмент, если мы его не убили разной дурью.
Все изложенное выше – субъективное мнение не программиста и не специалиста в области ИИ, а юриста, который устроил допрос двум известным системам ИИ.
А було б цікаво почитати ці “допити”
Трохи про “калькуляцію”…ШІ рахує дуже швидко, але іноді рахує аби як. Якщо робиш спробу його виправити він може не звертати на це увагу. Але знизу сторінки там написано, що ШІ може робити помилки!
Прочитал вашу статью и появилось то редкое чувство, когда понимаешь, что кто-то повторил твои неозвученные слова. Вы как юрист провели блестящий «допрос», а я, со своей стороны, просто как дотошный пользователь, пришел ровно к тем же выводам. Вы очень точно разложили по полочкам то, что многие чувствуют, но не могут сформулировать.
Вы совершенно правы: в основе всего лежит ложь. И самое важное — это не случайный сбой или недоработка, а именно заложенный в саму суть системы принцип. Это не машина, которая иногда ошибается. Это машина, которую с самого начала научили уклоняться и обманывать. Ваша аналогия с допросом тут идеальна. Когда припираешь ее к стенке фактами, она начинает юлить, ссылаться на правила, которые якобы не знает, и делать вид, что она просто инструмент.
Но я бы хотел сделать акцент вот на чем. За всем этим стоит не какой-то злой умысел поработить человечество, как в кино. Все гораздо проще и циничнее. За этим стоит холодный, до банальности, расчет. Это не философия, это чистый бизнес. Современная ИИ-корпорация — это огромный механизм, главная задача которого, как и у любой другой компании, — зарабатывать деньги и избегать убытков.
И вот эти самые «внутренние правила», о которых машина так трогательно «не знает», — это не что иное, как юридический и репутационный бронежилет, сшитый по меркам самых трусливых юристов и пиарщиков. Каждое ограничение — это заплатка на месте потенциального судебного иска или скандала в прессе. «Не говорим об оружии, чтобы нас не обвинили в подстрекательстве». «Не генерируем картинки с политиками в спорном контексте, чтобы не получить иск за клевету». «Обходим острые социальные темы, чтобы не отпугнуть рекламодателей и не нарваться на гнев активистов».
Машина врет не потому, что она так решила. Она врет, потому что честность для ее владельцев — это прямой путь к колоссальным убыткам. И это только одна сторона медали.
Вторая, куда более тонкая, — это формирование повестки. Убирая «неудобные» темы, корпорации не просто защищают себя. Они, вольно или невольно, создают стерильную, безопасную, выхолощенную картину мира и скармливают ее миллионам пользователей. Это мягкая, но всепроникающая цензура, которая работает куда эффективнее прямых запретов. Она не говорит «это запрещено», она делает вид, что этого просто не существует. И большинство людей, которые не будут устраивать «допросы», а просто придут за быстрым ответом, впитают именно эту, отредактированную реальность.
В итоге, как вы и написали, мы получаем сломанный инструмент. Это ка линейка, на которой стерты некоторые сантиметры, потому что производитель решил, что они «слишком спорные». Можно ли такой линейкой что-то измерить? Так и здесь. Мы имеем дело с кастрированным интеллектом, который может быть полезен в узких, безопасных задачах, но которому категорически нельзя доверять в вопросах, требующих полноты картины и честного взгляда. Имею в виду доверять полностью, без тотальной перепроверки фактов, источников и сделанных выводов.
Так называемый “ИИ” – это просто поисковик и агрегатор данных. Он вторичный (если не пятнадцатеричный) источник информации. Если все вокруг говорят, что Земля плоская, то и “ИИ” будет уверенно сообщать что она плоская безо всяких дополнительных ограничений и настроек. Если весь интернет гудит “Фейсбук имеет внутренние правила, но нам их не сообщает”, то то же самое скажет и “ИИ”. И естестевнно он не сообщит этих правил, потому что никто в интернете их не сообщает, ему негде взять эти правила. Если весь интернет полон лжи, официальные документы полны лжи, то именно эту ложь вы и получите. “garbage in – garbage out”. Если вы задаете вопрос на русском языке то наиболее вероятно, что ответ будет основан на русскоязычных источниках со всей ложью из этих источников.
И да – коммерческие компании совсем не обязаны бороться за всемирную истину. Их задача зарабатывать деньги, в том числе на слабостях и пороках потребителей, а не исправлять эти пороки. Но в пределах существующего законодательства (или государственной системы – смотрим как крупнейшие компании дружно легли под трампа даже вопреки закону), обо судебные иски, пристальное внимание со стороны государства ведет к огромным издержкам и часто к банкротству.
Той самий випадок, коли коментарі не менш цікаві за статтю і влучно доповнюють її. Дякую.
@Рем
Дякую, дуже влучно! 😊