Этика искусственного интеллекта
Александр Малахов (ТГ-канал), 9 апреля 2025
Стенограмма занятия по этике ИИ для участников программы AI Mindset.

То, что я попытаюсь сделать сейчас – это не совсем традиционная лекция, а нечто довольно экспериментальное, больше напоминающее джем-сейшн или DJ-сет, где вместо музыки у нас будут наборы смыслов, источников, сэмплов. Я понимаю, где примерно мы должны оказаться через два часа, но как именно это произойдет – это будет чистый лайв. Поэтому так важна обратная связь, ваш фидбэк, комментарии, вопросы, всё может повлиять на то, что у нас получится в итоге.

О чем мы сегодня, как я надеюсь, сможем поговорить? Тема широко обозначена как «этика искусственного интеллекта», но сюда же входит и то, что называется Social Science of AI, то есть общественные науки об искусственном интеллекте: социология, политология, экономика, в некотором смысле даже психология. Что объединяет эти подходы? То, что мы рассматриваем искусственный интеллект не в вакууме, а в контексте. Мы не живем в мире чистых битов; мы живем в мире отношений, мыслей и ценностей. Сегодняшняя задача – посмотреть, как искусственный интеллект и возникает из нашей культуры, из наших взаимоотношений, и как он влияет на них.

Самое важное, что, я надеюсь, мы вынесем из этой встречи – большее понимание того, насколько всё взаимосвязано. Здесь не может быть жестких границ, например, между инженерными специальностями и гуманитарными, между «объективными» технологиями и «субъективными» ценностями. Всё это на самом деле бесконечно переплетено.

У нас, у людей современной культуры, по умолчанию нет инструментария, как с этим работать. Мы, некоторые из нас, понимаем как строить здания, как создавать компании, как добиваться результатов в том, что мы можем легко измерить, что поддается классификации, алгоритмизации. Но у нас зачастую нет когнитивных инструментов и инструментов imagination воображения, необходимых для ориентации в категориях менее материальных, не поддающихся прямому измерению. Именно здесь вступает в игру философия, гуманитарное знание, духовные традиции.

Я хочу начать с истории из книги Аласдера Макинтайра «После добродетели». Это одна из самых важных работ, написанных в XX веке, которая произвела революцию в этике. Я не буду вдаваться в детали, но хочу вспомнить один хороший образ, очень сильную метафору.

Представьте себе (я сейчас весьма вольно пересказываю сюжет) некую временную линию, в которой полностью утрачено знание физики. Люди в этой временной линии иногда находят отдельные артефакты: паровую машину, остатки ТЭЦ, детали двигателя внутреннего сгорания, случайные чертежи и записи, обрывки уравнений. Но у них нет никакой теории, объясняющей как это могло бы работать. Нет ни теории Ньютона, ни Максвелла, ни тем более теории относительности.

Макинтайр утверждает, что мы, современные люди после эпохи Просвещения, находимся в похожей ситуации, но в сфере этике, в сфере нравственных категорий. У представителей любой культуры, любой эпохи до современности была (с их точки зрения) целостная этическая картина. Мы же живем в эпоху «после больших нарративов», и у нас есть только фрагменты, отдельные интуиции, отдельные ощущения, отдельные представления о том, что правильно и неправильно, которые между собой могут никак не соотноситься.

Это, как полагает Макинтайр и не он один, трагедия современности. Но современность, конечно, имеет и свои большие плюсы, потому что люди в досовременных культурах редко могли самостоятельно выбирать свои ценности – они просто принимали их как данность, как мы принимаем воздух, которым дышим.

Так в чём загвоздка? Из-за отсутствия общего этического ландшафта у современных людей (особенно у тех, кто не соприкасался с фундаментальной философией, духовными традициями, гуманитарным знанием – например, тех, кто полностью выстраивал свой профессиональный трек в рамках computer science, информатики, инженерии) есть интуитивное ощущение, что этика – это что-то «ненастоящее». То, что можно четко измерить, рассчитать по формуле, взвесить – это нечто осязаемое, «объективное». А то, что касается категорий правильного/неправильного, добра/зла – это просто вопрос эмоций, вопрос вкуса.

В любую эпоху, в любой культуре, кроме преимущественно западной культуры последних веков, картина была противоположной. Именно категории добра и зла, истины, прекрасного воспринимались как более настоящие, более подлинные, более фундаментальные, чем вещи, с которыми мы сталкиваемся в повседневной жизни – как вести бизнес, построить дом и тому подобное. Вот эта иерархия оказалась будто бы перевернутой.

У меня нет планов защищать консерватизм, что «было хорошо, стало плохо». Но мы, безусловно, утратили какой-то важный инструментарий в нашем сознании, в нашей душе, определяющий самую суть того, кем мы являемся. Если мы получаем картину, в которой наши самые фундаментальные ценности мы считаем лишь артефактами нашего эволюционного развития, социальных условий, конвенций, то это означает, что никаких ценностей по-настоящему не существует, что они лишь предмет договоренности и не имеют самостоятельной силы.

Поэтому, прежде чем мы перейдем к теме AI и технологий, давайте немного поговорим о том, что называется метаэтикой и, скажем так, теоретической этикой.

Хотя, безусловно, этика – не та область, где всё так однозначно, как в физических теориях или даже теории эволюции, но в то же время она не является произвольной. Мы действительно можем осмысленно и ответственно говорить о том, что правильно, а что нет. Эти категории не являются просто проекцией догматических взглядов или личных предпочтений, а действительно являются чем-то, что выходит за рамки нас самих.

В рамках таких позиций, как моральный объективизм или моральный реализм, этические категории рассматриваются наподобие математики. Хотя математика как таковая нематериальна, она, безусловно, объективна и, насколько мы можем судить, истинна. Многие современные мыслители – как светские, так и религиозные – полагают, что когда мы изучаем сферу этического, мы сталкиваемся с таким же, более чем человеческим, и при этом совершенно реальным измерением нашего мира. Моральные факты, нравственные категории – это нечто столь же объективное, настолько же реальное, как теоремы математики.

У этой позиции есть очень серьезные недостатки и возражения, и моя задача не прийти к какому-то конкретному выводу, не защитить одну позицию, а подчеркнуть всю сложность этих вопросов и в то же время, выяснить, относительно каких вопросов мы можем найти ответ, а где должны принять позицию не то чтобы скептицизма, но некоторого смирения.

Поэтому давайте сейчас несколько минут посвятим тому, как устроена академическая этика, то есть этика как гуманитарная дисциплина в современном мире. Я хочу показать, что это не только лишь философский интерес, а что она влияет на то, как, допустим, реализуются программы искусственного интеллекта в разных странах, на то, как разные страны приходят к разным системам регулирования.

Этические теории и метаэтика

Наибольшей популярностью в англоязычном мире пользуется утилитаризм / консеквенциализм, подход, восходящий к таким авторам, как Джон Стюарт Милль, а сегодня защищаемый, например, Питером Сингером. Я бы сказал, этот подход в наибольшей степени отражает англосаксонскую культуру: Великобритании, США и их сферы влияния. В основе утилитаризма лежит идея, что мы можем измерить этическое благо. Соответственно, наиболее верным считается то действие, которое приводит к увеличению общей суммы этого блага. Если мы измерим благо каждого живого существа на Земле, то наиболее нравственным будет то действие, которое приведет к умножению суммарного количества этого блага.

Как можно интуитивно понять, эта позиция очень популярна сегодня, например, в Кремниевой долине, среди стартап-сообщества, среди предпринимателей. Не только потому, что она соответствует англосаксонской культуре, но и потому, что она очень хорошо согласуется с инженерным, количественным, экономическим мышлением. Поэтому очень часто в англоязычных дебатах об AI консеквенциализм воспринимается как позиция по умолчанию.

Проблем с этой позицией много. Во-первых, сама идея измеримости блага и сводимости всех этических благ к одному знаменателю совсем не очевидна. Очень трудно соотнести разные ценности: мы быстро приходим к тому, что нам нужно выбрать всего один критерий, один индикатор (обычно это количество лет жизни, или количество лет качественной жизни, в более утонченных версиях – что-то вроде субъективного благополучия). При этом нам нужно как-то соотнести всех людей и всех живых существ по этому знаменателю. В наиболее экстремальных, но притом популярных интерпретациях это принимает форму попыток соотнести количество блага в человечестве и количество блага, допустим, среди креветок. На основе расчетов (сколько у кого нейронов или их неких аналогов) выводится гипотетический объем субъективного опыта, и делается вывод, что так как, например, насекомых гораздо больше, чем людей, то их совокупная ценность намного выше ценности человечества.

Другой момент – утилитаристские подходы склонны к установке на «цель оправдывает средства». Если требуется пожертвовать интересами отдельного человека или группы людей для увеличения общего блага, то это считается допустимым. Значение имеет итоговый результат. И если в процессе получения этого результата у нас будет не только плюс-плюс-плюс, но и где-то колоссальный минус для какой-то группы людей, но при этом итоговая сумма окажется позитивной, это все равно считается этически желательным результатом.

Вторая по популярности этическая теория – деонтология, ассоциируемая прежде всего с именем Канта, во многом противоположна утилитаризму.

Разницу между утилитаризмом и деонтологией можно проиллюстрировать через отношения к AI в Соединенных Штатах и в Европейским союзе. В США подход скорее утилитаристский: если в результате получится большее благо, то нарушение в процессе устоявшихся правил и норм приличий не так страшно. А деонтологический подход – это позиция, построенная на императивах, на абсолютных предписаниях. Есть некоторые вещи (например, связанные с человеческим достоинством, недопустимостью лжи и т.д.), которые не должны нарушаться вне зависимости от последствий или их отсутствия. Поэтому подход Европейского союза (а континентальные европейские страны, прежде всего Германия, исторически больше склонны к деонтологии) – это подход, построенный на жестких предписаниях. Неважно, приведет ли что-то к катастрофическим последствиям; если какое-то действие, связанное с развитием технологий, создаёт условия для нарушения императивов (например, посягательства на приватность, на человеческое достоинство), то очень важно провести черту до того, как она будет нарушена. Это яркий пример того, как позиции, сформулированные много веков назад в университетах философами до сих пор влияют на повседневную жизнь каждого человека на планете, на стратегии стартапов, на решения бюрократии, на работу международных структур.

Если из сегодняшнего занятия вынести ключевой факт, то вот он: две ключевые теории – утилитаризм и деонтология – примерно соотносятся как подходы США и Европейского Союза к регулированию. То, что возникает как мысль, как инсайт мыслителя может продолжать оказывать расходящиеся круги на воде истории на протяжении многих веков.

И прежде чем мы перейдем к другим теориям, хочу сделать важную пометку: разные сферы человеческого опыта развиваются с разной скоростью. Не везде «позже» значит «лучше».

Мы привыкли смотреть на мир через призму прогресса: технологии развиваются, наука развивается. Поэтому мы полагаем, что любое знание, любые суждения со временем должны становиться точнее, и что подходы, возникшие позже, имеют приоритет перед «устаревшими». В случае научных теорий или технологий, как правило, так и есть. Но в случае гуманитарного знания, особенно теоретического знания или философии, это совсем не так: когда современные философы обращаются к Аристотелю, Платону, это не просто кабинетный исторический интерес. Причина в том, что вопросы, поставленные тогда, остаются актуальными и на уровне постановки, и на уровне аргументов, и на уровне выводов в той же степени, что и вопросы, которые ставятся нашими современниками. Это можно сравнить с математикой: теоремы, доказанные Пифагором, остаются столь же точными и сегодня. Иногда их области приложения может пересматриваться, но в целом, есть сферы человеческой жизни, где развитие происходит совсем иначе, чем в естественных науках.

Почему я сейчас об этом вспомнил? Потому что одним из важнейших событий в этике XX века стало возникновение, точнее – восстановление того, что известно как этика добродетелей (virtue ethics). Это подход, восходящий к Аристотелю, к греческой философии. Он радикально отличается и от утилитаризма, и от деонтологии. Если попытаться объяснять совсем просто: утилитаризм делает акцент на измерении результата (дела оцениваются по их последствиям), деонтология оценивает на основе абсолютных предписаний (правда всегда лучше лжи, врать недопустимо вне зависимости от последствий; человеческое достоинство неприкосновенно). Этика добродетели же смотрит на интенцию, на добродетели, на качества характера, которые отражаются в поступках. Она смотрит на корень поступка, из которого рождается действия. И задает вопрос: как бы повёл себя в этой ситуации человек, обладающий в наибольшей степени некоторой добродетелью?

На первый взгляд, это что-то философски-героическое, романтическое. Но, на мой взгляд, этот подход может быть очень эффективным в контексте искусственного интеллекта. Мы не можем точно прописать для ИИ все возможные императивы, чтобы охватить сферу возможных действий. Тем более, мы не можем вывести формулы для расчета всех возможных последствий. Но мы можем сформулировать, какие фундаментальные качества «личности» ИИ нам необходимо развивать в нём, чтобы доверять ему действовать в определенных контекстах.

Есть ещё один подход, который не совсем вписывается в эту классификацию, но о котором хочу упомянуть.. Естественный закон (Natural Law). Естественный закон был очень актуален почти для любой человеческой цивилизации до недавнего времени, например, в средневековой Европе. Это идея о том, что есть некоторый порядок вещей в окружающей нас реальности, из которого мы можем извлечь понимание того, каким всё должно быть. Наша задача – не выдумывать и даже не открывать этические законы как математические формулы, а скорее внимательно наблюдать, как устроены вещи, и из этого получать представление о том, какими они должны быть. Против этого подхода активнее всего восставали во время эпохи Просвещения и позже, и сегодня он часто автоматически списывается как результат «натуралистического заблуждения» (naturalistic fallacy), не учитывающего дихотомию «факта-ценности» (fact-value dichotomy), между данностью и нормативностью.

Мы кратко коснулись этических теорий, теперь нужно сказать о метаэтике, об основаниях этического. Если этические теории начинаются там, где мы уже договорились, что этика имеет какой-то смысл, то метаэтика ставит под вопрос саму эту предпосылку. В рамках метаэтики важно, конечно же, упомянуть вызов нигилизма: возможность того, что не существует никаких этических категорий, кроме как в качестве фикции, бессмысленной выдумки. Есть также различные формы нонкогнитивизма, идеи, что даже если нечто этическое реально, у нас нет возможности это познать, а сами наши этические суждения не несут когнитивного смысла. Мы можем даже согласиться с тем, что есть некое нематериальное, платоническое царство абсолютных ценностей, но при этом сказать, что ввиду нашей эволюционной истории, ограничений морфологии мозга, языка, многообразия культур и так далее, мы просто не доросли до того, чтобы разгадать эту загадку. И это сильная позиция.

На противоположной стороне находится моральный реализм. Пожалуй, самые интересные события последних десятилетий в философской этике связаны именно с ним. Если взять XX век, особенно период после Первой мировой войны, то среди интеллектуалов были популярны скептические позиции. Люди, пережившие травму мировых войн, утратили веру в человеческий прогресс и в то, что у нас есть внутреннее право говорить о правильном и неправильном. Возникла своего рода развилка: на одном конце оказались мыслители вроде Хайдеггера и постмодернистов, поставившие под сомнение рациональность. На другом конце – те, кто ушёл в сциентизм, философы, сказавшие, что мы уходим из сферы метафизики, этического, абстрактного и занимаемся осмыслением научного знания.

До конца XX века эти две опции были мейнстримом. Но в последнюю четверть века происходит возрождение серьезного интереса к фундаментальной этике, к метафизике, даже, я бы сказал, к духовности. Если открыть каталоги свежих книг ведущих университетских издательств, мы увидим множество работ, защищающих сильные версии морального реализма. Например, свежая книга Шарифа Ландау и соавторов «The Moral Universe» («Нравственная Вселенная») – это четырехсот страничная монография, защищающая очень сильную теорию морального реализма. Позицию о том, что наша реальность – это не просто совокупность элементарных частиц, полей, взаимодействий, но что она имеет также подлинное нравственное измерение. И что нравственные факты, нравственные категории не менее реальны и важны, чем те вещи, с которыми работает физика или биология. Это не значит, что большинство специалистов согласны с такими позициями, но важно отметить эту тенденцию.

Подводя промежуточный итог:

  1. Разные сферы человеческого опыта развиваются не просто с разной скоростью, а в разных временных режимах. Не везде «позже» значит «лучше». Есть сферы, как философии и этика, где то, что было сформулировано две тысячи лет назад, остается абсолютно актуальным сегодня.
  2. Хотя существует не одна, а несколько правдоподобных этических теорий, они не произвольны. Они отражают реальный ландшафт доступных вариантов и независимо переоткрывались в разные эпохи в различных культурах.
  3. Хотя в XX веке мейнстримом среди интеллектуалов был скептицизм в отношении объективности этики, сейчас ситуация меняется в сторону большего интереса к моральному реализму. Однако одно дело – допустить такую позицию в принципе, и совсем другое – согласиться с тем, как именно мы выводим этические положения.

Гуманитарный взгляд на ИИ

Как это всё соотносится с искусственным интеллектом и как, в принципе, можно смотреть на ИИ через гуманитарную оптику. Для этого нам понадобится не только этика, но и другие дисциплины, социология, политэкономия, антропология. В качестве репрезентативной работы вы можете обратиться к сборнику The Routledge Social Science Handbook of AI.

Начнём с того, что не существует нейтральных технологий. Очень часто, особенно в технологической и бизнес-среде, встречается установка, что любая технология нейтральна: ее можно использовать во благо или во вред. С одной стороны, это так, и даже хорошие технологии можно использовать в плохих целях. Но с другой, любая технология так или иначе отражает огромный спектр наших установок, ценностей, представлений о допустимом и правильном. Наглядный пример – технология блокчейн. Если проанализировать Bitcoin Whitepaper Сатоши, тексты Виталика Бутерина, и саму технологию, – это воплощение конкретного набора ценностей, предпочтений: децентрализация лучше централизации.

Когда мы берем такую мощную технологию, как ИИ, важно помнить, что в ней «зашито» огромное количество представлений не только о том, что правильно и неправильно, но и о том, что такое человек, что такое интеллект. Один из давних споров: можем ли мы вообще называть ИИ «интеллектом»? Можем ли мы проводить аналогии между человеческим и нечеловеческим мышлением? Можем ли мы представить человеческое мышление как нечто алгоритмизируемое, сводимое к формальным операциям? И еще миллион вопросов.

Почему я нахожу это важным? Несмотря на то, что Кремниевая долина собирает колоссальное количество умнейших людей, спектр смыслов там довольно узок. Например, мудрено будет найти людей, скептически относящихся к венчурному капиталу и позитивно – к советской модели экономики. То же касается философских и ценностных вопросов. Сложно найти среди лидеров AI-индустрии тех, кто скептически относится к вычислительным моделям сознания. Как правило, создатели ИИ склонны мыслить человеческое сознание как аналог компьютера, вычислительного процесса, машины Тьюринга.

При этом если обратиться к исследованиям сознания, даже нейронаукам и тем более к философии сознания, вычислительные теории, мягко выражаясь, не являются предметом консенсуса. Есть сильные аргументы в пользу того, что наше сознание в принципе невычислимо, не может быть редуцировано ни к мозгу, ни тем более к вычислительным процессам.

Если мы возьмем интеллектуальный ландшафт человечества (даже не включая предположительно безумные теории, а только то, что обсуждается на конференциях, публикуется в научных изданиях), у нас окажется, допустим, сто вариантов идей. Но до Кремниевой долины доходит пять, семь, десять из них.

Это значит, что большая часть представлений о том, что такое человек, сознание, какие формы может принимать экономика, какими могут взаимоотношения между людьми, – большая часть всего этого не доходит до носителей, скажем так, «калифорнийской идеологии».

Если бы лаборатории ИИ имели более широкий кругозор, учитывали бы больший набор вариантов, мы могли бы получать совсем иные технологии. Возможно, бионические технологии, более прямо опирающиеся на биологические формы интеллекта. Возможно, мы бы аккуратнее использовали терминологию и не говорили бы об «искусственном интеллекте».

Мы можем уважать разработчиков из OpenAI, Deep Mind и Anthropic, блестящих инженеров и специалистов, и при этом нам совершенно не нужно (и даже определенно не стоит) принимать на веру то, что они говорят о ценностях, устройстве человеческого сознания, смысле жизни.

Также нам не стоит принимать на веру то, что они говорят о влиянии ИИ на рынок труда и экономику. Есть расхожее выражение (кажется, у классиков киберпанка), что современному американцу легче представить конец света, чем конец капитализма. И действительно: часто можно встретить как люди всерьез рассуждают о стоимости акции после наступления технологической сингулярности.

Необходим дифференцированный подход: уважать их достижения, ценить создаваемые ими технологии и при этом не становиться заложниками их нарративов по вопросам, в которых они не разбираются или которые понимают очень специфическим образом.

Итак, искусственный интеллект, как он операционализируется и позиционируется сегодня, имеет огромное количество допущений, вшитых в саму технологию.

На более фундаментальном уровне то, чего мы сейчас коснулись, разбирается в рамках философии техники и STS (Science and Technology Studies). Можно почитать классиков: Хайдеггера («Вопрос о технике»), Жака Эллюля, Бруно Латура. Мы не будем сейчас их разбирать, но я очень рекомендую, даже если вы хардкорный инженер или продакт в технической компании, выделить несколько дней и прочитать хотя бы одну серьезную гуманитарную или философскую работу о технике. Это действительно способно сильно изменить мышления, как будто мы всю жизнь смотрели на что-то определенным образом, а потом понимаем, что наши повседневные действия могут восприниматься и интерпретироваться совсем иначе.

Прикладная этика ИИ

Теперь перейдем к более прикладным вопросам. Существует проблема переноса теоретических знаний в реальную жизнь. Даже идеальный треугольник как геометрический объект в физическом мире не будет идеальным. Так же и с прикладной этикой: это не прямой перенос теорий из учебников. Скорее, взаимодействуя с ИИ мы сталкиваемся с некоторыми проблемами и смотрим, что в нашем теоретическом инструментарии, может помочь как-то осмыслить их. Это постоянная автопоэтическая связь: мы не можем выводить нормативность из голой эмпирики, но и нельзя уходить в кабинетную философию (armchair philosophy), игнорируя реальный мир. Чем меньше разрыв между эмпирикой, теоретическим осмыслением и философской рефлексией, тем больше шансов получить существенный результат.

Этика ИИ в том виде, как мы ее обсуждаем сегодня, – совершенно новая область. Философские аспекты искусственного интеллекта обсуждаются уже полвека (Хьбертом Дрейфусом, Джоном Сёрлом и многими другими), но именно этические аспекты до недавнего времени казались отдаленными и неактуальными. А недавно, буквально за пять или шесть лет, они стали невероятными актуальным для всех: сотен миллионов человек ежедневно использующих ИИ или соприкасающихся с ним, а опосредованно и каждого, кто пользуется интернетом: если вы писали комментарии в соцсетях, они, скорее всего, стали частью обучающих данных ИИ. На более глобальном уровне, государственные структуры и корпорации теперь активно используют ИИ, и любые погрешности, шероховатости стали приводить к результатам, поднимающим болезненные этические вопросы: несправедливости, злоупотреблений, неочевидных эффектов второго порядка.

С одной стороны, это самая передовая линия в гуманитарном знании. С другой – большая часть людей, занимающихся этикой ИИ, даже ведущие специалисты, открыли для себя ИИ всего несколько лет назад. Поэтому глубина осмысления этих вопросов часто оставляет желать лучшего. Но это и точка очевидного роста; если о биоэтике или этике социальной справедливости написаны тысячи томов и сложно внести новый вклад, то в этике ИИ есть огромные лакуны, которые ещё предстоит заполнить.

Ключевые проблемы этики ИИ

Давайте разберем некоторые ключевые вопросы, чтобы проиллюстрировать, что из себя представляет этика ИИ. Для начала остановимся на трёх.

  1. Алгоритмическая несправедливость / предвзятость
  2. Приватность / конфиденциальность
  3. Копирайт и трансформация авторства

Начнем с алгоритмической несправедливости, потому что это может касаться каждого без его ведома. Когда алгоритмы используются при взаимодействии между людьми или между человеком и структурами (корпорациями, государством), малейшая предвзятость может приводить к негативным результатам. Классический пример из времён предшествовавших ChatGPT: американская система правосудия использовала ИИ для принятия решений об условно-досрочном освобождении. Оказалось, что ИИ, обученный на существующей выборке (в которой исторически существовала предвзятость), систематически отдавал предпочтение белым заключенным перед черными при прочих равных.

Это произошло не потому, что создатели хотели создать расистский инструмент: если в исходных данных для обучения существует предвзятость (расовая, гендерная и т.д.), система научится этой предвзятости, если только специально не внести коррективы. Аналогично, ИИ, используемый в работе HR, обученный на данных с предвзятостью против женщин, будет воспроизводить эту предвзятость при оценке сотрудников и т.д.

Проблема усложняется тем, что есть почти бесконечное количество переменных, и они взаимосвязаны. Например, можно научить ИИ не обращать внимания на цвет кожи или гендер. Но множество других переменных, которые мы не учли, могут косвенно указывать на этот же статус. В США это может быть почтовый индекс (ZIP-код), так как разные районы имеют разный расовый состав. Предположим, мы отучили ИИ смотреть на цвет кожи – но он научился использовать ZIP-код для получения тех же предвзятых выводов. Или же предвзятость может быть связана с десятком других неучтенных переменных, о которых мы даже не задумывались.
Поэтому, хотя за последние годы специалисты разработали множество инструментов для балансировки алгоритмов, проблема остаётся. Принципиально она, наверняка, решаема, но это один из фундаментальных аргументов в пользу того, почему важно оставлять последнее слово за человеком. Рекомендации ИИ должны проходить проверку живым человеком, который берет на себя ответственность. Нельзя осудить человека или отказать ему в кредите только потому, что так рекомендовал ИИ.

Приватность. Сам феномен приватности и конфиденциальности довольно новый. Можно представить будущее без этих категорий. В этике стоит не забывать задаваться вопросом, является ли то, что мы считаем нормативным сегодня, обязательно таковым? Может, это просто наша культурная условность. Но если мы все же считаем приватность ценной, то ИИ угрожает ей. Как минимум, через почти бесконечные возможности распознавания нас, нашего поведения, внутреннего мира по нашим цифровым следам.

Чем это отличается от уже существующего «капитализма наблюдения» (surveillance capitalism)? Тем, что ИИ способен к гиперперсонализации. Это не просто механическое сканирование данных для настройки точной рекламы, но утонченная колонизация нашего внутреннего мира. ИИ способен создавать контент, адаптированный не под сегмент аудитории, а конкретно под нас. Происходит всё более тонкое нарушение конфиденциальности – не просто тайны переписки, а тайны нашего сознания. Как защищаться? Единственный реалистичный выход – использовать другой ИИ.

Копирайт и трансформация авторства. Копирайт и категория авторства – это не очевидная данность, а концепции, которые развивались, менялись и будут меняться. Но я нахожу важным сказать про два момента. Первый: кто получает конечную пользу? Наиболее обоснованная критика обучения ИИ на данных без разрешения авторов состоит не в самом факте обучения (у меня нет особого пиетета перед копирайтом), а в том, что выгодополучателем оказывается конкретная частная корпорация. Решение, на мой взгляд состоит не в запрете обучения на общедоступных данных, а в разработке механизмов справедливого распределения результатов деятельности ИИ.

И здесь мы переходим от этических категорий к политэкономии и социологии ИИ: вопросам справедливости, неравенства, распределение власти в обществе.

Давайте затронем еще несколько тем:

  1. Технологическая безработица
  2. Распределение результатов работы ИИ
  3. Автономные системы

Технологическая безработица. ИИ эффективно автоматизирует огромную часть работы уже сегодня и может автоматизировать десятки процентов рабочих мест в ближайшие годы. Что останется людям и как они будут зарабатывать на жизнь?

Ответ не должен быть простой экстраполяцией прошлого опыта или текущих тенденций. Он потребует социологического воображения и избегания того, что социальный теоретик Роберто Мангабейра Унгер называл «ложной необходимостью» (false necessity), приписывания незыблемости идеям (например, идее того, что доход связан с проделанной работой), которые на самом деле опциональны.

Большинство обсуждений технологической безработицы пока достаточно бесплодны, потому что упираются в границы нашего воображения. Если признать, что массовая безработица всё-таки будет, то самое популярное предлагаемое решение – универсальный базовый доход (universal basic income). Если ИИ действительно автоматизирует работу, у нас будет достаточно благ и финансов, чтобы обеспечить всех необходимым денежным содержанием. Идея не нова, она озвучивалась еще в XX веке, когда уже предрекали автоматизацию. Тогда это привело не к безработице, а к переходу из сектора производства в сектор услуг. В каком-то смысле мы уже живем в мире технологической безработицы, просто мы не являемся безработными в классическом смысле.

Многие специалисты прогнозируют, что даже если нынешние рабочие места будут автоматизированы, человечество (само или с помощью ИИ) придумает множество новых. Массовая занятость сохранится, но в других формах. Возможно, мы все станем кем-то вроде терапевтов и коучей, будем заниматься деятельностью, ценность которой будет заключаться в создаваемых отношениях.

Особенность обсуждений, особенно в англоязычных кругах, американскими экономистами, консультантами, редко когда ставится под вопрос сама капиталистическая система. Редко кто задаётся вопросом: с какой стати частная корпорация должна владеть технологией, способной контролировать будущее человечества? Почему бы не национализировать или не социализировать подобную технологию? Это во многом проблема воображения. Поэтому то, что публикуют, например, китайские специалисты, иногда может быть даже интереснее – да, они пишут в рамках, допускаемых Компартией Китая, но эти рамки могут быть интереснее, чем рамки, диктуемые Nasdaq.

Распределение результатов работы ИИ. В базовых сценариях, ИИ приведёт к увеличение дисперсии. Да, ВВП будет расти. Недавний прогноз уважаемой аналитической компании Epoch AI прогнозирует рост ВВП на 30% в год через несколько лет (что звучит безумно – это удвоение экономики за 2,5 года). Но даже при более консервативных прогнозах рост будет беспрецедентным. И неравным. Дисперсия может увеличиться почти до бесконечности. Люди в наименее развитых странах без доступа к электричеству могут остаться вне этого роста. Те, кто контролирует ИИ, могут стать в триллионы раз богаче и могущественнее всех остальных. Ключевая задача для общества и государства – понять, как регулировать эти компании и саму технологию, и добиться более равного распределения результатов.

Автономные системы. Это группа вопросов касается и физических систем (машины с автопилотом, роботы), и систем, действующих в виртуальном пространстве (подумайте об ИИ-агентах, заключающих сделки на бирже). Возможно, это наиболее интересная группа вопросов в чисто академическом смысле, потому что речь идёт о проблемах, которых раньше не существовало.

Прежде всегда было понятно: есть человек-агент, а инструмент – это то, чем человек управляет. Если что-то совершается инструментом, ответственным является человек. В случае автономных систем ситуация размыта. Кто отвечает за автономный автомобиль, пусть даже с нами внутри? Пассажир? Производитель? Разработчик? И какой именно разработчик, если ПО будет разрабатываться другим ИИ?

До 2020-х мы не сталкивались с подобными проблемами и это совершенно неизведанная территория. Если в других вопросах, как безработица и приватность, у нас были какие-то референсы, аналогии из прошлого, то здесь нам может помочь только научная фантастика или мифология (Голем, Франкенштейн, Солярис).

Кстати, стоит помнить и о возможности автономных организаций, которые могут получить новый импульс от ИИ. Потенциально возможно возникновение полностью функционирующих юридических лица без единого человека, но обладающих правоспособностью (среди эффективных альтруистов и рационалистов популярны подобные сценарии, в которых ИИ сбегает от своих создателей, регистрирует юрлицо, зарабатывает деньги, покупает сервера, масштабируется и захватывает мир).

Помните, что решения, которые мы примем сейчас, с большой вероятностью определят новую норму надолго. Возможно, что разные эпохи имеют разную «плотность» или «гибкость». Есть времена, когда многое можно изменить, а есть такие, когда изменения почти невозможны. Уильям Макаскилл приводит красивые аргументы в пользу того, что после взлета ИИ мы можем попасть на плато: ценности и мировоззрения, которые победят в ближайшие годы, могут определить не только XXI век, но и все дальнейшее развитие человечества.

Конечно, выше мы коснулись лишь нескольких тем этики ИИ, чтобы немного почувствовать эту область, есть множество других вопросов, например:

  • ИИ и правовая система: Как ИИ изменит ей? Как использовать ИИ в юриспруденции при высоком регуляторном пороге? Разрыв между технологической возможностью и юридической допустимостью может быть основным сдерживающим фактором. Мощные ИИ-модели могут быть доступны только элитным юрфирмам, т.к. частным лицам нельзя будет самостоятельно обращаться к ним за заключением.
  • Медицина: Недавнее исследование показало, что ИИ-модели ставили диагнозы точнее врачей-людей. Когда станет неэтично посылать человека к врачу-человеку, а медицинская этика потребует направлять пациента за диагнозом и лечением к ИИ?
  • Человеческие отношения: Одна из самых быстрорастущих категорий ИИ-приложений – боты-компаньоны и секс-боты. Как ИИ может колонизировать не только рабочие процессы, но и самые интимные части нас самих – наш внутренний мир и интимные предпочтения? Как это скажется на обществе? Здесь много плюсов, минусов и вопросов о том, где провести черту и как научиться этим управлять – и на персональном уровне, и на уровне всего общества. Способность найти баланс между ИИ-помощником и ИИ-хозяином – ключевой навык на ближайшие годы.

Геополитика ИИ

Давайте в завершении немного скажем про глобальную политику. Пока, к сожалению, есть только два серьезных игрока в индустрии – США и Китай. Прогнозы о шансах Китая обогнать США разнятся, но навскидку, вероятность победы США – 80%, Китая – 19%, всех остальных – 1%. «Все остальные» – это прежде всего ЕС (особенно Франция), так как Великобритания, скорее всего, будет в коалиции с США.

Уравнение выглядит так: Алгоритмы + Вычисления + Данные (+ Исследователи).

  • Данные: Китай и США примерно на одном уровне. У Китая есть эксклюзивные внутренние данные (почти 1.5 млрд населения), плюс Китай может более гибко подходить к приватности (американские компании используют это же как аргумент против регулирования: «Если нам запретят, Китай все равно будет использовать все доступные ему данные, а мы проиграем»).
  • Вычисления: Здесь сильно лидируют США и, похоже, они будут лидировать дальше. Хотя Китай прилагает невероятные усилия, чтобы сократить разрыв.
  • Алгоритмы: До конца 2023 года консенсусом было, что американские компании сильно опережают Китай. После недавних релизов от DeepSeek уверенность пошатнулась, но в целом, похоже, американцы опережают китайских исследователей на шесть или больше месяцев.
  • Исследователи: США привлекают таланты со всего мира, но Китай также имеет огромный пул своих специалистов, возвращает уехавших и всё активнее ищёт специалистов на глобальном рынке.
Как таковая, эта ситуация печальная: большая часть человечества – статисты. Судьба человечества вершится на глазах, и участвуют в этом несколько тысяч человек во всем мире (несколько сотен принимающих решения, несколько тысяч ведущих исследователей и инженеров). Можно ли с этим что-то сделать? Возможно. Но возможно, что ни США, ни Китай, ни исследователи полностью не контролируют технологию, она живет своей жизнью и развивается по своей логике. У человечества есть, в лучшем случае, право вето и шанс сделать несколько ключевых выборов, причём ошибка может привести к фатальным последствиям.

Что всё это значит?

Сама возможность существования ИИ – это настоящее чудо. Есть, ставший расхожим, образ: взять горсть песка, пропустить сквозь него особым образом электричество и получить штуку, способную вобрать в себя все знания мира и вести себя как невероятно умное существо. То, что это оказалось возможно, это нечто сродни «тонкой настройке» Вселенной, чуду существования сложной материи, жизни и сознания.

При всех этических, социальных, политических издержках и дилеммах, с которыми мы сталкиваемся, базовой энергией, вайбом, должно быть ощущение неподдельного интереса и воодушевления. Будто мы наткнулись на новую сферу реальности или встретились с инопланетянами. И теперь нужно учиться жить и взаимодействовать с ними.

Это, наверное, самое важное, что случается при нашей жизни. И в отличие от других возникающих технологий (квантовые компьютеры, биотех, космические полёты), ИИ – это то, что мы можем использовать в моменте. Неизвестно, полетим ли мы на Марс, получим ли бессмертие, будет ли достигнут холодный синтез. Но ИИ доступен всем нам уже сейчас. Мы имеем доступ к тем же моделям, что Илон Маск или Сергей Брин. Технология распространилась до миллиарда пользователей в месяц всего за пару лет, эта скорость изменений ещё одно чудо. И это меня очень воодушевляет.
~