Автор этой книги Гаспар Кёниг — известный французский философ, публицист и политик, защитник классического либерализма: учения о свободе и его практической реализации. И его книга во многом посвящена защите классического либерализма от угроз, которые несет ему искусственный интеллект, по крайней мере в тех формах, в которых он, по мнению Кёнига, развивается сейчас, в первую очередь в США и в Китае. В формах, подавляющих свободу воли человека, которая лежит в основе либерального общества.
Ключевое понятие, объясняющее понимание Кёнигом вреда и угроз, которые исходят от искусственного интеллекта, и определяющее его отношение к нему, — nudge, которое он переводит как «подталкивание локтем», Хотя, скорее, в контексте отношения Кёнига к ИИ его следовало бы перевести как «навязывание чужой воли» человеку правительствами и частными компаниями с помощью ИИ под благовидным предлогом решения проблем человека. Тем самым они лишают человека главной ценности свободной жизни — свободы воли.
Чтобы объяснить себе самому и нам, его читателям, чего нам ждать от политики nudge, Кёниг объезжает, можно сказать, весь свет, развивающий ИИ: Европу, Китай, США, Израиль — и обсуждает эти проблемы со 125 представителями самых разных областей науки, среди которых математики, физики, биологи, нейробиологи, медики, специалисты в сфере искусственного интеллекта и предприниматели.
В частности, в Израиле он встречается с одним из самых известных современных философов и адептов политики nudge Ювалем Харари. Как объясняет Кёниг, Харари считает, что искусственный интеллект знает нас лучше, чем мы сами, и, поскольку свободы воли на самом деле вообще не существует, лучше передоверить ему решения, касающиеся нашей жизни. В то время как сам Кёниг, напротив, полагает, что ИИ в его нынешней реализации мешает нам стать самими собой и сформировать в себе свободного волителя, то есть человека, способного свободно и ответственно, без подталкивания, принимать самостоятельные решения.
Если Харари, как отмечает Кёниг, кичится тем, что он отказывается от индивида и уничтожает «я», то Кёниг предлагает «заново утвердить уникальную сущность, каковой мы являемся, или, по крайней мере, дать ей возможность появиться на свет. Если не ради нас самих, то хотя бы ради прогресса нашего биологического вида».
Для понимания сути своих разногласий с Харари Кёниг приводит два примера использования ИИ. Первый, как замечает Кёниг, анекдотический, но важный для понимания влияния ИИ на человека и даже общество — это отношения водителя с Google Maps, подсказывающими водителю оптимальный путь, или, точнее сказать в контексте нашего обсуждения, подталкивающего его на этот путь. «Вы можете принять nudge и позволить вести вас, даже не понимая, где идете, и рискуя тем, что некоторые зоны вашего мозга могут атрофироваться (как считают многие нейробиологи, с которыми беседовал Кёниг. — “Стимул”): количество полезности в мире от вашего послушания возрастет (польза советов ИИ — важнейший довод его сторонников — “Стимул”). Вы также можете решить свернуть наобум, психанув из-за пробок. Скорее всего, вы окажетесь в еще худшей пробке — и чего вы этим добились, кроме иллюзии свободы воли? Наконец, вы можете предпочесть стать свободным волителем, попытавшись переиграть Google Maps… или составив подходящий маршрут при помощи критериев, внеположных алгоритму Google Maps». «Эти критерии, — замечает Кёниг, — будут отражать личные предпочтения, накопленные в течение некоторого времени: например, если вас зовут Ван Гог, то вы любите ездить вдоль полей подсолнухов… Но ИИ прежде всего помешает вам сформировать эту страсть к полям подсолнухов — она окажется столь редкой, что исчезнет из статистических моделей. Вот и весь Ван Гог…»
Кёниг объезжает, можно сказать, весь свет, развивающий ИИ: Европу, Китай, США, Израиль — и обсуждает эти проблемы со 125 специалистами из самых разных областей науки и экономики
Такие же рассуждения, замечает Кёниг, применимы к другой, действительно важной области человеческого существования — любви. Кёниг напоминает своим читателям эпизод из одного французского сериала, в котором ИИ при помощи симуляций перебирает все возможные варианты любовных отношений, чтобы свести пользователя с лучшим, на взгляд ИИ, из возможных партнеров. И Кёниг замечает, что «в мире nudge мы будем блаженно ложиться в постель с родственной душой без каких бы то ни было ухаживаний и соблазнений… Что сделает свободный волитель? Он захочет сам пройти через все этапы, которые так любезно моделирует ИИ. Свободный волитель знает, что процесс важнее результата. Томиться, разрывать отношения, возвращаться… Соблазнять, плакать, играть. Любить не набор данных, а человека из плоти и крови. Не из романтизма, но для того, чтобы построить свои собственные отношения, плод тысяч размышлений и эмоций, постепенно вписывающихся в наши траектории принятия решений».
Но главное для Кёнига, что «контролируя наше поведение и руководя самыми тайными нашими помыслами, ИИ сможет подорвать либеральное основание наших обществ, разрушив само понятие индивидуальности». А как заявляет Кёниг, «я либерал и защищаю идею автономного индивида, свободного в своих решениях и ответственного за свои действия, то есть такого индивида, который должен применять свободу воли в той или иной ее форме».
Но особенно пугает Кёнига «умный город», в котором ИИ получит право повсеместно диктовать нам правила поведения. Например, полиция Лос-Анджелеса уже «стала применять принцип “предиктивных полицейских действий”, опираясь на прогностические алгоритмы, чтобы превентивно отправлять наряд в те места, где вероятно совершение преступления». Напомним нашему читателю случай в России с ученым, которого ИИ опознал как убийцу, а полиция и суд признали его вину, и ученый просидел десять месяцев в тюрьме, пока его наконец его не оправдали.
Возможно, кто-то будет защищать такие методы полиции, оправдывая их пользой — уменьшением преступности. Но «представьте общество, в котором преступление стало невозможным, — восклицает Кёниг. — Чем оно будет — пацифистской утопией или же тоталитарным кошмаром… когда полиция может арестовать вас на основании ваших предположительных намерений?» И Кёниг обращается к авторитету выдающегося философа Мишеля Фуко, который настаивал на важности «“нелегальности”, серой зоны между правом и не-правом, в которой сегодняшние девианты формируют завтрашние правила». Как замечет Кёниг, если не будет нелегальности, не лишится ли сама легальность своего смысла?».
По мнению Кёнига, «автоматизация соблюдения права рискует превратить субъекта права в покорный объект». А подчинение человека машине хуже любого человеческого произвола, ведь с машиной в принципе невозможно спорить, в том числе потому, что, как признают все специалисты по ИИ, он не может объяснить логики своих решений.
Итак, для Кёнига главная угроза каждому конкретному человеку и всему человечеству, исходящая от искусственного интеллекта, — это угроза свободе воли.
И как отмечает Кёниг, это совсем не те угрозы, которые широко обсуждаются сейчас общественностью (например, тем же Илоном Маском) и в СМИ.
Одна из тем, которую широко обсуждает общественность, — это «конец работы», когда искусственный интеллект заменит человека практически во всех областях человеческой деятельности. Однако, как замечает Кёниг, угроза автоматизации, то есть замены человека ИИ в каждой конкретной работе, является тем более далекой, чем больше эта работа будет требовать гибкости, суждения и здравого смысла. Например, официант выполняет работу, во многом состоящую из повторяющихся операций (он работает в одни и те же часы, в одном месте, принимает одни и те же заказы). Однако в ней постоянно задействуется здравый смысл: ему нужно импровизировать и выносить бесчисленное множество суждений, для которых требуется едва ли не весь объем человеческого опыта, начиная со способности залезть в голову клиента и заканчивая оценкой настроения шеф-повара. И наоборот: бухгалтер должен упорядочивать цифры в соответствии со строгими инструкциями, абстрагируясь от собственных чувств, и робот, возможно, справится с этой задачей лучше.
«ИИ способен избежать тысячи человеческих ошибок, но при этом может совершать ошибки, немыслимые для человека… Как только ситуация отклоняется от нормы и требует применения трансверсального суждения, ИИ теряется»
Вообще, для Кёнига именно наличие здравого смысла и чувства юмора — важнейшие качества человека, которые отличают его от ИИ: «ИИ способен избежать тысячи человеческих ошибок, но при этом может совершать ошибки, немыслимые для человека… Как только ситуация отклоняется от нормы и требует применения трансверсального суждения, ИИ теряется».
Все устройства ИИ при выработке решений, например при постановке медицинского диагноза, опираются на результаты колоссального интеллектуального труда многих людей. Без этого сырья, без данных, собранных или проверенных реальными людьми (часто теми, как отмечает Кёниг, чей труд плохо оплачивается), «нет “топлива” для этой машины»! То есть проблема в этом случае, как считает Кёниг, заключается не в «конце работы», а в том, как заставить создателей ИИ выплачивать авторские гонорары людям, которые создают данные, используемые ИИ. И что будет, если эти люди, те же врачи, откажутся подбрасывать «топливо» для работы ИИ?
Собственно говоря, у искусственного интеллекта появляются такие возможности, а у его создателей — амбиции претендовать на повсеместную замену человека и на активное и агрессивное проведение политики nudge благодаря нашей с вами готовности подбрасывать это «топливо» для ИИ. Источник этих возможностей не просто данные, а «озера данных», которыми мы все делимся с социальными сетями и вообще с интернетом, как назвал их Цзинли Чэн, основатель китайского инвестиционного фонда, специализирующегося на ИИ. «Это место, — как сказал Чэн, — к которому стекаются реки из бесконечного числа источников в промышленности, правительстве или на платформах. “Озеро данных” — основной естественный ресурс, который обеспечивает питание алгоритмов, благосостояние граждан и коммуникацию разных секторов общества». Как замечает Кёниг, «машина не способна произвести идею, под которую подводятся частные случаи, поэтому нуждается в бесконечном числе примеров, словно ей необходимо исчерпать все возможные ситуации». И Кёниг напоминает, что «для развития техник машинного обучения (которые лежат в основе ИИ и, фактическим им являются. — “Стимул”) понадобились огромные базы данных, отсюда создание ImageNet в начале 2010-х годов по инициативе исследовательницы из Стэнфорда Фэй-Фэй Ли, которая привлекла к этому проекту десятки тысяч участников. Они описывали миллионы изображений, распределяемых по 20 тысячам разных категорий. Так у ИИ появился свой арсенал».
Подчинение человека машине хуже любого человеческого произвола, ведь с машиной в принципе невозможно спорить, в том числе потому, что, как признают все специалисты по ИИ, он не может объяснить логики своих решений
Но Кёниг отмечает чрезвычайно низкий эффект от использования этих «озер данных: «Ели наш невероятно ловкий разум способен распознать любых котов, увидев одного-единственного, то ИИ, отличающийся чрезвычайным трудолюбием, может распознать кота, лишь просмотрев изображения всех котов». Сторонники ИИ считают, что чем больше информации мы поставляем платформам, тем больше nudge получаем взамен, а чем больше нас “подталкивают”, тем большего благосостояния мы достигаем. Но, спрашивает Кёниг, стоит ли это благосостояние потери свободы, которую ИИ приносит? И задается очередным вопросом: «Что станет с безумцами, гениями, бродягами, небесными странниками, всеми теми, кто был солью человечества? Затянет ли их в орбиту “полезности”. Или они будут противиться?»
Но дело не только в том, что нашими данными стали распоряжаться различные модификации ИИ, как пишет Кёниг, «под прикрытием “социальной ответственности бизнеса”, крайне модного сегодня понятия, — государство попросило тех, кто управляет нашими данными, фактически заменить собой закон. Когда Facebook (запрещен в России) применяет свои собственные критерии определения приемлемого контента, он становится главным регулятором свободы слова, попирая тем самым американскую Первую поправку или французский закон 1881 года. Выброшены на свалку столетия юриспруденции, когда юристы пытались определить тонкую границу между защитой и цензурой. То, что еще сохранялось от мифа об общей воле, единственном легитимном законодателе, распылено по строкам кода, создающегося безо всякой огласки». Фактически отныне алгоритмы и социальная ответственность определяют границы нашей свободы».
В своих путешествиях по миру Кёниг, как он признается, неожиданно для себя обнаружил, что «ИИ в Китае стал проектом всего общества в целом». А чтобы понять китайскую страсть к ИИ, Кёниг решил встретиться с Кай-Фу Ли, которого Кёниг называет ни много ни мало Богом и у которого 50 миллионов подписчиков на Weibo (китайском аналоге Твиттера). Основатель компании Sinovation Ventures, основного китайского фонда венчурного капитала, активно выступающего в защиту ИИ, Кай-Фу открывает перед Кёнигом потрясшую его картину китайского технического прогресса на основе ИИ одновременно с пренебрежением личной жизнью. Прогресса, которого Кёниг не может принять. Как сказал ему Кай-Фу, «ИИ позволит китайскому народу лучше лечиться, учиться, передвигаться и просвещаться. А сам этот народ будет рад поделиться всеми своими данными — природным ресурсом цифровой экономики: частной жизнью здесь практически никто не обеспокоен. Например, в Китае никто не возмутится видеокамерам в школьных классах, если они помогут усовершенствовать техники обучения, раскрыв корреляции между поведением учеников, успеваемостью и методами преподавателя…»
Более того, Кай-Фу Ли мечтает о будущем супермаркете, в котором клиент будет сразу же идентифицирован и ему будут предлагать товары в зависимости от его пищевых привычек, состояния его холодильника и планов на неделю. А перед многими пешеходными переходами в крупных китайских городах уже, как рассказывает Кёниг, стоят большие экраны, выявляющие нехороших граждан, переходящих улицу в неположенном месте: на этих экранах выводятся фамилии и фотографии нарушителей, чтобы они устыдились.
Как пишет Кёниг, «западного человека все это может ужасать, что признаёт и сам Кай-Фу Ли, однако китайца это воодушевляет».
И Кёниг замечает, что «на Западе я смог закрыть аккаунт в известной соцсети и продолжать жить совершенно нормальной жизнью. В Китае отказаться от WeChat — значит обречь себя на профессиональную, социальную и эмоциональную смерть». И это может стать будущим всего человечества.
Потому что, как считает Кёниг, условие развития технологий ИИ очевидно: это отказ от неприкосновенности личной жизни.
Чтобы понять, как в США сочетается развитие ИИ с защитой частной жизни и свободы воли, Кёниг встречается с Джейкобом Узкорейтом, известным специалистом по компьютерным наукам, который объясняет Кёнигу, что «алгоритмы Google подвергают данные, оставляемые в сети пользователем, глубокой обработке, чтобы попытаться лучше понять сокровенные желания человека, выходящие далеко за пределы его явных предпочтений». «Когда, — объясняет Узкорейт — я ввожу запрос “купить машину”, возможно, мне хочется увидеть “Ягуар”, однако Google, зная состояние моего кошелька, поскольку ему известна моя история поисков (или моя переписка в Gmail), скорее всего, предложит “Рено Твинго”, чтобы такой поисковый результат был мне полезен». Все это, поясняет Кёниг, вполне соответствует логике nudge, которая должна обеспечивать наше благосостояние, предлагая нам такой вариант, который мы сами бы не определили, и он задает Узкорейту вопрос: а что он думает о свободе воли? «Люди редко понимают сами себя», — логично объясняет Джейкоб, поэтому лучше довериться объективным данным, а не субъективному суждению. Но нет ли он в самом устройстве поисковой машины утилитаристской логики? — спрашивает Кёниг. «Конечно, вне всяких сомнений, — отвечает Джейкоб, — потому что перед Google стоит задача познать меня лучше, чем я знаю себя сам, чтобы удовлетворить всех нас.
Во избежание манипуляций этими данными теми же социальными сетями необходимо, считает Кениг, превратить наши данные в имущество, на пользование которым мы будем заключать договор
И тогда Кёниг задает очередной вопрос: «Нет ли внутреннего противоречия между защитой частной жизни и технологиями Google (даже если не говорить о его экономической модели)?». И Джейкоб соглашается: «Это парадокс. Для усовершенствования ИИ нужно собирать как можно больше данных. Чтобы оптимизировать мои поиски в Google, в идеале следовало бы знать мое потребление электричества или, к примеру, мое поведение на сайтах знакомств… Можно создавать сколько угодно комитетов по этике, но этот парадокс так и не получит разрешения». Глядя на слегка смущенного Джейкоба, Кёниг признается, что наконец-то понял, в чем состоит противоречие, присущее американской цифровой экосистеме в целом: больше данных — выше эффективность, меньше данных — больше свободы, и никакой золотой середины тут быть не может.
По мнению Кёнига, Google сегодня не может быть одновременно эффективным и добродетельным: чтобы служить человеку, он должен его обнажить. ИИ заставляет отделить дух капитализма от протестантской этики». И Кёниг приходит к печальному выводу: ИИ вытолкнул протестантский капитализм из эпохи невинности и все американское общество в связи с этим испытывает серьезный дискомфорт.
Он ищет ответ на вопрос: «Какая разница между Google и Коммунистической партией Китая, если они используют одни и те же техники nudge, преследуя одни и те же утилитаристские цели?» И не находит разницы.
Кёниг вспоминает так называемую The Prime Directive, Первую директиву из известного сериала «Звездный путь», которую Кёниг определяет как «высшее правило морального порядка, ограничивающее использование технологий». А применительно к ситуации, сложившейся с ИИ, Первая директива, по мнению Кёнига, должна звучать так: каждый должен иметь возможность «применить свою моральную прерогативу, заранее определив приемлемый для себя nudge, сознательно и добровольно». Так, считает Кёниг, каждый сможет вернуть себе «способность к самостоятельному принятию решений, восстановить в себе свободного волителя». А чтобы каждый мог воспользоваться оптимизацией предпочтений при помощи ИИ, «можно будет поместить свой выбор в глубины кода, как в подсознание, даже если время от времени придется к нему возвращаться. Каждый станет “понукателем” своих “понуканий”, а машине можно будет делегировать свои повседневные решения, но не процесс, который к ним привел…»
Тогда, считает Кёниг, «тотчас же исчезнет большая часть этических вопросов, встающих в связи с ИИ, которые казались неразрешимыми: дело в том, что они воспринимались как всеобщие, а их следует ставить перед каждым конкретным индивидом» Эти фундаментальные параметры, прописанные ясно и добровольно, не смогут модифицироваться в процессе машинного обучения, даже если создают неоптимальные ситуации для самого человека или для всей группы».
А идеал Первой директивы, по Кёнигу, «представляет собой триумф личного выбора над “коллективной полезностью”, индивидуальной ответственности — над биохимическим фатализмом. Это право на заблуждение, которое мы впишем в самое сердце ИИ».
Но чтобы реализовать Первую директиву на практике, каждый должен получить полноценные права на владение личными данными, которые установили бы полный и исчерпывающий контроль индивида над своими данными в интернете, не препятствуя при этом возникновению рынка. Во избежание манипуляций этими данными теми же социальными сетями необходимо, считает Кениг, превратить наши данные в имущество, на пользование которым мы будем заключать договор. Этот договор мог бы предусматривать среди прочего выплату вознаграждения за стоимость, которую мы производим и которую у нас сегодня изымают в обмен на некую расплывчатую бесплатную услугу.
Гаспар Кёниг. Конец индивидуума. Путешествие философа в страну искусственного интеллекта. Москва: Individuum. 2023. 352 c. Тираж 3000 экз.
Темы: Среда