» » » » Кодозависимые. Жизнь в тени искусственного интеллекта - Мадумита Мурджия

Кодозависимые. Жизнь в тени искусственного интеллекта - Мадумита Мурджия

1 ... 70 71 72 73 74 ... 81 ВПЕРЕД
Перейти на страницу:
одним из учредителей и бывших руководителей принадлежащей Alphabet ИИ-компании Google DeepMind Мустафой Сулейманом, а также с начальником отдела этики ИИ в Meta Норберто Андраде. На этих встречах он содействовал обмену идеями о том, что считать «этичным» в разработке и применении зарождающейся технологии.

Кроме того, он консультировал папу и его совет по вопросам потенциальных угроз со стороны ИИ. Хотя он полагает, что ИИ может спровоцировать очередную технологическую революцию, его беспокоит, что эта технология может сделать работников бессильными и лишить людей способности принимать решения. Он считает, что бесконтрольный ИИ может быть несправедлив и опасен для социальной стабильности и общественного блага.

Церковных лидеров особенно тревожит, что ИИ может усугублять неравенство. Они считают, что первая промышленная революция больно ударила по детям и старикам, которых в ходе масштабной перестройки общества либо эксплуатировали, либо оставляли за бортом. Папа и его советники опасаются, что перераспределение богатства и власти после внедрения ИИ может схожим образом навредить самым уязвимым членам общества.

Аудиенция Брэда Смита у папы в 2022 году стала не первой для главы Microsoft. Двумя годами ранее Паоло устроил их первую встречу в рамках междисциплинарного совета по этике искусственного интеллекта. Нащупав общую почву в поддержке нелегальных мигрантов и беженцев, две делегации согласились начать совместную работу над более амбициозной и конкретной задачей: сводом общечеловеческих ценностей, который стал бы руководством для разработчиков искусственного интеллекта. Участие Смита в этом проекте предполагало и участие всей технологической отрасли.

Интерес церкви к ИИ может показаться неожиданным. Но вопрос о том, как контролировать ИИ-программы, настраивая их в соответствии с человеческими ценностями, выходит на первый план в текущих дискуссиях – а вместе с ним встает и вопрос о том, что считать универсальными ценностями человечества. Порождающий ИИ может быстро писать, создавать изображения и код, и продукты его деятельности не отличить от творений человека, но при этом он без всяких сдержек обрушивается на нас, оказывая принципиальное влияние на наши мысли и убеждения. Компьютерные программы используются при найме людей на работу{210}, участвуют в принятии инвестиционных решений, подсказывают людям, как справиться с тревожностью, и диагностируют их болезни. Вопрос о том, какие моральные установки вписываются в программный код, становится сегодня гораздо более важным, чем когда-либо прежде, и религиозные лидеры полагают, что должны иметь мнение по этой теме.

Работа над так называемым согласованием ИИ – обеспечением совместимости ИИ-моделей с человеческими ценностями – теперь ведется во всех ИИ-компаниях, включая Anthropic, Google и OpenAI, которую финансирует Microsoft под руководством Брэда Смита. Эти компании разрабатывают порождающие ИИ-модели, которые функционируют в соответствии со своеобразной «конституцией» – набором обязательных для исполнения этических установок, определяемым внутри компании. Например, специалисты по этике из Google DeepMind, исследовательского подразделения поискового гиганта, которое занимается вопросами ИИ, опубликовали статью, в которой изложили собственный свод правил{211}, обеспечивающих «конструктивный, корректный и безопасный» диалог. Конституция Anthropic{212} основана на принципах DeepMind, а также на таких источниках, как Всеобщая декларация прав человека ООН, условия предоставления услуг компании Apple и так называемые незападные интересы (без конкретизации).

Все компании предупреждают, что работа над их этическими правилами еще ведется, поэтому они пока не в полной мере отражают ценности человечества. На самом деле не существует единой этики, которой придерживались бы все мировые культуры и общества. В Anthropic отмечают: «Разумеется, мы признаем, что мы как разработчики составили этот свод по собственному усмотрению, и надеемся, что в будущем сможем привлекать гораздо больше людей к созданию подобных конституций»{213}.

Но Паоло полагает, что, пока у нас не появилось более демократического и тонкого метода разработки ценностей ИИ, в котором учитывались бы позиции и предубеждения всех культур мира, устанавливать этические границы для этой мощной технологии – и тем самым определять ее влияние на человечество – должны не только специалисты по информатике. Как и многие критики ИИ, он считает это коллективным делом государства и частного сектора: гражданского общества, религиозных институтов, образовательных учреждений, правительственных структур и других многосторонних организаций, а также различных коммерческих компаний, из представителей которых необходимо сформировать разноплановый совет для обсуждения этих вопросов.

В рамках этой инициативы Паоло в 2020 году подготовил соглашение, названное Римским призывом{214}. Оно должно было заложить фундамент «гуманистичной» этической конституции ИИ. В его основу легло стремление защитить человеческое достоинство, поставив его выше любых технологических прорывов. Римский призыв предлагает внедрить в ИИ «алгоэтику» – базовый набор человеческих ценностей, утвержденный различными заинтересованными сторонами из разных стран мира и понимаемый и применяемый самими машинами.

Концепция алгоэтики предполагает, что любые компьютерные программы, помогающие в принятии решений, должны проявлять сомнения и чувствовать неопределенность в вопросах этики. «Каждый раз, когда машина не знает, защищает ли она человеческие ценности, она должна просить [нас] вмешаться», – говорит Паоло. Только тогда технические специалисты смогут создавать программы, которые ставят во главу угла благополучие людей.

Чтобы ИИ-компании признали свою ответственность за эти проблемы – непредвиденные последствия использования ИИ, характерную для ИИ-систем предвзятость, причиняемый пользователям ущерб и опосредованное воздействие ИИ на людей, – необходимо было создать глобальный альянс. Католическая церковь понимала, что не имеет права действовать в одиночку и не располагает необходимыми ресурсами для этого. В результате Паоло начал налаживать контакты с представителями других авраамических религий, прежде всего ислама и иудаизма, чтобы заключить с ними соглашение.

«Они сталкиваются с такими же проблемами, и мы хотим вместе проложить новый путь», – сказал Паоло. Он пошутил, что сложнее всего им оказалось выбрать меню для общей встречи, ведь следовало удовлетворить все религиозные и культурные предпочтения. Но, разумеется, на самом деле все было гораздо серьезнее.

В феврале 2020 года соглашение подписала небольшая, но пестрая группа: компании Microsoft и IBM, правительство Италии и Продовольственная и сельскохозяйственная организация ООН. В 2023 году к ним присоединились представители иудаизма и ислама, которые подписали документ на торжественной церемонии, состоявшейся в Ватикане{215}.

«Насколько я знаю, – сказал Паоло, – никогда прежде эти три монотеистические религии не объединялись и не подписывали никаких совместных деклараций».

* * *

Опасения религиозных лидеров о том, что ИИ усугубляет неравенство, были не лишены оснований. Я много лет пишу о технологиях и заметила, что ИИ сильнее всего вредит маргинализированным и притесняемым группам: мигрантам и беженцам, прекариату, социально-экономическим и расовым меньшинствам и женщинам. На этих же группах несоизмеримо сильнее сказываются технические недостатки ИИ: галлюцинации и негативные стереотипы, которые проникают в тексты и изображения, создаваемые компьютерными программами{216}. И причина этого заключается в том, что указанные группы редко обладают правом голоса в мирах, где создается ИИ.

Именно поэтому я решила

1 ... 70 71 72 73 74 ... 81 ВПЕРЕД
Перейти на страницу:
Комментариев (0)