Топ-менеджеры ИТ-компаний, давшие пояснения Конгрессу США по проблемам искусственного интеллекта (слева направо): технический директор Microsoft Кевин Скотт, генеральный директор OpenAI Сэм Альтман, генеральный директор Google DeepMind Демис Хассабис
АПОКАЛИПСИС ИСКУССТВЕННОГО ИНТЕЛЛЕКТА? Он уже рядом!
«НДГ» открывает серию публикаций, связанных с разгорающимися спорами вокруг внедрения искусственного интеллекта (ИИ) в экономику и все связанные с ней сферы жизни общества.
Если кто не в курсе: в глобальных медиа уже вовсю идет кампания, призванная обратить внимание на связанные с ИИ риски и опасности. «НДГ» разбирается, что не так с ИИ и почему на него ополчились даже те, кто профессионально занимается его разработкой, и представляет читателям публикациюCNN Business на эту тему.
Спойлер: представители ИТ-компаний, работающих с ИИ, предостерегают против риска вымирания человечества в результате применения ИИ. Американские конгрессмены и представители академической науки, правда, не верят айтишникам. Они считают, что более вероятные и актуальные риски использования ИИ – массовая дезинформация, срыв либо фальсификация выборов, сокращение количества рабочих мест и т.п. А что пугает вас? Читайте и разбирайтесь
Через две недели после того, как члены Конгресса США допросили генерального директора OpenAI Сэма Альтмана о способности инструментов ИИ распространять дезинформацию, срывать выборы и сокращать рабочие места, он и другие представители отрасли сигнализировали о гораздо более пугающей перспективе – апокалипсисе ИИ.
Альтман, чья компания стоит за вирусным чат-ботом ChatGPT, присоединился к генеральному директору Google DeepMindДемису Хассабису, техническому директору Microsoft Кевину Скотту и десяткам других исследователей ИИ и бизнес-лидеров, подписав в прошлом месяце коллективное письмо-обращение из одного предложения, в котором говорится: «Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба – такими, как пандемии и ядерная война».
Это предупреждение широко освещалось в прессе, и некоторые наблюдатели предполагали, что оно просто демонстрирует необходимость более серьезно относиться к подобным апокалиптическим сценариям.
Однако оно также подчеркивает важную тенденцию, господствующую в Силиконовой долине: высшие руководители некоторых крупнейших технологических компаний убеждают общественность, что ИИ потенциально может привести к вымиранию человечества, одновременно стремясь инвестировать в эту технологию и внедрять ее в продукты, доступные миллиардам людей.
Подобные тенденции проявились и в других отраслях. Например, генеральный директор Tesla Илон Маск заявил в телевизионном интервью в апреле, что ИИ может привести к гибели цивилизации.
Тем не менее, он по-прежнему глубоко вовлечен в эти технологии, инвестируя в свою разросшуюся бизнес-империю, и заявляет о желании создать конкурента предложениям Microsoft и Google в области ИИ.
Некоторые эксперты ИИ-индустрии говорят, что сосредоточение внимания общества на отдаленных сценариях способно отвлечь от более актуального непосредственного вреда, который новое поколение мощных ИИ-инструментов может нанести людям и сообществам – включая распространение дезинформации, увековечение предубеждений и допуск дискриминации в различных сервисах.
По словам Гэри Маркуса (на фото), исследователя ИИ и почетного профессора Нью-Йоркского университета, в прошлом месяце выступившего на слушаниях в Конгрессе США вместе с Альтманом, мотивы всех этих заявлений неоднозначны. Некоторые руководители, вероятно, искренне обеспокоены рисками, которым они открывают дорогу, интенсифицируя работы в области ИИ, однако другие, возможно, просто пытаются сосредоточить внимание на абстрактных опасностях, чтобы отвлечь от более насущных угроз.
Представители Google и OpenAI не сразу ответили на запрос CNN о комментариях. В своем заявлении представитель Microsoft сообщил: «Мы с оптимизмом смотрим в будущее ИИ и думаем, что достижения в этой области решат гораздо больше проблем, чем создадут, но мы также последовательны в нашем убеждении, что при создании технологий, способных изменить мир, вы должны обеспечить их ответственное использование».
Насущные проблемы или научная фантастика?
По мнению Гэри Маркуса, исследователя и критика шумихи вокруг ИИ, самая большая непосредственная угроза со стороны ИИ для общества – угроза демократии из-за массового производства убедительной дезинформации.
Генеративные инструменты искусственного интеллекта – такие как ChatGPT от OpenAI и Dall-E, – обучаются на огромных объемах данных, размещенных в интернете, чтобы создавать убедительные тексты и изображения по запросу пользователя. С помощью этих инструментов, например, можно быстро имитировать стиль тех или иных общественных деятелей, чтобы развернуть кампанию по дезинформации.
В своих показаниях перед Конгрессом США Альтман утверждал, что потенциал использования ИИ для манипулирования избирателями и целенаправленной дезинформации вызывает у него наибольшую озабоченность.
Однако даже в более заурядных случаях применения ИИ возникают опасения. Ровно те же ИИ-инструменты использовались для того, чтобы предложить неправильные ответы на запросы пользователей, сгенерировать откровенные галлюцинации, потенциально увековечить расовые и гендерные предубеждения.
Эмили Бендер, профессор Вашингтонского университета и директор его лаборатории компьютерной лингвистики, заявила CNN, что некоторые компании, возможно, хотят отвлечь внимание от предвзятости, заложенной в их исходные данные, а также от подробностей обучения их систем ИИ.
Бендер сослалась на проблемы с интеллектуальной собственностью, связанные с данными, на которых обучаются ИИ-системы, а также на утверждения о том, что компании передают обработку наиболее проблематичных данных обучения на аутсорсинг низкооплачиваемым работникам за границей.
«Если общественность и регулирующие органы сосредоточатся на всех этих воображаемых сценариях научной фантастики, а не на реальных проблемах, то, возможно, компаниям-разработчикам удастся как можно дольше избегать кражи данных и их практической эксплуатации», – заявила Бендер CNN.
Влияние на регуляторы
Именно госрегуляторы вполне могут оказаться реальной целевой аудиторией многочисленных сообщений технологической индустрии про ИИ-апокалипсис. По словам Бендера, руководители ИТ-отрасли, по сути, говорят: «Ой, это очень, очень опасно, и мы единственные, кто понимает, как это обуздать».
Судя по выступлению Альтмана перед Конгрессом, эта стратегия может сработать. Альтман, похоже, завоевал расположение чиновников из Вашингтона, повторив опасения законодателей по поводу ИИ – технологии, которую многие конгрессмены все еще только пытаются постигнуть, – и выдвинув предложения по устранению этих опасений.
Такой подход к регулированию был бы чрезвычайно проблематичным, считает Бендер. Он может обеспечить отрасли влияние на регулирующие органы, которым поручено привлекать ИТ-индустрию к ответственности. Кроме того, этот подход к регуляции способен оставить без внимания мнения других людей и сообществ, испытывающих негативное воздействие технологии ИИ: «Если регулирующие органы будут ориентироваться на людей, создающих и продающих технологии ИИ, как на единственных, кто может это понять и, следовательно, объяснить, как должно работать регулирование, мы действительно попадем в ловушку».
Бендер, по её собственному признанию, пытается при каждой возможности рассказать людям, что «эти вещи (связанные с ИИ. – «НДГ».) кажутся намного умнее, чем на самом деле… Это потому, что мы такие умные, и способ, которым мы передаем смысл с помощью языка (включая ответы ИИ), на самом деле заключается в способности разума, стоящего за этим, к воображению».
В конечном счете, Эмили Бендер советует задать лидерам технологической индустрии в области ИИ простой вопрос: «Если вы искренне верите, что это может привести к вымиранию человечества, то почему бы просто не остановиться?»