СЕМИ ПЯДЕЙ ПО ЛБУ. Отчёт «AI100» – дорожная карта к искусственному интеллекту

«Sto lat, sto lat,

Niech żyje, żyje nam,

Jeszcze raz, jeszcze raz».

Польская народная песня

«Ни один компьютер, который когда-либо

был разработан, – не осознает то, что он делает.

Большую часть времени мы также не осознаем это».

Марвин Минский

«Мы должны быть крайне осторожны с искусственным

разумом. Теоретически он может быть

опаснее ядерного оружия».

Илон Маск

16 сентября на сайте Стэнфордского университета (США, Калифорния) был опубликован отчет «AI100» – один из самых важных аналитических отчетов в сфере исследований искусственного интеллекта (ИИ) – доклад, в котором отражены данные пятилетнего мониторинга в области ИИ.

История этого исследования уходит в декабрь 2014г., когда выпускник Стэнфорда, американский исследователь в области информатики и бывший президент ассоциации по развитию искусственного интеллекта, а ныне сотрудник корпорации Microsoft Эрик Хорвиц выступил с инициативой «AI100» – проекта полномасштабного, долгосрочного изучения ИИ и его влияния на различные стороны человеческой деятельности. Запланированная длительность проекта – 100 лет – дала название отчету. Основная цель проекта – понять и оценить риски развития, применения и влияния ИИ в сфере автоматизации управления и национальной безопасности, психологии и этики, в области законодательства, политики и других областях.

В своей белой книге (white paper), которая фактически является первым артефактом проекта, Хоровиц перечисляет 18 основных тем и направлений предстоящих исследований, а также задает ключевые важные вопросы, на которые будут отвечать предстоящие исследования (хотя полагаю, что список этих тем будет со временем расширен, в связи с появлением новых, пока несуществующих областей знаний и связанной с ними проблематикой):

  • Технологические тренды и риски – что нам ожидать от технического прогресса, какие приятные сюрпризы и черные лебеди нас ждут на технологическом фронте и как успешны мы были в прошлом в части предсказаний зрелости технологий ИИ?
  • Оценка возможностей – как внедрение ИИ повлияет на образование, здравоохранение, науку, госуправление и вообще на жизнеспособность общества и человека как вида? Где и в каких областях ИИ может быть наиболее полезен? А где его применение чревато новыми сложностями и новыми проблемами?
  • Трансфер знаний в реальный мир – как скоро успехи в исследовании ИИ могу быть транслированы в изменения качества человеческой жизни? Какова скорость передачи знаний, можно ли ее вообще изменить и как она связана с рисками внедрения ИИ (см. пункт первый)?
  • Приватность и машинный разум – какие потенциальные изменения в частной сфере ждут нас в связи с новыми достижениями в областях машинного обучения и распознавания образов? Как защитить людей от нежелательного для них применения ИИ, который владеет информацией о целях, планах, намерениях, текущем местонахождении, передвижении, состоянии здоровья, предпочтениях, привычках и слабостях конкретного человека?
  • Демократия и свобода – как алгоритмические методы могут быть использованы для влияния на убеждения людей, в том числе их политические, религиозные и социально-культурные убеждения? Какие потенциальные угрозы для демократии и свободы в мире, где искусственные системы будут обучены, оптимизированы и применены против людей, которые имеют смелость думать иначе, имеют мужество высказать свой собственный взгляд на существующее положение вещей? Тем более, когда деятельность этих системе будет незаметна для человеческих глаз и ушей (см. пункт четвертый).
  • Право и справедливость – искусственный интеллект уже имеет массу приложений в правовой сфере: в области гражданского, судебного и уголовного права, а также в сфере законотворчества. Заменят ли юристов компьютерные алгоритмы? Ждет ли нас в будущем конфликт естественного права и искусственной справедливости? Нужно ли нам пересматривать законы в области защиты прав собственников в мире, в котором живут автономные роботы, способные самостоятельно принимать ре шения. В мире, в котором фраза «мне нужны твоя одежда, твои сапоги и твой мотоцикл», становится правовым прецедентом?

«Какие потенциальные угрозы для демократии и свободы в мире, где искусственные системы будут обучены, оптимизированы и применены против людей, которые имеют смелость думать иначе, имеют мужество высказать свой собственный взгляд на существующее положение вещей?»

  • Этика – какие этические вызовы и вопросы необходимо будет решать в связи с появлением автономных устройств и машин? Кого будет сбивать на дороге беспилотный автомобиль? Бабушку или ребенка? А если выбор между пятью бабушками и одним ребенком? А если в самом автомобиле находится ребенок? И могут ли возрастные, половые, национальные, расовые, религиозные, социальные или экономические различия стать основанием для этого выбора? А не окажет ли ли влияние отданный вами на президентских выборах голос на выбор беспилотника? И не станет ли алгоритмическая предвзятость источником новых этических и правовых (см. шестой пункт) конфликтов? А, кстати, как поступать с дипфейками (deepfake), когда все что ты сказал и показал на камеру, является плодом воображения креативной команды твоего политического соперника?

«Кого будет сбивать на дороге беспилотный автомобиль? Бабушку или ребенка? А если выбор между пятью бабушками и одним ребенком? А если в самом автомобиле находится ребенок? И могут ли возрастные, половые, национальные, расовые, религиозные, социальные или экономические различия стать основанием для этого выбора?»

  • Экономика – какие экономические и социальные проблемы создаст появление роботов, которые отберут работу у человеческого существа? Как это повлияет на профессиональные связи и мотивацию? Могут ли в будущем появиться цифровые платформы, которые соединят машинный интеллект с человеческой интуицией? Какие риски создают алгоритмизированные высокоскоростные механизмы торговли и анализа для финансовых рынков?
  • Военное применение ИИ – десятки лет современные войны ведутся с масштабным применением разнообразных типов вооружений, движимых компьютерными программами с различной степенью автономности. Видео-страшилка о микродронах-убийцах с искусственным интеллектом на борту, убивающих студентов университета, которые не сдали зачет (созданная в рамках медиа-проекта autonomousweapons.com) облетела интернет в 2017г. и продемонстрировала потенциальные риски автономных убийц. В финале этого короткого фильма мы слышим предупреждение и вопрос известного британского ученого в области искусственного интеллекта Стюарта Рассела – разрешим ли мы машинам убивать людей, и при этом самостоятельно принимать решения об убийстве?
  • Криминальный ИИ – риски данного типа применения ИИ недооцениваются всеми участниками процесса, включая государственные и негосударственные организации, отвечающие за сохранность персональных данных. Мы только можем представить себе вредоносное программное обеспечение, которое взаимодействует с мобильными персональными устройствами и онлайн-платформами, обучается, оттачивая свои навыки на взаимодействии с реальными людьми и потенциально способное вырасти в неконтролируемый и опасный суперинтеллект. Камо грядеши, Скайнет?
  • Взаимодействие с машинами – с какими вызовами мы столкнемся в результате более тесного взаимодействия с умными машинами? Передача управления (по сути, трансфер власти) – это сложнейший вопрос в системах управления, в которых взаимодействие человек-машина играет ключевую роль (управление автомобилем, самолетом или инструментом хирурга). Какие возможности у систем со смешанным управлением? Сложные сценарии возможны даже в системах, в которых передача управления от человека к автоматике стала традицией (вот пример инцидента – China Airlines 006).

«Мы только можем представить себе вредоносное программное обеспечение, которое взаимодействует с мобильными персональными устройствами и онлайн-платформами, обучается, оттачивая свои навыки на взаимодействии с реальными людьми и потенциально способное вырасти в неконтролируемый и опасный суперинтеллект»

Илон Маск: «Мы должны быть крайне осторожны с искусственным разумом. Теоретически он может быть опаснее ядерного оружия»
  • ИИ и человеческое познание – большие возможности открываются перед разработчиками компьютерных систем, которые дополняют человеческие способности лучшим пониманием компетенций человека и пониманием его ограничений. Когнитивные психологи более сотни лет работают над характеристиками человеческого разума как системы компетенций, предубеждений и когнитивных искажений. Машины могут нам помочь компенсировать недостаток компетенций, помочь запомнить или забыть, справиться с большим объемом информации, сконцентрировать свое внимание на незавершенных задачах или понять то, в чем сложно найти смысл.
  • Безопасность и автономность – какие ключевые технические задачи в определении спецификации и требований к безопасности автономных систем? Какие современные формальные ограничения, методы принятия решений и инструменты (подобные законам Азимова) должны применяться для обеспечения безопасного поведения роботов в быту и на производстве?
  • Потеря контроля – опасения о том, что в один прекрасный день мы уступим контроль над происходящими событиями супер-интеллекту, враждебному по отношению к человеку не лишены оснований. Какова вероятность такого сценария? Если такой сценарий весьма вероятен, то каковы проактивные меры мы может предпринять для управления этим риском? Спекуляции на тему приближающейся технологической сингулярности (возможно в 2037г., но это не точно) давно вошли в массовое создание благодаря книгам, кинофильмам и компьютерным играм. Но с этими опасениями можно работать через их изучение и диалог. В какие исследования нужно инвестировать время и ресурсы, чтобы лучше понять возможность «восстания машин»?
  • Человеческая психология и умные машины – мы пока плохо понимаем, как человек будет чувствовать и реагировать на умные приложения, сервисы и роботов. Да и три основных закона робототехники все еще вне рамок правового поля в любом государстве. Хотя изделия Boston Dynamics вызывают искренний восторг и симпатию с первого взгляда, но уже со второго взгляда всплывают в памяти ужасы, описанные в сценариях «Черного зеркала». А как наше человеческое самопонимание изменится с появления человекоподобных машин? Как будет эволюционировать природа взаимодействия с умными программами и системами? Какая психологическая основа у тысячелетнего страха перед машинами (вспоминаем ходячие механизмы Гефеста) и как в будущем мы будем бороться с этим страхом? Каковы основания у страха перед супер-интеллектом? Какое влияние в развитие этого страха оказывают современные медиа? Что мы можем сделать, чтобы лучше понимать и изучать потенциальные зависимости и страхи?
  • Коммуникации, понимание и пропаганда – а понимают ли люди, далекие от ИТ, включая экспертов в других отраслях, и людей, облеченных властью (политические лидеры в том числе), ключевые проблемы в развитии ИИ? Как опасения о потере контроля (см. вопросы в пункте 14) могут повлиять на замедление или полное сворачивание исследований в области ИИ? Какие образовательные программы необходимы для информирования о статусе исследований и возможностей ИИ? Рассматривая вышеупомянутые вопросы хорошо бы держать в памяти историю Анатолия Китова, гениального советского ученого, пионера кибернетики и информатики в СССР, который почти на десятилетие предвосхитил появление технологии интернет, но совершенно не нашел понимания у тогдашнего военного и партийного руководства страны.
  • Нейронаука и ИИ – несмотря на десятилетия исследований, мы по-прежнему мало владеем информацией о том, как работает самый совершенный компьютер. И хотя мы уже активно используем нейронные сети – компьютерные модели, вдохновленные устройством биологических нейронных сетей, мы все еще имеем слабое представление о том, как осуществляет вычисления наш собственный мозг. Исследования в области нейробиологии, нейролингвистики и различного рода междисциплинарные исследования могут помочь создателям ИИ в конструировании новых подходов и технологий.
  • ИИ и философия разума – онтология человеческого разума и его природа всегда была и остается одним из ключевых вопросом философии. Познаваема ли природа человеческого сознания и в чем вообще главный вопрос жизни, Вселенной и всего такого? К поиску ответа на этот вопрос возможно скоро подключится искусственный разум суперкомпьютера Deep Thought.

P.S. И пока вы будете рефлексировать над этими вопросами, «НДГ» подготовит краткое и емкое резюме отчета AI100, которое будет опубликовано в продолжение к данной статье.

А для самых нетерпеливых ниже источники:

Отчет 2021 – https://ai100.stanford.edu;

Отчет 2016 – https://ai100.stanford.edu/2016-report

close

Подписка на новости

Подпишитесь, чтобы получать эксклюзивные материалы и быть в курсе последних событий!

Мы не спамим! Прочтите нашу политику конфиденциальности, чтобы узнать больше.