Не убей. Почему лидеры техноиндустрии отказались делать оружие с искусственным интеллектом

Ведущие исследователи искусственного интеллекта поручились не развивать летальное оружие. Документ подписали основатель Skype Яаан Таллинн, Илон Маск и создатели дочерней компании Google DeepMind

В середине 20-го столетия помощь своей стране в разработке секретных военных технологий была одним из самых уважительных занятий. Ключевые компании, ученые, инженеры двух враждующих государств – США и СССР – боролись за то, чтобы придумать такую технологию, которая продвинет их власть в гонке вооружения.

Для кого-то это был престиж, для кого-то – деньги, а кто-то просто фанатично любил свою работу и был рад получить все возможности для развития. Конечно, некоторые существующие до сих пор техногиганты, вроде IBM и Hewlett-Packard, несколько запятнали свою репутацию подобными делами, но судить их сейчас явно нет смысла.

Сегодня же, в мире наблюдается обратная ситуация, или по крайней мере создана подобная иллюзия.

Прошлой ночью, изданию The Verge стало известно, что на Международной совместной конференции по искусственному интеллекту (IJCAI) в Стокгольме, которая организована Институтом «Будущее жизни», опубликовали поручение с обещанием не развивать не развивать «летальное автономное оружие».

Технопортал пишет: «это один из последних шагов неофициальной глобальной коалиции разработчиков и менеджеров, который выступает против пропаганды таких технологий».

В поручительстве указано, что системы вооружения, использующие искусственный интеллект (ИИ) «для выбора и действия по цели, без вмешательства человека» несут моральные и прагматические угрозы.

Документ взывает к тому, что машины и компьютеризированные системы вооружения нельзя наделять возможностью убивать людей, и, отказавшись от подобных технологий, можно снизить потенциальные риски для человечества.

Поручительство подписали основатель SpaceX и Tesla Илон Масе, три соучредителя дочерней компании DeepMind Google, которая разрабатывает ИИ, – Шейн Легг, Мустафа Сулейман и Демис Хасавис, основатель Skype Яаан Таллинн и некоторые известные по всему миру исследователи ИИ – Стюарт Рассел, Йошуа Бенджио и Юрген Шмидхубер.

«Мы, нижеподписавшиеся, призываем правительства и их лидеров создать будущее с сильными международными нормами, положениями и законами против летального автономного оружия. Мы не будем ни участвовать, ни поддерживать разработку, производство, торговлю или использование летального автономного оружия. Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом поручительстве» – гласит документ.

Авторы инициативы считают, что развитие оружия с ИИ может вызвать цепную реакцию и гонку вооружений с другими странами, хотя большинство государств в мире еще не располагает надлежащими технологиями для управления такими автономными системами.

Год назад Институт «Будущее жизни», с теми же участниками, отправили письмо в ООН с призывом рассмотреть новые регулятивные нормы для разработки и использования летального автономного оружия.

Сложно сказать, появится ли обновленное законодательство, и смогут ли его принять власти по всему миру, ведь сегодня, для передовых стран, внедрение ИИ в армии, беспилотные технологии и прочее роботизированное оружие является одним из самых перспективных направлений.