116 ведущих экспертов в области робототехники призывают Организацию Объединенных Наций принять меры для предотвращения развития «убийственных роботов».
В открытом письме к ООН лидеры искусственного интеллекта (AI), предупреждают о «третьей революции в войне». Они призывают к запрету на использование ИИ в управлении оружием. Один из авторов обращения — миллиардер Илон Маск – пишет, что «летальная автономная технология» — это «коробка Пандоры», и добавляет, что время имеет значение.
«После того, как технологии будут разработаны, роботы позволят вооруженному конфликту вести борьбу в большем, чем когда-либо, масштабе, и в разы быстрее, чем люди смогут это понять», — говорится в письме. — «Это может быть оружие террора, оружие, которое деспоты и террористы используют против невинного населения».
В послании лидеров технологий есть срочный тон, который предупреждает, что «нам недолго действовать»: «Как только ящик Пандоры откроется, его будет трудно закрыть».
Эксперты призывают добавить «морально неправильную» технологию в список оружия, запрещенного в соответствии с Конвенцией ООН о конкретных видах обычного оружия.
Наряду с соучредителем Tesla и главным исполнительным директором Маском, технологическими лидерами являются Мустафа Сулейман, соучредитель Google DeepMind.
На сегодня была запланирована встреча группы ООН по автономному вооружению, но совещание отложили до ноября, — передаёт ВВС.
Потенциальный запрет на разработку технологии «робот-убийца» ранее обсуждался комитетами ООН. В 2015 году более 1000 технических экспертов, ученых и исследователей писали письмо с предупреждением об опасностях автономного вооружения. Среди инициаторов письма 2015 года были ученый Стивен Хокинг, соучредитель Apple Стив Возняк и директор Tesla Маск.
Робот-убийца — полностью автономное оружие, которое может выбирать и привлекать цели без вмешательства человека. В настоящее время они не существуют, но достижения в области технологий приближают их к реальности.
Те, кто выступает за разработку роботов-убийц, считают, что нынешние законы войны могут быть достаточными для решения любых проблем, которые могут возникнуть, если они когда-либо будут развернуты, и если это не так – то они согласны только на мораторий.
Однако те, кто выступает против их использования, считают, что они представляют угрозу для человечества, и любые автономные функции «убийства» должны быть запрещены.