Представители 150 крупнейших технологических компаний мира из 90 стран подписали соглашение напротив «роботов-убийц», всего подписи под документом подставили 2400 профессионала, которые занимаются созданьем робототехники и развитием систем искусственного интеллекта (ИИ), передает . В соглашении они выступили напротив использования таких технологий в надежде нанесения ущерба живым созданиям.
Соглашение о неприменении автономного боевого оружия было заключено на Международной конференции по системам искусственного интеллекта (IJCAI 2018) в Стокгольме, которую проводит организация Институт будущей жизни (Future of Life Institute). Ее глава, профессор физики Массачусетского технологического института (MIT) Макс Тегмарк заявил, что рад тому, что лидеры отрасли ИИ-разработок «переходят от слов к делу» и начали иметь в себе вопросы, которые пока оставляют без внимания политики.
Под соглашением стоят подписи компаний вроде Google DeepMind, XPRIZE Foundation, ClearPath Robotics/OTTO Motors, Европейской ассоциации искусственного интеллекта и персон вроде Илона Маска.
Институт определяет смертоносные системы автономного вооружения - также знаменитые как «роботы-убийцы» - как оружие, которое может каждый сам по себе определять человеческую цель, осуществлять наведение и поражать ее в отсутствие оператора. То бишь идет речь о том, что решение о том, кому умереть, принимает не человек, а машина, изъясняют в Институте.
Однако, под это определение не подпадают современные беспилотные летательные аппараты (БПЛА), находящиеся под управлением человека, а также автономные системы, которые являются долею систем защиты от иного оружия.
Вокруг боевого применения систем на базе ИИ в текущем квартале разгорелось уже несколько звучных скандалов. Последний из них произошел в начале апреля, когда один из ведущих технических вузов Южной Кореи (Korea Advanced Institute of Science and Technology, KAIST) получил бойкот от 50 исследовательских институтов из 30 стран после того, как было объявлено об открытии совместной с Hanwha Systems лаборатории по созданию оружия на базе ИИ, несмотря на запрет ООН.
Профессор Университета Нового Южного Уэльса в Австралии (University of New South Wales, UNSW) по имени Тоби Уолш, инициатор бойкота KAIST, говорит, что важно пресекать в корне решение о жизни и смерти противника на контроле человека. У машин нет этики, чтобы принимать такие решения, полагает ученый. Бойкот был отличен после отказа KAIST от озвученных планов.
Илон Маск и те ИТ-евангелисты уже часто призывали ООН воспретить «роботов-убийц». С предупрежденьем об опасности систем искусственного интеллекта часто выступал общеизвестный астрофизик Стивен Хокинг. В Google, разрабатывающей платформу ИИ с именем DeepMind, тоже произошел скандал, когда ряд ведущих инженеров компании звучно хлопнули дверью, узнав о сотрудничестве с Пентагоном по созданию некоторых технологий на базе ИИ.