Открытое письмо-прошение направлено в ООН с целью запретить развитие военного ИИ

0
22
weaponized

Организация под названием Future of Life Institute отправила открытое письмо, подписанное более чем 1000 исследователей в области робототехники и искусственного интеллекта (AI), убеждающих Организацию Объединенных Наций ввести запрет на развитие использованных в военных целях ИИ со способностью действовать и убивать без существенного человеческого вмешательства. Письмо было представлено на Международной конференции 2015 года, посвящённой вопросам Искусственного интеллекта (IJCAI) и оно было поддержано голосами многих известных ученых и лидеров отрасли, включая Стивена Хокинга, Элона Маска, Стива Уозниэка и Ноама Хомского.

weaponized

Некоторым читателям вооруженный и автономный ИИ мог бы показаться причудливым понятием, ограниченным сферой видеоигр и научно-фантастическими произведениями. Однако ужасающее предупреждение, содержащееся в рамках недавно опубликованного открытого письма, настаивает, что технология будет легко доступна в течение считанных лет, а не десятилетий, и что меры должны быть приняты уже сейчас, если мы хотим предотвратить рождение новой парадигмы современной войны.

Согласно открытому письму, многие теперь считают использование в военных целях искусственного интеллекта третьей революцией в современной войне, после изобретения огнестрельного и ядерного оружия. Однако для предыдущих двух всегда были сильные препятствия, которые могли так или иначе помешать использовать новую технологию. Для винтовок, Вам нужен солдат, который умеет владеть оружием, а это в свою очередь означало ставить жизнь солдат под угрозу.

С ядерной революцией Вы должны были просчитать воздействие на природу и затраты на разработку материалов и экспертизы для новой бомбы, не говоря уже о чудовищных потерях жизней и международной репутации. Истинная опасность военного ИИ в том, что таких глобальных препятствий для него нет.

ОСТАВЬТЕ ОТВЕТ