источник: Forbes ,25,04,2018
Скрытая угроза: искусственный интеллект может начать ядерную войну к 2040 году
Исследователи рассчитали, что ИИ в будущем может спровоцировать одну из ядерных держав нанести упреждающий удар против другой нации.
Американская некоммерческая организация RAND Corporation опубликовала исследование, согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.
ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания.
RAND Corporation
Аналитики утверждают, что хотя на протяжении десятилетий хрупкий мир поддерживался идеей того, что любое ядерное нападение может спровоцировать взаимное гарантированное уничтожение, потенциал ИИ и машинного обучения для принятия решений о военных действиях может означать, что отсутствие критического мышления у ИИ может дать неверную оценку ситуации. «Некоторые эксперты опасаются, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — сказал Эндрю Лон, соавтор статьи из RAND.
Авторы исследования считают, что в будущем улучшение технологий может привести к нарушению баланса сдерживающих сил, таких как подводные и мобильные ракеты. ИИ, используемый в качестве советника, может склонить человека к решению о нанесении упреждающего удара против другой нации: даже если противник не намерен нападать, но ИИ увидит возможность получения преимущества в результате атаки.
ИИ может оказаться «восприимчивым к состязательности». Следовательно, отметил Лон, сохранение стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в создании институтов, которые помогут ограничить ядерные риски.
В документе RAND также подчеркивается опасность использования ИИ для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых постоянно предупреждает Илон Маск. Выступая на ежегодном фестивале технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил создать общественный регулирующий орган, который будет следить за безопасностью разработок в области искусственного интеллекта и предусматривать все возможные риски.
Запомните мои слова: ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?.
Илон Маск