«Ядерная война — единственная альтернатива уничтожению человечества искусственным интеллектом»: мнение учёного
Возможно, опасность всё-таки преувеличена?© Pixabay
Юдковский также сказал журналистам, что приостановить исследования ИИ недостаточно. Мир, по его мнению, должен быть готов уничтожить кластеры графических процессоров, обучающих такие системы, с помощью авиаударов и угрожать нанести ядерный удар странам, которые не прекратят исследования новой технологии.
Для Юдковского вопрос стоит не в том, уничтожит ли ИИ человечество, а в том, когда это случится. Он считает, что это очевидное событие. Поэтому учёный уверен, что единственный способ остановить создание сильного искусственного интеллекта, не уступающего человеческому или превосходящего его, — это предпринять действия, которые неизбежно вызовут более масштабную войну и приведут к миллионам, а то и миллиардам, смертей.
Юдковский также отметил, что США и Китай являются лидерами в стремлении развивать ИИ. Именно эти страны, по сценарию учёного, с наибольшей вероятностью нанесут авиаудар по центрам обработки данных своего соперника.