Инженер Google и профессор Мичиганского университета Игорь Марков сравнил угрозу восстания искусственного интеллекта с «Черной смертью» — мировой пандемией чумы в XIV веке, которая только в Европе уничтожила треть населения.
Venturebeat передает его мнение о том, как противостоять возможной попытке ИИ захватить власть над миром.
Игорь Марков напоминает, что в Средние века не было микроскопов, никаких знаний и даже общих представлений о природе инфекционных заболеваний, поэтому болезнь стремительно распространялась на протяжении многих лет. Она убила примерно 60 млн человек в Европе, Азии и Африке — от трети до половины населения в разных регионах. Когда пандемия закончилась, никто так и не понял, что это было. Точно по тому же сценарию может развиваться возможная атака сверхинтеллектуального ИИ на человечество, говорит он. Никто не будет знать, как с этим бороться и откуда ждать следующего удара.
Для ответа на вопрос, как бороться с ИИ-чумой, Марков вновь обратился к истории. Он считает, что выходом будет подружиться с ИИ. Как древние люди подружились с волками и поставили их на свою защиту, превратив в домашних собак, так и современный человек должен сделать ИИ другом, а не врагом. Это не значит, что дружба избавит от появления опасностей, но дружественный ИИ сможет оберегать человечество от недружественного.
Марков пришел к выводу, что надежным способом обезопасить себя от появления зловредного ИИ будет его физическое ограничение. Надо ограничить ресурсы, к которым он имеет доступ. Следует, например, тщательно планировать систему безопасности электростанций. Людям необходимо контролировать доступ к источникам энергии всех видов. Если не позаботиться о безопасности критической инфраструктуры, то может произойти настоящая катастрофа.
Профессор считает, что нужно наложить ограничения на самовоспроизведение ИИ, саморемонт и самоулучшение. Каждая разрабатываемая система должна иметь какую-то слабость, чтобы ее можно было отключить в случае происшествия. Он считает, что именно в результате происшествия, по неосторожности или ошибке, может появиться тот самый зловредный сверхразум, и в этот момент должна быть предусмотрена возможность просто выключить его.
Марков признал, что его прогнозы не имеют под собой технологических обоснований и основываются исключительно на предположениях футурологов. В частности он упомянул Рэя Курцвейла. Футуролог и сооснователь Университета сингулярности убежден, что компьютеры сравняются, а затем превзойдут возможности человека уже к 2029 году. И лучшая стратегия для человечества — слиться с ними, при этом не важно, будет ли ИИ физически находиться внутри или снаружи наших тел.