Сплав искусственного интеллекта и нейроинтерфейса сможет в недалеком будущем восстанавливать зрение, способность двигаться и лечить заболевания мозга, но без должного контроля эти инновации могут привести к еще большему социальному расслоению и нарушениям приватности, считают ученые, опубликовавшие эссе о необходимости введения принципов биоэтики в использование нейроимплантов.
“Мы всего лишь хотим убедиться, что новая, столь привлекательная технология, которая может преобразовать нашу жизнь, будет использована во благо человечества, — говорит Рафаэль Юсте, директор Центра нейротехнологий Колумбийского университета и один из соавторов статьи, вышедшей в журнале Nature. Кроме него и биоэтика Сары Геринг это мнение разделили два десятка врачей, нейробиологов, философов и информатиков.
Проблема слияния человека с машиной, восстановления или расширения способностей мозга давно перешла из разряда научной фантастики в реальность. По оценкам авторов, рынок нейроимплантов сейчас можно оценить в $100 млн, и возглавляет его стартап Брайана Джонсона Kernel и Neuralink Илона Маска. Только в ходе инициативы BRAIN, запущенной бывшим президентом США Бараком Обамой правительство потратило на эти цели $500 млн с 2013 года.
Пока эти инвестиции приносят плоды, авторы статьи видят 4 основных угрозы: потерю личной конфиденциальности, самоидентичности и автономности, а также увеличение социального неравенства, когда корпорации, правительства и хакеры получат в свои руки новый инструмент манипуляции массами.
Они предлагают строго регулировать коммерческое использование данных, полученных с вживленных в мозг устройств, разработать международную конвенцию для определения запрещенных действий и проводить образовательные мероприятия, рассказывая людям о возможных побочных действиях имплантов на настроение, характер и самоощущение.
Также они советуют принять меры по предотвращению создания «сверхлюдей», получивших способности, превышающие человеческие, например, интеллект или выносливость, особенно если это касается вооруженных сил, сообщает EurekAlert.