Джеффри Хинтон, который известен как «крестный отец AI» во время интервью предупредил об опасностях, с которыми сталкивается мир, возлагая все больше и больше обязанностей на машины.
В интервью шоу канала CBS "60 минут" Хинтон сделал тревожное заявление:
«Человечество понятия не имеет, что мы создали, мы вступаем в период, когда впервые в истории у нас может быть что-то умнее, чем мы сами».
Развитие искусственного интеллекта поднимает фундаментальные вопросы о будущем человечества как доминирующего вида на планете, поскольку растущая автономия машин может изменить этот баланс.
Хинтон, который несколько лет до ухода работал в Google, чтобы свободно предупреждать об опасности искусственного интеллекта, считает, что мы приближаемся к поворотному моменту. По мере развития систем искусственного интеллекта и получения большей автономии люди, возможно, больше не будут самыми умными на планете.
«Невозможно конкурировать с системой, которая имеет доступ к миллиардам данных и может учиться на них экспоненциально», пояснил эксперт.
Одной из самых больших угроз, выявленных Хинтоном, является возможность того, что машины станут способны писать и выполнять свой собственный код, что сделает их неуправляемыми.
Если это произойдет, то системы ИИ смогут разработать свои собственные стратегии, обеспечивающие их непрерывность и избегающие вмешательства человека.
Еще один риск, на который указывает исследователь, - это способность машин манипулировать людьми.
По словам Хинтона, системы искусственного интеллекта могут изучать не только факты и техническую информацию, но также политические стратегии и стратегии убеждения.
«Они извлекут уроки из всех работ Макиавелли, поймут политику и механизмы человеческого манипулирования», предупрежден.
Эксперт опасается, что в не столь отдаленном будущем искусственный интеллект может тонким образом влиять на поведение и решения.
Если система становится достаточно развитой, чтобы понимать и использовать человеческие эмоции, она может влиять на выборы, экономические решения или даже вызывать конфликты.
Комментариев нет:
Отправить комментарий