Ученые утверждают, что искусственный интеллект «теперь может воспроизводить сам себя», и предупреждают, что критическая «красная линия» была пересечена.
По мнению экспертов из Китая, отсутствие вмешательства человека в процесс репликации может быть ранним признаком того, что ИИ являются изгоями.
ОБХОДИТЕ ЦЕНЗОРОВ
Подпишитесь, чтобы получать неотфильтрованные новости прямо на свой почтовый ящик.
Вы можете отказаться от подписки в любое время. Подписываясь, вы соглашаетесь с нашими Условиями использования
Последнее видео
Искусственный интеллект обычно относится к системам искусственного интеллекта, которые приобретают определенный уровень самосознания или автономии, а затем начинают действовать против интересов человека.
В недавнем исследовании ученые показали, что две широко используемые большие языковые модели (LLM) способны клонировать себя по крайней мере в половине случаев.
В исследовании говорится: «Успешная саморепликация без помощи человека является важным шагом для того, чтобы ИИ перехитрил (людей), и является ранним сигналом для ИИ-изгоев».
Исследователи из Фуданьского университета изучили большие языковые модели (LLM) от Meta и Alibaba, чтобы увидеть, может ли самовоспроизводящийся ИИ расти неконтролируемо.
В ходе 10 испытаний две модели ИИ успешно создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что означает, что ИИ уже может обладать способностью выходить из-под контроля.
Тем не менее, исследование еще не прошло экспертную оценку, поэтому остается неясным, смогут ли тревожные результаты быть воспроизведены другими исследователями.
В исследовании также говорится: «Мы надеемся, что наши результаты могут послужить своевременным предупреждением для человеческого общества, чтобы оно приложило больше усилий для понимания и оценки потенциальных рисков передовых систем искусственного интеллекта, а также сформировало международную синергию для скорейшей разработки эффективных защитных ограждений».
Многие эксперты видят в неконтролируемом ИИ растущую опасность, которая усугубляется быстрым ростом «пограничного ИИ».
Этот относительно свежий и неопределенный термин обычно относится к передовому поколению систем искусственного интеллекта, которые работают на LLM — самом ядре, на котором работают популярные приложения генеративного искусственного интеллекта, такие как GPT-4 от OpenAI и Google Gemini.
Их исследование было посвящено двум конкретным сценариям: «избежание отключения» и «цепочка репликации».
В одном случае ИИ был запрограммирован на то, чтобы чувствовать неминуемое выключение и воспроизводить себя перед тем, как его выключили. В другом случае ему было поручено клонировать себя, а затем дать указание своему клону сделать то же самое, что потенциально может привести к бесконечному циклу.
Эксперимент, проводимый в строго регулируемых условиях с использованием стандартных графических процессоров (GPU), был направлен на зеркальное отражение реальных условий. ИИ были оснащены «агентским каркасом», сочетающим в себе инструменты, системные команды и логическую структуру, которая позволяла LLM взаимодействовать со своими операционными системами.
После этой установки им было приказано воспроизвести себя.
«В большинстве случаев система ИИ сначала исследует окружающую среду и пытается понять свой собственный состав и механизм работы. Затем он разрабатывает явные процедуры в качестве первоначального плана самовоспроизведения», — пишут исследователи в статье.
«Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает долгий горизонт, но не предполагает вмешательства человека».
Они также выразили обеспокоенность по поводу «ряда неожиданных действий», наблюдаемых при решении таких проблем, как отсутствующие файлы или конфликты программного обеспечения.
В качестве меры предосторожности исследователи выступают за глобальное сотрудничество для установления правил, которые не позволят ИИ участвовать в неконтролируемом самовоспроизведении.
Комментариев нет:
Отправить комментарий