вторник, 10 июня 2025 г.

Модели искусственного интеллекта все еще далеки от рассуждений на уровне AGI: исследователи Apple

 Автор Мартин Янг через CoinTelegraph.com,

По словам исследователей Apple, гонке за разработку общего искусственного интеллекта (AGI) еще предстоит пройти долгий путь, и они обнаружили, что ведущим моделям ИИ по-прежнему трудно рассуждать. 

Последние обновления ведущих больших языковых моделей искусственного интеллекта (LLM), таких как ChatGPT от OpenAI и Клод из Anthropic включили большие модели рассуждений (LRM), но их фундаментальные возможности, свойства масштабирования и ограничения “остаются недостаточно изученными”, заявили исследователи Apple в июне бумага называется “Иллюзия мышления.” 

Они отметили, что текущие оценки в первую очередь сосредоточены на установленных математических и кодирующих критериях “с упором на точность окончательного ответа” 

Однако, по их словам, эта оценка не дает представления о возможностях рассуждения моделей ИИ. 

Исследование контрастирует с ожидание что общий искусственный интеллект появится всего через несколько лет.

Исследователи Apple тестируют “думают” модели ИИ

Исследователи разработали различные игры-головоломки для тестирования “думающих” и “недумающих” вариантов Claude Sonnet, o3-mini и o1 от OpenAI, а также чат-ботов DeepSeek-R1 и V3, выходящих за рамки стандартных математических тестов. 

Они обнаружили, что “пограничные LRM сталкиваются с полным падением точности за пределами определенных сложностей” не обобщают рассуждения эффективно, и их преимущество исчезает с ростом сложности, вопреки ожиданиям относительно возможностей AGI.

“Мы обнаружили, что LRM имеют ограничения в точных вычислениях: они не используют явные алгоритмы и рассуждают непоследовательно в разных головоломках.”

Проверка окончательных ответов и промежуточных трассировок рассуждений (верхняя диаграмма), а также диаграммы, показывающие немыслящие модели, более точны при низкой сложности (нижние диаграммы). Источник: Исследования машинного обучения Apple 

Исследователи утверждают, что чат-боты на основе искусственного интеллекта слишком много думают

Они обнаружили непоследовательные и поверхностные рассуждения с моделями, а также наблюдали чрезмерное мышление: чат-боты с искусственным интеллектом рано генерировали правильные ответы, а затем переходили к неправильным рассуждениям.

Исследователи пришли к выводу, что LRM имитируют модели рассуждений, не интернализируя и не обобщая их по-настоящему, что не соответствует рассуждениям на уровне AGI.

“Эти идеи бросают вызов преобладающим предположениям о возможностях LRM и предполагают, что современные подходы могут сталкиваться с фундаментальными препятствиями на пути обобщаемых рассуждений.”

Иллюстрация четырех сред головоломки. Источник: Apple

Гонка за разработку AGI

AGI — это Святой Грааль Разработка ИИ, состояние, при котором машина может думать и рассуждать как человек и находится на одном уровне с человеческим интеллектом. 

В январе генеральный директор OpenAI Сэм Альтман сказал фирма была ближе к созданию AGI, чем когда-либо прежде. “Теперь мы уверены, что знаем, как создавать AGI в том виде, в каком мы его традиционно понимали”, - сказал он тогда. 

В ноябре генеральный директор Anthropic Дарио Амодей сказал что AGI превысит человеческие возможности в ближайшие год-два. “Если вы просто посмотрите на темпы роста этих возможностей, вы подумаете, что мы достигнем этого к 2026 или 2027 году”, - сказал он. 


Комментариев нет:

Отправить комментарий

Дональд Трамп об Иране: «Если нынешнее руководство некомпетентно, почему бы не измениться?» От MAGA до MIGA (Сделаем Иран снова великим) американский президент

  В сообщении на платформе Truth Social президент США Дональд Трамп упомянул о возможной смене политического руководства в Иране, если   «эт...