Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление

Исследователи Apple обнаружили, что большие языковые модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче, сообщает издание TechCrunch.

Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление

Опубликованная статья «Понимание ограничений математического мышления в больших языковых моделях» поднимает вопрос о способности искусственного интеллекта к логическому мышлению. Исследование показало, что большие языковые модели (LLM) могут решать простые математические задачи, но добавление малозначимой информации приводит к ошибкам.

Например, модель вполне может решить такую задачу: «Оливер собрал 44 киви в пятницу. Затем он собрал 58 киви в субботу. В воскресенье он собрал вдвое больше киви, чем в пятницу. Сколько киви у Оливера?». Однако, если при этом в условие задачи добавить фразу «в воскресенье 5 из этих киви были немного меньше среднего размера», модель скорее всего вычтет эти 5 киви из общего числа, несмотря на то, что размер киви не влияет на их количество.

Мехрдад Фараджтабар (Mehrdad Farajtabar), один из соавторов исследования, объясняет, что такие ошибки указывают на то, что LLM не понимают сути задачи, а просто воспроизводят шаблоны из обучающих данных. «Мы предполагаем, что это снижение [эффективности] связано с тем фактом, что современные LLM не способны к подлинному логическому рассуждению; вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных», — говорится в статье.

Читать также:
HP запустила платную подписку на принтеры: от $7 в месяц за печать 20 страниц

Другой специалист из OpenAI возразил, что правильные результаты можно получить с помощью техники формулировки запросов (prompt engineering). Однако Фараджтабар отметил, что для сложных задач может потребоваться экспоненциально больше контекстных данных, чтобы нейтрализовать отвлекающие факторы, которые, например, ребёнок легко бы проигнорировал.

Означает ли это, что LLM не могут рассуждать? Возможно. Никто пока не даёт точного ответа, так как нет чёткого понимания происходящего. Возможно, LLM «рассуждают», но способом, который мы пока не распознаём или не можем контролировать. В любом случае эта тема открывает захватывающие перспективы для дальнейших исследований.

НОВОЕ НА САЙТЕ

Каракаев: система «Орешник» может поражать цели по всей Европе

Ваш браузер не поддерживает данный формат видео.Дзен Российский комплекс "Орешник" может поражать цели по всей Европе, сообщил главнокомандующий Ракетными войсками стратегического назначения генерал-полковник Сергей Каракаев."Исходя из поставленных задач и дальности действия данного оружия, оно...

В Британии заявили об опасной игре с Россией на Украине

ДзенПосле победы Дональда Трампа на президентских выборах в США и эскалации конфликта на Украине будущее Европы и Киева выглядит очень плачевно, пишет британский политолог и журналист Анатоль Ливен в статье для Responsible Statecraft."Это опасная...

Британские военные пожаловались на трудности ведения войны в Европе

Дзен Военные Великобритании в частных разговорах жалуются, что вооруженные силы страны были бы не в состоянии вести войну в Европе в течение более двух недель, сообщает газета Financial Times. "Военачальники Великобритании в частных разговорах...

ЕС и Китай близки к соглашению об отмене пошлин на электромобили

Дзен Брюссель и Пекин могут в скором времени договориться об отмене пошлин на ввоз китайских электромобилей в Европу, заявил телеканалу NTV председатель комитета по международной торговле Европарламента Бернд Ланге.«"Мы близки к решению с Китаем...

Nvidia предупредила о предстоящем дефиците GeForce в ближайшие месяцы

Не самой широко освещаемой новостью по итогам квартального отчёта Nvidia стало заявление финансового директора компании о вероятном дефиците игровых решений в четвёртом квартале. Третий квартал в этом сегменте оказался настолько успешным, что опустошил складские...