Исследователи из Apple обнаружили, что ответы, генерируемые крупными языковыми моделями (LLM), такими как ChatGPT, создают иллюзию интеллекта, но не являются результатом истинного логического мышления.
Учёные сосредоточились на способности разумных существ, включая людей, выделять важную информацию для логического анализа. Они протестировали LLM, добавив в вопросы лишние данные, чтобы проверить, могут ли модели игнорировать ненужную информацию.
Результаты показали, что LLM часто сбиваются на несущественных деталях, давая неверные ответы. Это указывает на отсутствие у моделей истинного понимания и рационального мышления.
LLM также склонны выдавать правдоподобные, но неверные ответы, создавая иллюзию осознанности, сообщает 3dnews.
Исследователи пришли к выводу, что современные языковые модели не обладают истинным интеллектом, а просто выявляют шаблоны в текстах и формируют ответы на основе статистической обработки данных, без реального понимания сути вопросов.
Ранее ИА Кулик рассказал, что озвучено новое «III состояние», которое идет вне жизни и смерти.