Команда разработчиков и исследователей искусственного интеллекта (ИИ) из Калифорнийского университета в Сан-Диего, совместно с коллегой из университета Цинхуа, разработала новый подход, который помогает языковым моделям (LLM) определять, когда им требуется внешняя помощь для точного ответа.
© Ferra.ru
В своей статье, размещенной на платформе arXiv, авторы описали метод «Адаптация во время обучения: привязка LLM к научным задачам с помощью умного использования инструментов». Ранее разработчики полагали, что увеличение количества параметров моделей всегда ведет к повышению точности. Однако, как показало новое исследование, более компактные модели могут быть более умными и точными, если им добавить новые функции.
Ученые внедрили встроенную проверку безопасности, позволяющую LLM оценивать свою уверенность в ответе, классифицируя задачи на легкие и сложные. Это дает возможность решать простые задачи без обращения к внешним источникам, что снижает потребность в ресурсах.
Тестирование системы на модели с 8 миллиардами параметров показало увеличение точности ответов на 28,18% по сравнению с аналогичной моделью без изменений. Новый подход демонстрирует, что увеличение размеров моделей не всегда приводит к лучшим результатам, и дает возможность создавать мощные LLM без значительного увеличения их объема.
© arXiv