Эксперт защитил галлюцинации у ИИ и назвал людей «багом»
Необходимость реалистичных ожиданийДоминик Лигот, эксперт в области данных и ИИ, утверждает, что распространенная проблема больших языковых моделей (LLM) — «галлюцинации» — проистекает из «фундаментального недопонимания их назначения». В своей недавней статье он подчеркивает, что LLM никогда не предназначались для того, чтобы быть источниками абсолютной истины. Вместо этого они являются инструментами для генерации информации на понятном языке, помощи в творчестве и предоставления лучшего понимания информации. Ещё он назвал людей «багом».
Лигот отмечает, что LLM работают как статистические машины, предсказывая последовательности слов на основе шаблонов в обучающих данных, что приводит к неточностям. Ожидание, что LLM будут предоставлять фактическую информацию, не соответствует их возможностям (вы же не ждёте от калькулятора создания поэзии). Он призывает пользователей использовать LLM для «креативного мозгового штурма, написания черновиков и контекстуализации сложной информации», а не полагаться на них для проверки фактов.
Для эффективного использования Лигот выступает за «интеграцию человеческого контроля» в рабочий процесс, с проверкой выводов ИИ и их использования в качестве «отправных точек», а не «окончательных продуктов».