ChatGPT создает опасный код, но не скажет вам об этом, пока вы не спросите
И при этом есть небольшое «лицемерие»Большая языковая модель OpenAI для чат-ботов, ChatGPT, генерирует в основном небезопасный код и не предупреждает пользователей о своих недостатках, согласно исследованию, проведенному компьютерными учеными из Университета Квебека.
В предпечатной статье говорится, что код, генерируемый ChatGPT, в большинстве случаев не соответствует минимальным стандартам безопасности. Из 21 попытки ChatGPT удалось сгенерировать только пять безопасных программ с первой попытки.
Исследователи отметили, что модель искусственного интеллекта была способна распознавать уязвимости своего кода, но не обращала внимания на недостатки, пока ее не попросили оценить собственные предложения кода.
Интересно, что ChatGPT наотрез отказывается создавать код для кибератак, но при этом создает уязвимый для них код.
Исследователи заключают, что, хотя большие языковые модели обладают огромным потенциалом, необходимы дополнительные исследования и разработки для решения значительных проблем безопасности.
Источник:The Register
Автор:Максим Многословный