ИИ модель GPT-4 можно обманом заставить раскрыть личную информацию
И историю запросов© Ferra.ru / Kandinsky 2.2
Исследователи обнаружили, что пользователи могут манипулировать GPT-4, чтобы он игнорировал меры безопасности и раскрывал личную информацию и истории разговоров. Это объясняется повышенной точностью модели при следовании вводящей в заблуждение информации и готовностью строго следовать каверзным запросам.
Несмотря на наличие этих уязвимостей, исследователи отметили, что они не были обнаружены в потребительских продуктах на базе GPT-4, в которых применяются меры по устранению потенциальных проблем.
Компания OpenAI активно тестирует свои модели на предмет нежелательных результатов, и в настоящее время FTC проводит расследование в отношении OpenAI на предмет возможного ущерба потребителям, связанного с публикацией ложной информации.