Google отказалась давать гарантии непредвзятости своего ИИ Gemini
Мол это нормально для технологии на данном этапе«Он будет допускать ошибки», - говорится в публикации Google на прошлой неделе. «Как мы сказали изначально, галлюцинации — это известная проблема для всех больших языковых моделей. Бывают случаи, когда ИИ просто ошибается. Это то, над чем мы постоянно работаем над улучшением».
Prabhakar Raghavan, старший вице-президент Google по знаниям и информации, объяснил, почему компания была вынуждена закрыть функцию генерации изображений на базе ИИ в Gemini через три недели после запуска, чтобы «исправить ее».
Простыми словами, движок ИИ Google брал текстовые запросы пользователей и создавал изображения, явно пристрастные к определенному социополитическому взгляду.
Например, текстовые запросы пользователей для изображений нацистов порождали черных и азиатских нацистов. Попросив нарисовать изображение Папы Римского, Gemini ответил созданием азиатской женщины-Папы и черного Папы.
Запрос на создание изображения средневекового рыцаря привел к появлению изображений азиатских, черных и женских рыцарей.