Две «массовые» видеокарты от компании Nvidia — GeForce FX 5200 Ultra 128 MB и GeForce FX 5600 Ultra 128 MB, построенные соответственно на чипах NV34 и NV31. Так уж сложилось, что в прессе уделяют больше внимания анонсам Hi-End продуктов. Связано это в основном с тем, что в них впервые воплощаются революционные или, по крайней мере, передовые разработки, определяющие будущее индустрии. А заглянуть в это самое «прекрасное далёко» всегда было заветной мечтой человечества. Но народ своими деньгами голосует за более простые решения, реализующие те же технологии. Пусть с меньшей производительностью, но и по более низким ценам. Может быть, соотношение производительность/цена у них даже и не отличается в лучшую сторону от флагмана, но если добавить к параметрам выбора целесообразность производительности и приемлемость цены, то выбор большинства становится легко объяснимым и предсказуемым. Сегодня мы рассмотрим на примере референс-карт два «массовых» видеоускорителя от компании Nvidia: GeForce FX 5200 Ultra (далее 5200U) и GeForce FX 5600 Ultra (5600U). Построены они соответственно на чипах NV34 и NV31, каждый имеет на борту 128 Мбайт видеопамяти. Технологическим фундаментом им служит архитектура NV30, с которой можно ознакомиться по адресу www.ferra.ru/online/video/23735. О том, как семь раз отмеряли, и не только Напомню, что во время тестирования старшего брата (о котором можно прочитать по адресу www.ferra.ru/online/video/24744) высокая концентрация осторожности в условиях оригинальной застройки поверхности печатной платы заставили нас отказаться от попыток сфотографировать NV30. На этот раз все гораздо проще, а потому спешите видеть!Ничего оригинального во внешнем виде нет (если не считать серебристого окраса пластмассовых частей крышек чипов, вызванного въевшейся термопастой). А что же внутри?На первый взгляд, отличий между двумя новинками очень мало. Разный технологический процесс производства, незначительная разница в рабочих частотах, гипотетическая поддержка NV31 DDR II. Казалось бы, и остановиться-то не на чем. Даже разводка плат идентичная. Но обратите внимание на заметно меньшее количество транзисторов у NV34. Судя по всему, секвестру подверглись всевозможные кэши (как и у NV31 по сравнению с NV30), что заметно притормозит карту. Кроме того, «пострадал» контроллер памяти. И напоследок, видимо, чтобы окончательно убедить пользователей в том, что полноэкранное сглаживание на низкобюджетной видеокарте — роскошь, чип лишили возможности сжатия информации о цвете. К тому же, по неподтвержденной пока информации, GeForce FX 5200/Ultra не в полной мере будет поддерживать «спецификацию» Nvidia DirectX 9+, но со стандартной, майкрософтовской версией №9 дружить будет. Впрочем, эта поддержка и у старших братьев представляется мне больше маркетинговым ходом на данный момент (в плане фактора, склоняющего к покупке), что уж говорить про гораздо менее производительного родственника. О намерениях и дорогах Но вернемся к насущному. Фотография видеокарты показывает нам, что система охлаждения на этот раз блещет лишь поверхностью, но в плане оригинальности уступает GeForce FX 5800 Ultra (5800U). И слава Богу! Никакой необходимости нагромождать фантасмагоричные конструкции на этот раз нет.Но все же нескольких слов кулеры и их работа заслуживают. Оказалось, что подошва радиаторов покрыта неким непонятным слоем. Насколько мы можем судить, это просто черная краска! Решение использовать ее в качестве термопрослойки не поддается никакому логическому объяснению. В силу неровности поверхности уменьшается площадь соприкосновения с чипом (правда, с этим борется термопаста, но даже удачное решение собственноручно созданной проблемы не видится подвигом), а заведомо низкий коэффициент теплопроводности ухудшает отвод тепла от ядра. Так что остается только удивляться! Примечательна и работа вентиляторов. Если у 5800U по нашим наблюдениям частота вращения вентилятора зависит только от того, какие блоки чипа задействованы, то у 5200U переключение режимов вызывалось изменением температуры ядра. Режима также всего лишь два: тихо и громко. А кулер 5600U работает только во втором режиме. Если сравнивать с шумом флагмана, то здешнее «громко» гораздо ближе к его «тихо». По этому поводу хотелось бы отметить следующее. Даже у громоподобного 5800U больше всего раздражали именно переходы от тишины к шуму и обратно. Особенно это проявилось во время тестирования 3DMark’ом, поскольку в процессе карта постоянно переключается с обработки только 2D в промежутках между тестами на работу в 3D в самих тестах. Впрочем, во время игры это не будет проявляться. Пока игрок отстреливает противников в каком-нибудь Unreal Tournament, чипу постоянно придется задействовать максимальное количество блоков. «Расслабится» он только во время смены уровня. Так что шум 5800U будет постоянный. К нему можно быстро привыкнуть, слегка заглушить звуками и музыкой игры. Такая же ситуация и у 5600U (а в искусственных бенчмарках и того лучше!). А вот 5200U в этом отношении проигрывает — кулер может напомнить о себе в любой момент. Единственное, что утешает — относительно низкий шум даже у громкого режима. Подводя итог, с прискорбием констатирую факт: практическая реализация технологии SilentRun разочаровывает. Благое намерение подвергать нас звуковой атаке лишь по мере необходимости вылилось в назойливые «качели» от тишины к шуму. Возможно, помогло бы увеличение количества скоростных стадий (например, как у современных ноутбуков), но, похоже, что на примере этих продуктов мы это так и не выясним. Что касается непосредственных обязанностей кулеров (поверьте, производство шума к ним не относится!), то с охлаждением они справляются хорошо. Но и чипы на этот раз не столь горячи и вполне сравнимы с предыдущими продуктами Nvidia. Сами карты в процессе работы, конечно же, греются, но по сравнению с GeForce 5800 Ultra награждаются званием «холодные». О водителе, здоровой еде и своевременности Еще раз обратим свой взор на снимок видеокарты. В правом ближнем углу установлен стандартный 12-вольтный коннектор (через такой же вы подключаете, например, винчестеры). Да, и на этих картах есть возможность подпитки извне. Но здесь это именно возможность, а не необходимость, как у 5800U.В принципе, если не подключить дополнительное питание, драйвер по-прежнему выдает то же сообщение о недостатке питания и снижении рабочей частоты GPU (см. скриншот), что и при тестировании NV30. Да, и то только у 5200U! Но на самом деле ни снижения частот, ни уменьшения производительности не происходит ни у одного из чипов. Более того, они стабильно работают в таком режиме — оба выдержали по три часа закольцованного 3DMark’а 2001 SE! Конечно же, финальное тестирование проводилось с подключением дополнительного питания.Вообще, драйвер ведет себя так же, как и на NV30. Единственное заметное отличие — отсутствие гибридных режимов сглаживания 6xS и 8xS. Впрочем, памятуя о падении производительности в этих режимах на 5800U, можно понять, что на упрощенных версиях употреблять их можно было бы разве что для просмотра слайдов. Так что печаль наша будет светла и недолговечна.На предоставленных нам картах использовалась DDR-память производства Hynix со временем доступа 2,5 нс, то есть теоретически она способна работать на частоте до 400 МГц (эффективная — 800 МГц). Но разгон на этих картах просто не имеет смысла. Напомню, что это референс-карты от Nvidia (то есть они являются шаблоном, образцом для реальных производителей). Что будут представлять собой серийные образцы от ASUSTeK, Gainward, MSI и других — пока не известно. Ясно, что кардинальных изменений не будет, но все же рассмотрим потенциал разгона позже именно на серийных моделях.Разгон ядра, как и на NV30, становится доступен только после правки реестра Windows. И здесь вскрылось еще одно различие в поведении драйвера. У NV34, так же как и у NV30, рабочие частоты разведены на режимы 2D и 3D. Но при этом частоты в обеих конфигурациях одинаковые (у NV30 в 3D 500 МГц /1000 МГц, в 2D — 300 МГц /600 МГц). А у NV31 частоты и вовсе не разведены. Результаты разогнанных чипов не приводятся по вышеописанным причинам. Конечно, чипы у всех производителей будут аналогичные. Но тестировать чип в отрыве от его окружения глупо. А это окружение может серьезно меняться от производителя к производителю. Ну и переходя (наконец-то, скажут некоторые) к тестированию, «отконстатирую» еще один приятный факт — качество 2D у обеих карт оказалось ничуть не хуже, чем у GeForce FX 5800 Ultra, которое в свою очередь не уступало качеству Matrox Parhelia. О магии чисел и прочих странностяхМ-да. А вот с выбором конкурентов есть небольшие затруднения. Забегая немного вперед, скажу, что предположительно цена на GeForce FX 5200 Ultra составит от 100 до 150 долларов. Это означает, что в Москве они первое время будут стоить 150-170 долларов (дороговато для Low-End, да?). В принципе, в этой ценовой категории располагается Radeon 9500 с 64 или 128 Мбайт памяти. А ниже только 9000 Pro, но он стоит уже меньше 100 у. е. или слегка вылезает за эту границу. В данной ситуации, на мой взгляд, некорректно сталкивать его с GeForce FX 5200 Ultra. Возможно через пару-тройку месяцев, если цена на новинку упадет до нужного предела, мы сравним производительность этих соседей по «позиционированию». Пока замечу лишь, что продукт ATI проигрывает в большинстве реальных DirectX-приложений и выигрывает в OpenGL-играх. Забавно, что более продвинутый GeForce FX 5600 Ultra будет конкурировать с тем же Radeon 9500, несущим 64 Мбайт, а также его 128-мегабайтной Pro-версией (пиксельных конвейеров уже восемь!). Обе карты от отлично зарекомендовавшего себя производителя Sapphire. Начнем по традиции с некоторых результатов в синтетическом 3DMark 2001 SE.Разочаровывает результат высокополигональной сцены с восемью источниками света — проигрыш там, где NV30 доминировал с двукратным преимуществом. Вообще, кроме как о победах 5600U над R9500 в мультитекстурировании и пиксельных шейдерах сказать хорошего не о чем. А что в следующей версии этого бенчмарка — 3DMark 03?По большому счету, та же картина. Опять 5600U смог обогнать обычный R9500 в мультитекстурировании, на этот раз удалось выиграть и при наложении одной текстуры, но нет и преимущества в пиксельных шейдерах версии 2.0. 5200U снова безнадежно отстал. Посмотрим, что происходит в реальных приложениях.В Unreal Tournament 2003 ускоритель 5200U немного выправляет ситуацию, сокращая отставание от Radeon 9500 с ростом разрешения. На 1600х1200 они приходят уже с равным результатом. 5600U легко обходит обычный вариант R9500, но Pro-версия для него недосягаема — разрыв в 12-15% наблюдается во всех разрешениях.В Serious Sam: The Second Encounter карта на 5600U обогнала обычный R9500 с минимальным преимуществом, а в разрешении 1280х1024 даже немного проиграла. Отставание от R9500 Pro выросло до 20-35%. Впрочем, с этим движком и у 5800U были серьезные проблемы. Преемственность — хорошая вещь, но не в подобных случаях. В общем-то, эти две игры достаточно хорошо (читай: типично) отражают соотношение сил при использовании DirectX и OpenGL. При использовании первого API дела продуктов Nvidia идут достаточно хорошо. Хотя 5200U и отстает, но не столь катастрофично, как в OpenGL. Правда, использование другой демки в «Серьезном Сэме» немного сокращает отрыв, Return to Castle Wolfenstein его даже несколько увеличивает, показывая, что ситуация эта закономерна для OpenGL-приложений. Таким образом, можно сделать вывод, что в стандартных режимах GeForce FX 5200 Ultra очевидно проигрывает Radeon 9500, имеющему даже 64 Мбайт памяти. GeForce FX 5600 Ultra в DirectX приложениях легко обыгрывает обычный Radeon 9500, в OpenGL на равных с ним тягается, но Pro-версия от ATI заметно быстрее при использовании обоих API. При использовании полноэкранного сглаживания (четырехкратный мультисэмлинг с обеих сторон) ситуация аналогичная. Лишь в DirectX на высоких разрешениях она немного улучшается. Включение же анизотропии ставит все с ног на голову. В DirectX новички еще ведут себя прилично — процент падения производительности при использовании режима Performance-Balanced такой же, как и у продуктов ATI, у которых включался режим 16x Quality. Он составил 35-40%. Performance-Aggressive позволил сократить этот показатель у GeForce’ов до 15%. Что, естественно, позволило им выигрывать даже по абсолютным показателям. Но в OpenGL они просто с цепи сорвались. Серьезность Сэма удерживала процент падения производительности у новеньких в сбалансированном режиме в районе 20%, но в агрессивном он снизился до 10-12%. А движок Return to Castle Wolfenstein решил, что анизотропия — это не та вещь, которую стоит замечать. В результате, даже в режиме Performance-Balanced производительность упала лишь на 5-7%. Это позволило, наконец-то, выбиться NV31 и NV34 в безоговорочные лидеры. Напоследок, по многочисленным просьбам читателей приведу результаты видеокарт в DOOM III Alpha. Хочется подчеркнуть, что доступная сейчас на рынке версия является ужасающе «кривой» программой, созданной только для демонстрации технологий будущей игры. Делать какие-либо выводы на основе результатов, показанных здесь чипами, было бы опрометчиво. А потому никаких комментариев. О пятнах на солнце и астрологии «Начну заканчивать» информацией о модификациях и предполагаемых ценах. Вот что предлагает Nvidia своим партнерам: • GeForce FX 5200 — частоты неизвестны, 64/128 Мбайт локальной памяти, цена от 80 до 100 долларов; • GeForce FX 5200 Ultra — 325 МГц/325 МГц DDR, 64/128 Мбайт локальной памяти, цена от 100 до 150 долларов; • GeForce FX 5600 — частоты неизвестны, 128 Мбайт локальной памяти, цена около180 долларов; • GeForce FX 5600 Ultra — 350 МГц/350 МГц DDR (возможно, DDR II), 128/256 Мбайт локальной памяти, цена от 200 долларов. Как мы убедились, в стандартных режимах новинки уступают своим прямым «ценовым» конкурентам. Сюда же относится GeForce 4 Ti 4200-8X (NV28). По производительности он идет вровень, а зачастую даже обходит 5600U. Но только в стандартных режимах. Уже при включении полноэкранного сглаживания его результаты скатываются на уровень 5200U. Таким образом, делать свой выбор в пользу новых «массовиков» от Nvidia стоит только в том случае, если вы часто используете анизотропную фильтрацию и FSAA. Иначе, стоит обратить свой взор на Radeon 9500/Pro или на различные модификации GeForce 4 Ti 4200. Можно, конечно, упомянуть еще и о аппаратной поддержке DirectX 9, которая отсутствует у стареньких NV25, 28. Но низкая производительность новых GeForce’ов вряд ли позволит их хозяевам задействовать интересные эффекты на базе этого API в будущих играх. Но и в этом темном царстве есть лучик света для новинок. И дарят его… ATI с партнерами! Дело в том, что найти даже в Москве Radeon 9500 Pro довольно затруднительно. Производители восприняли его без большого энтузиазма, так что количество доступных видеокарт очень мало. Конечно, 5200U от этого ни холодно, ни жарко. А 5600U, таким образом, остается в гордом одиночестве — с обычным Radeon 9500 он справляется. Самая сложная ситуация именно у младшего брата — NV34. Если его цена не упадет вплотную к отметке 100 долларов, дела его на рынке пойдут со страшным скрипом. Radeon 9500, находящийся в нише «от 150 долларов» обыгрывает его по всем статьям. Не стоит забывать также, что ATI уже объявила новые чипы (подробности о них можно прочитать по адресу www.ferra.ru/online/video/24809), нацеленные на те же секторы рынка, что и рассматриваемые сегодня видеокарты. Это Radeon 9200/Pro и Radeon 9600/Pro. Относительно них пока все те же вечные вопросы: когда же они появятся на прилавках, и сколько это будет стоить? Особенно тут интересен Radeon 9600. Справедливости ради, еще раз напомню, что в тестировании принимали участие референс-карты. На их основе можно лишь предполагать о производительности серийных моделей. А к моменту их появления в магазинах Nvidia успеет доработать драйвер, что может заметно сказаться на результатах. Так что эту статью стоит рассматривать лишь как информацию к размышлению, а не отчет о положении на рынке.