GigaByte GV-RX80L256V – взгляд через призму времени
В начале 2005 года компания ATI анонсировала несколько решений, предназначенных для рынка Hi-End. Топ версия RX800XT показала себя во всей красе. Тогда же были предоставлены решения для нижнего Hi-End, RADEON X800XL и X800, основанные на базе 0,11 мкм чипа R430. Прошло чуть больше года. Цены на RADEON X800XL ползли вниз, а с выходом нового поколения графики ATI RADEON X1000 цены на решения прошлого поколения стали ещё ниже. Уже сейчас видеокарты, построенные на базе RADEON X800XL, можно приобрести по очень привлекательной цене в районе $280. И это не за видеокарту noname-производителя или компании третьего эшелона – за эти деньги без проблем можно купить видеокарту производства компании GigaByte. Именно такой продукт попал к нам на тестирование. Однако прежде чем перейти к подробному рассмотрению GigaByte GV-RX80L256V, давайте немного поговорим о RADEON X800XL.
Выше мы уже отмечали, что данное графическое решение основано на чипе R430, который является прямым наследником R423 (RX800XT PCI-E). Однако, в отличие от своего прожорливого прародителя, R430 более скромен в плане потребления электроэнергии, соответственно, это качество распространяется и на тепловыделение. Этими возможностями он, конечно же, обязан более современному техпроцессу в 0,11 мкм.
Технические характеристики на сегодняшний день уже не вызывают восторженного удивления: 6 вертексных процессоров и 16 пиксельных конвейеров на фоне RADEON X1900 (48 пиксельных процессоров, объединённых в квады, и 8 вертексных процессоров) выглядят как-то скромно. Прогресс налицо, и всё же, учитывая привлекательную цену, нам не терпится посмотреть на RADEON X800XL через призму сегодняшнего дня.
GigaByte GV-RX80L256V
Технические характеристики картыGigaByte GV-RX80L256V | |
Производитель карты | GigaByte |
Графический процессор | R430 |
Частота чипа, МГц | 400 |
Память | G-DDR 3, 256 Мбайт |
Частота памяти, МГц | 490 (980 DDR) |
Ширина шины памяти, бит | 256 |
Интерфейс | PCI Express 16x |
RAMDAC | 2x400 МГц |
Количество вершинных конвейеров | 6 |
Количество пиксельных конвейеров | 16 |
API | Direct X 9.0c, OpenGL 1.5 |
Контроль системы охлаждения | Отсутствует |
Дополнительное питание | Отсутствует |
Разъёмы подключения мониторов | D-Sub и DVI |
Наличие TV-Out | Да |
Наличие TV-IN | Нет |
Цена, $ | 270-300 |
Видеокарта GigaByte GV-RX80L256V поставляется в большой коробке достаточно броского и симпатичного дизайна. Однако, честно говоря, различные вариации изображений роботов, монстров и девочек в доспехах уже изрядно набили оскомину. Дизайнерам и маркетологам явно есть над чем поработать, ведь встречают, как известно, по одежке. Особенно это актуально в больших компьютерных супермаркетах, ведь именно коробкой можно привлечь внимание покупателя. Размеры коробки очень велики, учитывая содержимое:
- 1 переходник DVI-I->D-Sub;
- коммутационный блок VIVO и YPbPi;
- руководство по установке;
- CD с драйверами;
- CD с ПО CyberLink (PowerDirector, MediaShow, MusicMatch, PowerDVD, PowerProducer DVD, Power2Go и PowerDVD Copy);
- CD с компьютерной игрой «Thief Deadly Shadows»;
- CD с компьютерной игрой «Joint Operations».
Комплект поставки порадовал, есть всё необходимое. А коммутационный блок очень удобен, благодаря ему можно без проблем задействовать видеовход одновременно с подключением HDTV-устройства. С обычными разветвителями VIVO, YPbPr и кабелями S-Video, RCA осуществить это попросту невозможно.
Видеокарта GigaByte GV-RX80L256V является копией эталонного дизайна, предложенного ATI. В этом нет ничего удивительного или плохого. Ни для кого не секрет, что разработка PCB с нуля требует больших средств, а референс, предложенный канадской компанией, достаточно хорош. Однако, в отличие от многих компаний-производителей видеокарт, просто скопировавших референсную видеокарту, GigaByte поработал над системой охлаждения. GigaByte GV-RX80L256V использует пассивную систему охлаждения, состоящую из двух больших радиаторов и медной пластины. Последняя установлена прямо на графический процессор. Непосредственно к самой пластине припаяны тепловые трубки с легко закипающей жидкостью, по которым тепло передаётся на задний радиатор. Лицевой радиатор припаян к медной пластине, он также отводит тепло от сердечника, т.е. медной пластины.
Кристалл графического процессора контактирует с подошвой радиатора через слой густой белой термопасты, память не имеет контакта с радиатором. Особых проблем из-за этого возникнуть не должно, память GDDR3 490 (980 DDR) МГц не сильно греется, и всё же 100- процентную гарантию того, что не возникнет «теплового мешка», мы дать не можем.
Эффективность системы охлаждения идеальной назвать нельзя, видеокарта изрядно нагревается, и всё же при длительном и изнурительном тестировании претензий к GigaByte GV-RX80L256V не возникло. Видеокарта ни разу не зависла, и артефакты не появлялись.
А об акустических характеристиках RX80L256V говорить не стоит: здесь и так всё очевидно. Именно поэтому данная видеоплата может быть весьма удачным выбором при формировании абсолютно тихого компьютера.
Видеокарта оснащена следующими выходами: один D-Sub, один DVI и S-Video.
Несмотря на то, что у GigaByte GV-RX80L256V распаян чип Rage Theater, карта не оснащена дополнительным разъёмом для подключения композитного видеовхода.
Разъём для подключения внешнего питания у GV-RX80L256V также отсутствует. Выше мы уже отмечали, что R430 выполнен по 0,11 мкм техпроцессу, поэтому энергопотребление X800 XL невелико. Мощности, подаваемой через разъём PCI Express x16, вполне достаточно для питания 16-конвейерного RADEON X800 XL.
Посадочные места для памяти имеются с обеих сторон PCB, чипы памяти расположены в традиционном стиле ATI в виде буквы L.
Графический процессор, как и положено по спецификации RADEON X800 XL, работает на частоте 400 МГц.
В видеокарте используется память Samsung K4J55323QF-GC20. Эти чипы имеют ёмкость 512 Мбит, время доступа 2,0 нс и напряжение питания 1,8 В.
Номинальная рабочая частота составляет 500 (1000) МГц, но в ATI RADEON X800 XL память работает на частоте 490 (980 DDR) МГц. Поскольку ёмкость одной микросхемы равна 512 Мбит, 4 таких микросхемы в сумме дают нам 256 Мбайт. Ширина шины памяти у GigaByte GV-RX80L256V составляет 256 бит.
Разгон
Память Samsung с маркировкой K4J55323QF-GC20 показала себя не очень хорошо. Нам удалось повысить частоты с номинальных 400 МГц и 490 (980 DDR) МГц до 450 МГц и 560 (1120 DDR) для графического чипа и памяти соответственно. Таким образом, прирост таковых частот в процентном показателе составил: 12,5% для чипа и 14% для памяти.
Видеокарта разгонялась при помощи утилиты RivaTuner. Стабильность работы при разгоне проверялась с помощью бенчмарка 3DMark 2006, который прокручивался три раза. Если появлялись искажения на мониторе, частоту памяти понижали на несколько мегагерц. Если компьютер зависал, частоту графического ядра понижали на несколько мегагерц. Если же все три раза бенчмарк прокручивался нормально, то разгон удался. Для дополнительного охлаждения применялся, в частности, вентилятор, обдувающий память видеокарты.
Тестирование
В тестировании принимали участие следующие комплектующие:
- Материнская плата:
- ASUS A8N SLI Deluxe (NVIDIA nForce4 SLI).
- Процессор:
- AMD Athlon64 4000+.
- Память:
- 2х512 MB Hynix DDR 500.
- Жёсткий диск:
- Seagate Barracuda 7, 80 GB (Serial ATA).
- Звуковая карта:
- SoundBlaster Audigy ZS.
- Видеокарта:
- NVIDIA GeForce 6600
На тестовом стенде была установлена операционная система Microsoft Windows XP с установленным Service Pack 2, а также тестовые программы и реальные игровые приложения:
Драйверы:
- драйвер для видеокарт NVIDIA: ForceWare 78.01;
- драйвер для видеокарт ATI: CATALYST 8.173.1-050921a-026915E;
- драйверы для материнской платы на NVIDIA nForce4 SLI: последние с сайта NVIDIA на момент тестирования.
Трёхмерные шутеры с видом от первого лица:
- «Chronicles of Riddick»;
- «Doom III»;
- «FarCry»;
- «F.E.A.R.»;
- «Half-Life 2»;
- «Unreal Tournament 2004»;
- «Call of Duty 2»;
- «Quake 4»;
- «Serious Sam 2».
Как проходило тестирование
На плате ASUS A8N SLI Deluxe (NVIDIA nForce4 SLI) активизировался двухканальный контроллер памяти посредством установки двух одинаковых модулей памяти 512 MB Hynix DDR 500 в соответствующие слоты. Тайминги памяти были выставлены как 2.0/5/3/3.
Основные параметры в драйверах видеокарт NVIDIA и ATI были выставлены следующим образом:
NVIDIA ForceWare 78.01:
- Image Settings: Quality;
- Trilinear optimization: On;
- Anisotropic mip filter optimization: Off;
- Anisotropic sample optimization: On;
- Vertical sync: Off;
- Остальные настройки: по умолчанию.
ATI CATALYST:
- Mipmap Detail Level: Quality;
- Adaptive antialiasing: Off;
- Temporal antialiasing: Off;
- Quality AF: Off;
- CATALYST A.I.: Standart;
- Wait for vertical refresh: Always off;
- Остальные настройки: по умолчанию.
Качество 2D
Этот параметр довольно спорный, и оценить его можно только субъективно, так как качество выводимого изображения зависит и от монитора, и от соединительного кабеля.
Качество используемых в тестировании видеокарт в разрешениях 1600 х 1200 х 85 Гц, 1280 x 1024 x 100 Гц, 1024 x 768 x 120 Гц можно охарактеризовать как хорошее.
Результаты тестирования
Мы не стали приводить результаты тестирования в различных синтетических тестах – архитектура ATI RADEON X800XL изучена вдоль и поперёк. Перед нами стояли совершенно другие цели: познакомить вас, дорогие читатели, с видеокартой GigaByte GV-RX80L256V и взглянуть на производительность RADEON X800XL с прицелом на сегодняшний день, поэтому для тестирования мы постарались подобрать хороший набор компьютерных игр, включая самые яркие релизы прошедшего года: «Quake 4», «Call of Duty 2», «Serious Sam 2», «F.E.A.R.».
С пиксельными шейдерами 2.0 архитектура RADEON X800 справляется очень хорошо. Видеокарта GigaByte GV-RX80L256V показывает очень хороший результат: можно без проблем играть во всех разрешениях, включая 1600 х 1200. Даже в этом режиме GV-RX80L256V обеспечивает достаточное количество fps для комфортной игры.
Включение антиалиасинга и анизотропной фильтрации вызывает падение производительности, однако, благодаря высокой пропускной способности подсистемы памяти, играбельность сохраняется вплоть до самого высокого разрешения. В 1600 х 1200 при включённом FSAA 4x и Aniso 16x ATI RADEON X800XL обеспечивает порядка 47 fps, а благодаря разгону по чипу и памяти, это значение увеличивается до полусотни, чего вполне достаточно для комфортного времяпрепровождения за игрой в «FarCry».
Общеизвестный факт, что творение Джона Кармака неравнодушно к видеокартам NVIDIA. Это нетрудно заметить – достаточно посмотреть на диаграммы: продукты калифорнийской компании значительно опережают оппонентов из ATI. Однако не всё так плохо, для канадских решений тот же RADEON X800XL обеспечивает достаточное количество кадров в секунду. Исключение составляет самый тяжёлый режим, включение FSAA 4x и Aniso 16x пагубно сказывается на производительности видеокарт, и если в разрешениях 1024 х 768 и 1280 х 1024 можно играть, то разрешение 1600 х 1200 ставит GigaByte GV-RX80L256V на колени. Не помогает и оверклокинг, 26 fps всё-таки мало, минимальный уровень частоты кадров, при котором можно играть, составляет 30 fps, хотя в случае с «Doom III», полагаясь на личный опыт, 30 кадров в секунду также будет мало.
Обратите внимание на разницу в производительности между ATI RADEON X800XL и NVIDIA GeForce 6800GT. При выключенной анизотропной фильтрации и антиалиасинге GeForce 6800GT значительно опережает RADEON X800XL. Включение FSAA 4x и Aniso 16x приводит к сокращению разрыва в производительности, а в разрешении 1280 х 1024 его и вовсе нет, оба решения показывают одинаковое количество fps.
Для тестирования в «Half-Life 2» мы пользуемся собственной демкой, которая представляет собой сцены уличных сражений (уровень d3_c17_02) с огромным количеством выстрелов и взрывов. Наше демо очень сильно нагружает не только видеокарту, но и процессор.
Видеокарта GigaByte GV-RX80L256V в «Half-Life 2» чувствует себя очень уверенно, даже в самых тяжёлых режимах. При включенном антиалиасинге и анизотропной фильтрации в разрешении 1600 х 1200 RADEON X800XL демонстрирует свыше полусотни fps, чего более чем достаточно для комфортной игры в «Half-Life 2».
Если сравнивать ATI RADEON X800XL и NVIDIA GeForce 6800GT, то мы наблюдаем картину, аналогичную той, которую мы могли видеть в «Doom III», с поправкой на то, что здесь аутсайдером выступает продукт калифорнийской компании. И снова мы видим, что с включением FSAA 4x и Aniso 16x и ростом разрешения разница между RADEON X800XL и GeForce 6800GT сокращается.
«F.E.A.R.» – хит продаж прошедшего года, который успешно продаётся и сегодня. Современный Direct X 9.0 движок игры наводнён всевозможными шейдерами (включая шейдеры версии 3.0), попиксельным освещением и всевозможными эффектами. Как следствие,
«F.E.A.R.» – одна их самых требовательных компьютерных игр на сегодняшний день.
GigaByte GV-RX80L256V обеспечивает приличный уровень производительности, особенно при поднятии частот чипа и памяти. Видеокарты стоимостью в $280 вполне достаточно для комфортной игры в «F.E.A.R.». Даже в разрешении 1600 х 1200 RADEON X800XL обеспечивает так называемый минимум fps, при котором «F.E.A.R.» играбельна, однако это всё условности: кому-то достаточно 30 fps, а для кого-то мало и 50. Есть и ещё один момент, ведь X800 серия не поддерживает третьи шейдеры, поэтому продукты NVIDIA имеют явный выигрыш не в плане производительности, а в плане качества эффектов.
При включенном сглаживании и анизотропной фильтрации играть можно лишь в разрешении 1024 х 768. При более высоком разрешении о комфортной игре с RADEON X800XL можно забыть.
Что касается общего fps, то «F.E.A.R.» демонстрирует паритет между продуктами калифорнийской и канадской компаний. Из общей картины выбивается лишь разогнанная GigaByte GV-RX80L256V.
Включение FSAA 4x и Aniso 16x пагубным образом сказывается на производительности NVIDIA GeForce 6800GT, и вперёд вырывается ATI RADEON X800XL.
«Call of Duty 2» – замечательное продолжение тематики второй мировой войны. Компьютерная игра получила обновленный движок (напомним, что первая часть «Call of Duty» использовала движок легендарного «Quake III»), соответствующий спецификации DirectX 9. Компания Infinity Ward (разработчик движка) хорошо поработала над своим проектом: карты нормалей, реалистичные тени, эффекты дыма и освещения.
Как видим, «игрушка» получилась достаточно требовательной, ни одна из участвующих в тестировании видеокарт не смогла преодолеть рубеж 60 кадров в секунду. Ближе всех подобралась разогнанная по чипу и памяти GigaByte GV-RX80L256V.
Игра довольно динамичная, поэтому комфортно играть можно лишь в разрешении 1024 х 768 и обязательно с выключенными FSAA 4x и Aniso 16x. Повышение разрешения сводит все прелести игрового процесса на нет, а включение FSAA 4x и Aniso 16x «Call of Duty 2» и вовсе противопоказано при использовании ATI RADEON X800XL. Достаточно посмотреть на диаграммы, чтобы убедиться в этом самостоятельно.
Что касается насущного вопроса, ATI или NVIDIA, то первенство в «Call of Duty 2» за последней: GeForce 6800GT обеспечивает несколько больший уровень производительности, нежели решение канадского производителя графических чипов.
Продолжение культовой игры. В основе «Quake 4» лежит модифицированный движок «Doom III». Модификациям подверглись в основном прорисовки уровней и моделей, помимо этого четвёртая реинкарнация «Quake» получила большее количество эффектов освещения.
Из графиков хорошо видно, что ATI RADEON X800XL прекрасно справляется с «Quake 4», производительности GigaByte GV-RX80L256V достаточно для комфортной игры даже в самых высоких разрешениях. Включение полноэкранного сглаживания и антиалиасинга несколько снижает общий индекс производительности, однако даже в самом высоком разрешении 1600 х 1200 RADEON X800XL обеспечивает достаточное количество fps.
Что касается повышенной любви думовского движка к видеокартам NVIDIA, то в этом плане «Quake 4» солидарен с обоими лидерами графического рынка: NVIDIA GeForce 6800GT даже несколько отстаёт от ATI RADEON X800XL. Отставание продукта калифорнийской компании нельзя назвать большим, особенно в тяжёлых режимах с включёнными FSAA 4x + Aniso 16x.
Продолжение «Серьёзного Сэма» – ярко и стильно. Графический движок «Serious Sam 2» очень требователен к производительности видеокарты, и это хорошо видно из диаграмм. Игра использует карты нормалей, реалистичные отражения, продвинутые тени плюс огромное количество всевозможных шейдерных моделей, включая Shader Model 3.0.
Видеокарты, основанные на графических чипах ATI, включая GigaByte GV-RX80L256V, демонстрируют просто ужасные результаты. Даже в самом лёгком режиме при разрешении 1024 х 768 и с отключёнными полноэкранным сглаживанием и антиалиасингом на RADEON X800XL играть невозможно, компьютерная игра то и дело подтормаживает.
Давайте посмотрим на результаты NVIDIA. Ей тоже приходится нелегко, и всё же на GeForce 6800GT можно играть в разрешении 1024 х 768. Включение FSAA 4x + Aniso 16x в буквальном смысле «ставит» участников тестирования, ни один из которых не справился с обеспечением хотя бы минимального уровня игровой производительности в 30 fps.
И если с ATI проблема столь малой производительности ясна, то в чём просчет компании NVIDIA? Почему продукты калифорнийской компании демонстрируют столь малую производительность в «Serious Sam 2»? На данный момент мы не готовы ответить на этот вопрос.
Компьютерная игра «Chronicles of Riddick» использует API OpenGL, с которым, как известно, у продуктов ATI «никогда не ладилось». Видеокарта GigaByte GV-RX80L256V, основанная на ATI RADEON X800XL, не стала исключением. Данного решения достаточно лишь для игры в разрешениях 1024 х 768 и 1280 х 1024. В более тяжёлых режимах при полноэкранном сглаживании и антиалиасинге более-менее комфортно играть можно лишь в разрешении 1024 х 768.
Конкурент в лице NVIDIA GeForce 6800GT выглядит более привлекательно. Видеокарта обеспечивает необходимое количество кадров в секунду для комфортной игры во всех разрешениях, включая режимы с FSAA 4x + Aniso 16x.
Старичок «Unreal Tournament 2004» – не очень серьёзное испытание даже для решения годичной давности. RADEON X800XL и GeForce 6800GT справляются с этим тестом на 5+ во всех разрешениях, включая самые тяжёлые режимы с включёнными анизотропной фильтрацией и антиалиасингом.
Однако общий fps, демонстрируемый канадским решением, несколько больше, чем у продукта калифорнийской компании.
Выводы
Несмотря на возраст в один год, решение, в основу которых лёг графический чип ATI RADEON X800XL, актуально и на сегодняшний день. Данное решение обеспечивает приличный уровень производительности в современных компьютерных играх. В большинстве приложений RADEON X800XL опережает своего калифорнийского конкурента NVIDIA GeForce 6800GT. Исключение составляют пресловутый «Doom III» и компьютерные игры, использующие API OpenGL, например, «Chronicles of Riddick». Будем надеяться, что в будущем компания ATI исправит ситуацию, выпустив эффективные драйверы для OpenGL.
Что касается самой видеокарты GigaByte GV-RX80L256V, то это достаточно добротный продукт, с отличным качеством изготовления, хорошей комплектацией и привлекательной ценой. Отдельным словом хотелось бы похвалить GigaByte за то, что она не стала копировать референсный дизайн, предложенный ATI, и поработала над системой охлаждения, благодаря которой видеокарта получилась совершенно бесшумной, что, несомненно, огромный плюс. В остальном это обычный ATI RADEON X800XL, разгонный потенциал которого оставляет желать лучшего, виной всему чип ATI R430.
Если вы ищете видеокарту в ценовом диапазоне $270-300, обратите внимание на GigaByte GV-RX80L256V.