Gigabyte GeForce GTX 1080
GV-N1080G1 GAMING-8GD
Цена 54'990 руб.
ASUS GeForce GTX 1070
STRIX-GTX1070-O8G-GAMING
Цена 38'890 руб.
ASUS GeForce GTX 1070
TURBO-GTX1070-8G
Цена 36'990 руб.

Сервера размещены в

Мобильные устройства
Конференция
Персональные страницы
Wiki
Статистика разгона CPU (+1 за неделю, всего: 26883) RSS     



Объявления компаний (реклама) и анонсы
  • Новейшая GTX 1060 KFA2 в Регарде дешево
  • Новейшая GTX 1060 KFA2 EX OC тоже дешево
  • Выиграй Porsche Cayenne!

Вы можете отметить интересные вам фрагменты текста,
которые будут доступны по уникальной ссылке в адресной строке браузера.

Тестирование двух видеокарт GeForce 8800 GTS на платформе AMD Athlon 64 X2

S_A_V 22.12.2006 00:01 ссылка на материал | версия для печати | обсуждение | архив

Содержание

1. Введение
2. Основные технические характеристики GeForce 8800 GTX и GeForce 8800 GTS
3. Обзор Chaintech GAE88GTS (GeForce 8800 GTS)
4. Вольтмод GPU и памяти на референсных видеокартах GeForce 8800 GTS
5. Определение оптимальной частоты shader-блока GPU и таймингов памяти
6. Тестирование
6.1. Тестовая конфигурация и драйверы
6.2. Температурный режим
6.3. Тестирование в бенчмарках и играх
6.4. Максимальные результаты в бенчмарках
7. Заключение

1. Введение

Данная статья посвящена тестированию двух видеокарт GeForce 8800 GTS на новом графическом чипе G80. С быстродействием таких видеокарт на платформе с процессором Intel Core 2 Duo вы уже могли ознакомиться немного ранее. Если вы планируете покупку данной видеокарты, но по каким-либо причинам до сих пор не сменили платформу и используете уже не очень быстрый по современным меркам процессор Athlon 64 X2, тогда, возможно, вам будет интересно, насколько более низкую производительность покажет данная видеокарта в бенчмарках и играх при использовании платформы на базе процессора AMD. A если ваша материнская плата имеет поддержку технологии SLI, тогда вы можете посмотреть прирост производительности от установки в компьютер второй видеокарты GeForce 8800 GTS.

Кроме исследования достаточности (или недостаточности) скорости платформы AMD Athlon X2, будет рассказано об особенностях установки альтернативного охлаждения на видеокарты GeForce 8800 GTS/GTX, о разгоне частот блока геометрии и шейдерного блока GPU G80 и о вольтмоде видеокарт GeForce 8800 GTS. Так же в статье приведены результаты тестирования температурного режима при использовании как воздушного, так и водяного охлаждения.

2. Основные технические характеристики GeForce 8800 GTX и GeForce 8800 GTS

  GeForce 8800 GTX GeForce 8800 GTS
GPU G80-GTX G80-GTS
GPU DeviceID 0x0191 0x0193
Шейдерные процессоры 128 (unified) 96 (unified)
Техпроцесс 90-nm (low-k) 90-nm (low-k)
Частота GPU 576(1350) 513(1188)
Частота памяти 1800 1600
Объем и тип памяти 768Mb GDDR3 640Mb GDDR3
Разрядность шины памяти 384 bit 320 bit
Интерфейс PCI-E x16 PCI-E x16

3. Обзор Chaintech GAE88GTS (GeForce 8800 GTS)

Несмотря на то, что эта видеокарта ничем кроме наклейки и комплектации не отличается от других GeForce 8800 GTS, она тоже относится к серии APOGEE, хотя и не использует альтернативного охлаждения и не имеет повышенных частот. С ее характеристиками вы можете ознакомиться на сайте производителя, а образ BIOS скачать из нашего файлового архива.

Видеокарта поставляется в коробке с дизайном старого типа – большой и без прозрачного пластикового окна. Но сама видеокарта тоже немаленькая и нормально фиксируется внутри коробки.

Комплектация:

  • руководство пользователя;
  • диск с драйверами ForceWare;
  • диск с набором программ InterVideo WinCinema;
  • диск с набором игр Game Pack V1.0 (Age of Wonders 2, Serious Sam 2, Rally Trophy Max Payne, Tropico);
  • кабель RCA и кабель S-Video;
  • два переходника DVI/D-SUB;
  • переходник HDTV-out;
  • переходник для подключения дополнительного питания (2 x 4-pin Molex -> 6-pin PCI-E);
  • отвертка;

Так выглядит видеокарта с установленной системой охлаждения:

Система охлаждения представляет собой алюминиевый радиатор с большой медной вставкой, медными ребрами и тепловой трубкой. Она достаточно эффективная, а если ее использовать на небольших оборотах, то она еще и тихая. Радиатор через термопрокладки контактирует со всеми чипами памяти, элементами системы питания и чипом NVIO. Из-за больших размеров система охлаждения закрывает почти всю поверхность видеокарты и перекрывает соседний слот на материнской плате. В качестве термоинтерфейса используется большое количество серой термопасты, которая еще не высохла полностью, но все же ее трудно нанести тонким слоем (скатывается в комки). Перед тестированием видеокарты на разгон и температурный режим я заменил эту термопасту на Geil.

При первом запуске этой системы охлаждения возникла проблема с тем, что провод для подключения питания свернулся вниз в петлю и заблокировал находящийся прямо под ним вентилятор чипсетного кулера материнской платы DFI LanParty UT nF4-D. Чипсетный вентилятор на этой материнской плате довольно сильно шумит (особенно если учесть, что напряжение на чипсете было повышено). Не заметить, что вентилятор не крутится на открытом стенде довольно сложно, а если собрать систему в корпусе, то понять, в чем дело, можно будет уже после того, как чипсет перегреется. В качестве решения провод был уложен отверткой между конденсаторами:

Дизайн PCB у Chaintech GAE88GTS такой же, как и у других GeForce 8800 GTS, выпущенных на данный момент, то есть референсный. Набор интерфейсов стандартный: два выхода DVI, выход HDTV-out, разъем для SLI-моста (интерфейс MIO) и разъем для подключения дополнительного питания. Без подключения дополнительного питания видеокарта пищит встроенным спикером и отказывается стартовать.

На карту установлен GPU G80 ревизии A2, выпущенный на 38-й неделе 2006 года. Он имеет очень большие размеры и закрыт сверху теплораспределителем, что защищает его от возможных сколов. Все отверстия вокруг GPU имеют маленький диаметр (около 2-мм), что накладывает определенные ограничения на использование систем водяного охлаждения и вынуждает либо приобретать водоблоки, разработанные специально для видеокарт GeForce 8800 GTS/GTX, либо заниматься изготовлением подходящих креплений. Точно такая же проблема уже возникала ранее с видеокартами GeForce 7800 GTX.

Видеокарта оснащена 640 МБ GDDR3-памяти, которые установлены в виде 10-ти микросхем Samsung K4J52324QE-BC12, имеющих плотность 512 Mbit и выпущенных на 40-й неделе 2006 года. Все чипы памяти расположены на лицевой стороне карты. Datasheet для этой памяти на сайте производителя отсутствует, но по Part Number Decoder можно определить, что время доступа 1.25-ns, а рабочая частота 1600 MHz.

С левой стороны от GPU находится чип NVIO ревизии A3, выпущенный на 41-й неделе 2006 года:

В него выделена поддержка интерфейсных функций (RAMDAC, Dual DVI, HDMI, HDTV). С одной стороны, это хорошо, потому что такой подход позволяет вносить изменения (улучшения) в работу вышеперечисленных функций без необходимости редизайна и без того сложного GPU G80. Но из-за использования единого радиатора для всех греющихся участков карты при смене системы охлаждения возникает проблема c охлаждением чипа NVIO.

Проведенные недавно на нашем сайте исследования показали, что применение кулеров типа Zalman VF900-Cu и Ice Hammer IH-500V еще менее эффективно, чем уже установленная система охлаждения. Поэтому остается только два варианта – доработанный процессорный кулер (вокруг GPU для этого достаточно много свободного места) с основанием, которое будет полностью закрывать всю поверхность теплораспределителя G80, либо водяное охлаждение. В случае процессорного кулера его, естественно, следует устанавливать так, чтобы поток воздуха был направлен не вверх и вниз, а в стороны. А в случае охлаждения GPU стандартным квадратным (или круглым) водоблоком, будет полезно установить дополнительный обдув видеокарты корпусным вентилятором.

Для охлаждения чипа NVIO на одной из видеокарт я использовал большой радиатор, который был изготовлен из старого процессорного кулера под Socket 370. Отверстия для крепления смещены немного в сторону относительно центра NVIO и, чтобы не повредить открытый кристалл, сбоку от него была установлена скобка, вырезанная из тонкого пластика.

А для второй видеокарты все было сделано намного проще – сверху на термопасту был посажен небольшой радиатор Zalman и закреплен куском изолированной проволоки:

Проверка показала, что оба варианта вполне достаточны для охлаждения чипа NVIO. Первый вариант, конечно, надежнее и лучше подходит для продолжительного использования, но как временное решение хватит и второго.

4. Вольтмод GPU и памяти на референсных видеокартах GeForce 8800 GTS

Точки для измерения напряжения на GPU и памяти

Измерить напряжение на GPU можно на конденсаторе C850, а для памяти на C857. Они расположены на обратной стороне карты по центру, рядом с наклейкой "RoHS сompliant":

Альтернативные точки для измерения напряжения на GPU – конденсаторы C565, C566, C567, а на памяти – C622, C647, C688. Они расположены недалеко от микросхем, контролирующих соответствующие напряжения.

По умолчанию напряжение на памяти равно 1.81V. На GPU оно составляет 1.27V в 2D режиме, а при переходе в 3D оно снижается и чем сильнее нагрузка, тем больше снижение Vgpu. Во время прохождения тестов 3DMark оно было 1.24, а во время нагрузки в ATITool уменьшилось до 1.23V. Вообще, когда подобное падение напряжения под нагрузкой происходит на материнских платах (обычно это касается Vcore), то для исправления применяется специальный вольтмод, называемый Vdroop. Но, к сожалению, для видеокарт GeForce 8800 GTS/GTX пока не найден способ устранить эту неприятную особенность.

Вольтмод GPU

Напряжение GPU на видеокартах GeForce 8800 GTS (а так же и на 8800 GTX) контролируется микросхемой Primarion PowerCode PX3540, расположенной на обратной стороне карты в левом нижнем углу. Datasheet этой модели на сайте производителя отсутствует, но есть возможность скачать datasheet к предыдущей модели PX3535 (PDF, 82Kb), которая уже применялась ранее на видеокартах GeForce 7800GTX-512 и GeForce 7900GTX. С точки зрения вольтмоддера разница между этими двумя контроллерами только в разном расположении ног. Вольтмод видеокарт GeForce 7800GTX-512 и GeForce 7900GTX выполнялся путем соединения 27-ноги (VSENP) с землей через переменный резистор. Путем прозвонки было установлено, что VSENP находится у Primarion PowerCode PX3540 на 18-й ноге и ее начальное сопротивление с землей равно 32 Ом.

Для повышения напряжения на GPU нужно соединить эту ногу с землей через переменный резистор на 1k Ом, предварительно выкрученный на максимум. После этого напряжение должно повыситься примерно на 0.04V. Но так как ноги микросхемы контроллера слишком мелкие и неудобные для пайки, то для вольтмода лучше использовать точки, указанные этой на картинке:

Карандашный вольтмод GPU на этих картах, к сожалению, невозможен. Вокруг PX3540 нет ни одного smd-элемента (резистора или конденсатора), который был бы напрямую соединен с VSENP и землей. Закрашивание резисторов, соединенных только с VSENP ни к чему не приводит. Рисовать дорожку до ближайшей земли так же бесполезно – начальное сопротивление слишком мало и таким способом его не уменьшить.

Вольтмод памяти

В качестве контроллера напряжения на памяти используется микросхема Intersil ISL6549 (datasheet, 437Kb), расположенная с обратной стороны в левом верхнем углу.

Для вольтмода памяти нужно соединить 4-ю ногу ISL6549CB (Vmem-feedback) с 7-й (земля) через переменный резистор 20k Ом.

Карандашный вольтмод памяти: для повышения напряжения на памяти нужно закрасить резистор, отмеченный на картинке как "Pencil Vmem-mod". Проверить полученное после закрашивания сопротивление можно по этой таблице:

Rmem Vmem
560 Ом 1.81V
540 Ом 1.88V
520 Ом 1.95V
510 Ом 1.99V
500 Ом 2.03V
490 Ом 2.07V

Обратный вольтмод памяти: для понижения напряжения на памяти нужно соединить 4-ю ногу ISL6549CB (Vmem-feedback) с 13-й (Phase) через переменный резистор 20k Ом либо закрасить карандашом резистор, отмеченный на картинке как "Pencil reverse Vmem-mod".

5. Определение оптимальной дельты и таймингов памяти

Определение оптимальной частоты шейдерного блока GPU G80

В графическом чипе G80 шейдерный блок (Shader Domain) работает на значительно большей (примерно в 2.3 раза) частоте, чем остальные блоки GPU. Но фиксированной дельты между частотами, как это было в GPU G7x, теперь уже нет. Вместо этого в BIOS видеокарт раздельно заданы частоты ядра и шейдерного блока. По умолчанию эти частоты составляют 576(1350) MHz у GeForce 8800 GTX и 513(1188) MHz у GeForce 8800 GTS. При изменении частоты ядра в программах для разгона видеокарт частота шейдерного блока автоматически изменяется в ту же сторону, но на величину примерно в 2 раза большую. Мониторинг текущей частоты шейдерного блока реализован в Riva Tuner v2.0 RC16.2 и в Lavalys Everest 2006 (начиная с версии v3.50.795 beta). Но можно заранее рассчитать, какая получится частота шейдерного блока после разгона, воспользовавшись следующей формулой:

Overclocked shader clock = Default shader clock / Default GPU clock * Overclocked GPU clock

Так как частота шейдерного блока может изменяться только с шагом 54, то полученное значение необходимо округлить до ближайшего целого числа, делящегося на 54 без остатка.

Как же определить оптимальное значение частоты шейдерного блока при разгоне G80? Для начала нужно найти предел разгона без изменения частот в BIOS. Затем, чтобы определить, какая из двух частот сдерживает дальнейший разгон, в BIOS по очереди прошивается на 54 большая, а затем на 54 меньшая частота шейдерного блока. Если после проверки GPU на разгон в каждом из этих трех вариантов, лучшие частоты будут получены с частотой шейдерного блока без изменения, значит менять ее и не нужно. Если вариант с уменьшенной или увеличенной частотой оказался лучше, значит можно попробовать изменять частоту шейдерного блока далее в ту же сторону и с тем же шагом (54) до тех пор, пока не будет найдено оптимальное соотношение.

На обеих протестированных видеокартах Chaintech GeForce 8800 GTS предел разгона GPU достигался без изменения частоты шейдерного блока. После замены охлаждения разгон обеих частот GPU увеличился на такую величину, при которой снова не было необходимости менять частоту шейдерного блока в BIOS. Вполне возможно, что на других экземплярах GeForce 8800 GTS/GTX все может оказаться по-другому, но тратить время на такую тонкую настройку обеих частот GPU стоит только в том случае, если у вас достаточно мощный CPU. Иначе вы можете просто не заметить никакой разницы между работой шейдерного блока на 1566 или 1620 MHz.

Тайминги памяти на видеокартах GeForce 8800 GTS

Тайминги памяти Samsung 1.25-ns на видеокартах GeForce 8800 GTS следующие:

Текущие тайминги можно посмотреть и изменить программой NiBiTor (кнопка Test Timings). Возможность прочитать из образа BIOS или сохранить BIOS c модифицированными тайминги в последней версии (3.1) программы NiBiTor не предусмотрена. Но ничто не мешает изменить их вручную при помощи любого шестнадцатеричного редактора, в том числе встроенного в сам NiBiTor (Tools -> Hex View):

На имевшихся у меня двух экземплярах GeForce 8800 GTS изменение таймингов ни к чему не привело, но на других экземплярах с менее удачным разгоном по частоте памяти, вполне возможно, что понижение таймингов даст какую-нибудь небольшую прибавку производительности.

Сравнение таймингов памяти в образах BIOS от нескольких референсных GeForce 8800 GTS (Chaintech, Asus, BFG) и 8800 GTX (EVGA, BFG, MSI) показало, что тайминги везде почти полностью совпадают, за исключением того, что в GeForce 8800 GTS Timing4 равен 28000707h, а в GTX – 00000707h. Но это несущественное отличие и оно ни на что не влияет. Совпадение по таймингам привело к тому, что можно прошивать BIOS от GTX в GTS (и наоборот), но смысла в этом нет. Видеокарта работать будет, но количество активных шейдерных процессоров от этого не изменится.

6. Тестирование

6.1. Тестовая конфигурация и драйверы

Тестирование проводилось на открытом стенде при комнатной температуре равной +21°C.

Для тестирования таких мощных видеокарт, как GeForce 8800 GTS, в конфигурации тестового стенда были заменены процессор, материнская плата и блок питания. Быстрая выборочная проверка показала, что в большинстве бенчмарков и игр даже младшая модель двуядерного процессора предпочтительнее, чем одноядерный процессор, пусть даже и c вдвое большим L2-кэшем и на 100 MHz большим разгоном. К тому же владельцев Althlon 64 X2 3800+ гораздо больше, чем владельцев Opteron 148. В качестве материнской платы была взята DFI nF4-D c возможностью стабильной работы памяти от линии +5V, что позволило разогнать память на чипах Winbond BH-5 без применения вольтмода линии 3.3V в блоке питания. Блок питания Golden Power 450W не справился даже с одной неразогнанной GeForce 8800 GTS и вместо него был взят Chieftec 620W, мощности которого хватило даже для стабильной работы SLI из двух таких видеокарт с разгоном и вольтмодом.

Конфигурация:

  • Процессор: AMD Athlon 64 X2 3800+ (Toledo/E6), разогнанный до частоты 2900 MHz при напряжении 1.6V;
  • Материнская плата: DFI LanParty UT nF4-D (rev.AB0), переделанная в SLI-D путем замыкания мостиков на чипсете;
  • Система охлаждения: модифицированная СВО Aucma CoolRiver + проточная холодная вода;
  • Термоинтерфейс: термопаста Geil (5% silver, 5% copper);
  • Оперативная память: Geil One на чипах Winbond BH-5 2*512Mb, была разогнана до частоты 241 MHz с таймингами 2.0-2-2-5 1T при напряжении 3.7V;
  • HDD: Western Digital WD2500JB (250Gb, 7200RPM, 8Mb);
  • Корпус: отсутствует (открытый стенд);
  • Блок питания: Chieftec GPS-620AB-A 620W (+12V1=16A, +12V2=25A, +12V3=17A);
  • Монитор: 17" Samsung 757NF.

Операционная система и драйверы:

  • Windows XP Pro Service Pack 2
  • DirectX 9.0c (October-2006 Redistributable)
  • nForce4 driver v6.86
  • NVIDIA ForceWare v97.02
  • AMD Athlon 64 driver v1.3.2.16
  • AMD Dual-Core Optimizer

Настройки драйвера NVIDIA ForceWare:

  • Intellisample Settings: High Quality
  • Trilinear Optimization: Off
  • Anisotropic mip filter optimization: Off
  • Anisotropic sample filter optimization: Off
  • Transparency Antialiasing: Off
  • VSync: Always Off

6.2. Температурный режим

Чтобы выяснить температуру графического процессора под нагрузкой и без нее, после загрузки системы запускался модуль мониторинга программы RivaTuner 2.0 RC16.2. Далее я ждал, пока температура стабилизируется (т.е. пока график не станет ровным) и записывал полученную температуру без нагрузки. Затем на 10 минут запускал прогрев видеокарты "волосатым кубом" в программе ATI Tool 0.25 beta 16, после чего записывал максимальную температуру. Во время определения температурного режима в системе была установлена только одна видеокарта.

Температура определялась в нескольких режимах, отличающихся частотами (с разгоном и без), напряжениями и типом охлаждения.

Частоты Напряжения Tgpu (idle/burn) Tambient (idle/burn) Охлаждение График
513(1188)/1600 1.23V/1.81V +54°C/+81°C +38°C/+54°C Дефолтовый кулер на 60% (1380 PRM) ¤
513(1188)/1600 1.23V/1.81V +50°C/+70°C +34°C/+45°C Дефолтовый кулер на 100% (2730 PRM) ¤
621(1458)/1944 1.23V/1.81V +51°C/+73°C +34°C/+48°C Дефолтовый кулер на 100% (2730 PRM) ¤
621(1458)/2106 1.23V/1.95V +45°C/+62°C +31°C/+41°C СВО + доп. обдув ¤
675(1566)/2106 1.23V/1.95V +27°C/+36°C +23°C/+29°C Проточная холодная вода + доп. обдув ¤

Если оставить автоматическое управление оборотами вентилятора, то он крутится всего на 1380 PRM и при этом хоть и не бесшумный, но тихий на фоне других источников шума (чипсетный кулер, блок питания). Температура при этом не очень высокая, но запаса разгона с вольтмодом уже не оставляет. Перед разгоном я установил обороты вентилятора на максимум (2730 PRM) и получил снижение температуры GPU на 9°C под нагрузкой и существенное увеличение шума. Но даже в этом режиме кулер был не настолько громким, как кулер на картах Radeon серии X1800/X1900 (так же установленный на 100%). После разгона без замены охлаждения, температура GPU под нагрузкой повысилась всего на 3 градуса. Далее на память был сделан вольтмод, охлаждение GPU было заменено на водяное и на обдув видеокарты было установлено два корпусных вентилятора (один обдувал систему питания и часть чипов памяти, второй – чип NVIO и вторую половину чипов памяти). В результате температура GPU понизилась еще на 9°C, но разгон остался прежним.

Следующий за 612 MHz шаг разгона GPU равен 648 и для стабильной работы на этой частоте нужно было либо еще сильнее снизить температуру, либо увеличить напряжение на GPU. Вольтмод GPU я не делал из-за необходимости сохранить товарный вид видеокарт и невозможности карандашного вольтмода, а подключение СВО к водопроводу привело к снижению температуры на 18°C и позволило разогнать GPU еще на 54 MHz, что по эффективности вполне сравнимо с небольшим вольтмодом. Но для достижения максимального эффекта все же необходимо применять вольтмод и улучшение охлаждения одновременно.

6.3. Тестирование в бенчмарках и играх

Для тестирования были использованы следующие бенчмарки и игры:

  • 3DMark06 v1.1.0 – 1280x1024, NoAA/NoAF;
  • 3DMark05 v1.3.0 – 1024x768, NoAA/NoAF;
  • 3DMark03 v3.6.0 – 1024x768, NoAA/NoAF;
  • 3DMark2001 SE build 330 – 1024x768, NoAA/NoAF;
  • Aquamark3 – 1024x768, NoAA/4xAF;
  • First Encounter Assault Recon (F.E.A.R.) v1.0.8, использовался встроенный бенчмарк;
  • Quake4 v1.2.0, Ultra Quality, VSync = Off, демо из программы a href="http://www.hocbench.com/q4.html">HardwareOC Quake4 Benchmark v1.3 (HOCdemo.demo);
  • Prey v1.2.116,VSync = Off, демо из программы a href="http://www.hocbench.com/prey.html">HardwareOC Prey Benchmark v1.0 (guru3d-6.demo);
  • Serious Sam 2 v2.070, HDR = On, встроенное демо на уровне "GREENDALE";
  • Tom Clancy's Splinter Cell 3: Chaos Theory v1.05.157, использовалось встроенное демо 01_lighthouse.dem;
  • Company Of Heroes v1.0.3, использовался встроенный бенчмарк;
  • Half-Life 2: Lost Coast (Source Engine 7 build 2547), HDR = on (full), демо d2.dem by Jordan;
  • Need for Speed: Carbon v1.2, тестирование на трассе Copper Ridge (11-я трасса в Quick Race);
  • Tom Clancy's Rainbow Six: Vegas v1.00, тестирование на площади в самом начале игры.

Во всех бенчмарках настройки не изменялись, а в играх они были установлены на максимальное качество. Единственное исключение – опция Soft Shadows в F.E.A.R. В режиме без AA и AF она была включена, а с 4xAA и 16xAF – выключена. Это было сделано из-за особенностей (глюков?) игры. Дело в том, что при включении сглаживания мягкие тени в игре не использовались, независимо от того, как была установлена эта опция в меню игры. И если в более старых версиях игры (v1.0.4) можно было включить AA путем форсирования из драйвера и тогда мягкие тени в игре оставались задействованными, то в версии 1.0.8 у меня не получилось так сделать. Даже если мягкие тени работали при первом запуске встроенного бенчмарка, то в одном из следующих запусков они могли снова самопроизвольно выключиться.

Во время тестирования в Company Of Heroes, Need for Speed: Carbon и Tom Clancy's Rainbow Six: Vegas режимы AA и AF устанавливались принудительно средствами драйвера ForceWare. В остальных играх для этого использовались встроенные средства – соответствующие пункты меню, файлы конфигурации либо параметры командной строки.

Все тесты GeForce 8800 GTS (как на одиночной видеокарте, так и на двух в режиме SLI), были проведены в трех режимах с разными частотами:

  • 513(1188)/1584 MHz – без разгона;
  • 621(1458)/1944 MHz – разгон без каких-либо модификаций;
  • 675(1566)/2106 MHz – разгон с вольтмодом видеопамяти, GPU охлаждался проточной холодной водой, алюминиевые радиаторы Zalman на чипах памяти, дополнительный обдув (по два корпусных вентилятора на каждую видеокарту);

На общий результат в 3DMark06 достаточно сильно влияет количество баллов, полученных в CPU-тестах (CPU Score), результат в которых вообще не зависит от скорости видеокарты. На Athlon 64 X2 3800+ @ 2900 MHz CPU Score был на уровне 2200 и это примерно в два раза больше, чем показывает одноядерный Athlon 64, работающий на такой же частоте, и в 1.5 раза меньше, чем разогнанный до среднего уровня Core 2 Duo. При такой разнице в CPU Score, разница в общих результатах может достигать нескольких тысяч "попугаев" даже в том случае, когда SM2.0 Score и SM3.0/HDR Score не упираются в процессор. Но в случае двух видеокарт GeForce 8800 GTS режиме SLI скорость процессора ограничивает результат даже в тестах SM2.0.

Чем мощнее видеокарта, тем сильнее проявляется нехватка скорости процессора в 3DMark05. В данном случае прирост от разгона видеокарт и включения режима SLI был только в Canyon Flight, а первые два теста показывали одинаковые результаты – 54 fps в Return to Proxycon и 43 fps в Firefly Forest.

3DMark03 остается единственным бенчмарком, в котором все еще можно получить высокие результаты на мощных видеокартах и слабой системе. Первый тест Wings of Fury на Athlon 64 X2 2900MHz выдает не больше, чем 500-520 fps, а на разогнанном Core 2 Duo можно получить примерно в два раза больше. На результат в остальных трех тестах скорость процессора почти не влияет.

3DMark2001SE реагирует на частоты видеокарт и включение SLI только в последнем тесте – Nature. Но даже в нем, для того, чтобы получить больше 628 fps, необходимо увеличивать частоту процессора выше 2900MHz. Количество ядер у процессора в 3DMark2001SE не имеет значения, все равно второе и последующие ядра будут простаивать.

В Aquamark3 скорости процессора недостаточно не только для того, чтобы получить прирост от SLI, но так же и от разгона видеокарт вообще. Второе ядро процессора в Aquamark3 используется, но дает не более чем +8% к результату

First Encounter Assault Recon (F.E.A.R.) v1.0.8

В тех режимах, где результат ограничивается процессором, минимальное количество кадров в секунду находится на уровне 50-60 fps и этого вполне достаточно для нормальной игры. Производительности одиночной видеокарты хватает в 1024x768 и 1280x1024, а если ее разогнать, то и в 1600x1200. Для более высоких режимов одной 8800 GTS уже недостаточно, но при использовании двух 8800 GTS в SLI можно играть во всех режимах вплоть до 2048x1536.

Quake 4 v1.2.0.2386

В Quake 4 "потолок" возможностей процессора находится на уровне около 110 fps и это в два раза выше, чем минимальный fps в F.E.A.R. Но порог играбельности получился такой же: 1280x1024 на одной неразогнанной карте, 1600x1200 на разогнанной и 2048x1536 только на SLI.

Результаты в разрешении 1920x1440 отсутствуют, потому что в этой игре мне не удалось его установить. Вообще все разрешения выше 1600x1200 отсутствовали в меню игры и 2048x1536 я смог установить только путем указания его параметром командной строки "quake4.exe +set r_mode 9".

Prey v1.2.116

Во время тестирования двух GeForce 7900 GS в режиме SLI выяснилось, что в Prey версии 1.0.103 при включении режима SLI производительность нисколько не увеличивается, а даже падает. После установки патча и обновления до версии 1.2.116 эта проблема исчезла. Но две мощные видеокарты этой игре и не нужны, по результатам тестирования видно, что вполне достаточно одной 8800 GTS для игры в любых режимах вплоть до 1920x1200. Двуядерного процессора AMD так же хватает, процессорозависимость отсутствует даже в 1024x768.

Игра использует движок Quake 4, поэтому с установкой разрешений выше, чем 1600x1200, в ней возникла такая же проблема. В 1920x1440 и 2048x1536 игру не удалось запустить, но методом перебора была найдена поддержка разрешения 1920x1200, которое устанавливалось через командную строку "prey.exe +set r_mode 16". Способ установить любые поддерживаемые видеокартой и монитором разрешения все же был найден позже, но к тому времени видеокарт у меня уже не было. Например, разрешение 1920x1440 можно установить через командную строку "prey.exe +set r_mode -1 +set r_customWidth 1920 r_customHeight 1440".

Serious Sam 2 v2.070

Для того чтобы загрузить одну или даже две 8800 GTS в Serious Sam 2 так же не требуется более быстрый процессор, чем Athlon 64 X2 @ 2900 MHz. Уже начиная с разрешения 1280x1024 скорость в игре определяется видеокартами. На одной 8800 GTS можно играть в 1280x1024 без разгона и в 1600x1200, если разогнать. При использовании режима SLI играть без тормозов можно при любом разрешении.

Tom Clancy's Splinter Cell 3: Chaos Theory v1.05.157

В Splinter Cell Chaos Theory все так же – одиночная 8800 GTS, в отличие от SLI, не тянет разрешения выше 1600x1200. Недостатка в скорости процессора нет.

Company of Heroes v1.0.3

Настройки в игре были установлены на максимальное качество:

При таких настройках игра очень требовательна как к скорости видеокарты, так и к объему ее памяти. Одиночной 8800 GTS здесь, как и во многих других играх, хватает до разрешения 1600x1200 включительно, при этом для использования 1600x1200 видеокарту желательно разогнать. Эффект от включения режима SLI есть, но в случае с Company of Heroes одна 8800 GTX с 748 Mb видеопамяти будет предпочтительней, чем SLI из двух 8800 GTS, потому что в разрешениях выше 1600x1200 использование видеопамяти уже превышает 620 Mb. Скорость процессора ограничивает минимальное количество кадров в секунду на уровне 55 fps. При этом первое ядро загружено почти полностью, а второе только наполовину. Оптимизация под многоядерные процессоры в этой игре оставляет желать лучшего.

Half-Life 2: Lost Coast

В режиме SLI видеокарты были протестированы с драйверами версий v97.02 и v97.44, но результаты во всех разрешениях получались такие же, как и с одиночной видеокартой. Тестирование связки из двух видеокарт GeForce 7900GS уже показало ранее, что прирост от SLI в этой игре возможен, но в случае с 8800 GTS его нет. Скорее всего, проблема в драйвере ForceWare и, возможно, она будет исправлена в одной из следующих версий.

Даже если включить отображение баланса нагрузки графических процессоров, то соответствующая полоса на экране не появлялась после запуска игры. Чтобы посмотреть нагрузку, нужно было в контрольной панели драйвера изменить опцию "Режим производительности SLI" со значения "Рекомендовано NVIDIA" на "Выполнять альтернативное построение кадров 1". После этого было видно, что драйвера действительно работают в режиме SLI и загрузка графических процессоров распределяется поровну, но повторное тестирование с этой опцией показало, что прироста от SLI все равно нет. Но в случае с Half-Life режим SLI уже не очень-то и нужен, тестирование одной 8800 GTS показало, что ее вполне достаточно для игры на любых разрешениях. Процессор ограничивает количество кадров секунду на уровне чуть выше 100 и этого так же достаточно.

Need for Speed: Carbon v1.2

Для установки разрешений экрана 1920x1440 и 2048x1536 использовалась программа NFSC Custom Resolution Launcher v2. С поддержкой SLI в Need for Speed Carbon ситуация такая же, как и в предыдущей игре из этой серии Most Wanted – результаты, полученные на одиночной карте, не отличаются от результатов в SLI. Но в отличие от Most Wanted, Carbon полностью использует возможности двуядерного процессора. Нагрузку обоих ядер процессора, объем занимаемой видеопамяти и fps в каждом режиме можно посмотреть в архиве с графиками.

Tom Clancy's Rainbow Six: Vegas v1.00

Rainbow Six: Vegas в качестве движка использует Unreal Engine 3.0 и я ждал, что нагрузка на видеокарту и процессор будет высокая, но полученные результаты превзошли все мои ожидания:

Настройки в игре были установлены следующим образом:

Опция, наиболее сильно влияющая на скорость в этой игре – Shadow Quality. Изменение качества теней от Very Low до High приводило к изменению fps приблизительно в 3.5 раза! Но даже если выставить минимальное качество теней и этим значительно снизить нагрузку на видеокарту, то нагрузка на центральный процессор остается по-прежнему очень высокой и доходит до 97-98 процентов на каждое ядро процессора Athlon 64 X2 3800+, работающего на частоте 2900 MHz.

Измерение производительности происходило на площади в самом начале игры:

На вышеприведенном скриншоте можно увидеть 21.3 fps в легком режиме 1024x768 без AA и AF на одиночной 8800 GTS, работающей без разгона. Этого явно недостаточно для комфортной игры. И дело тут даже не в том, что оба ядра процессора загружены почти на 100%. Если увеличить разрешение, то скорость становится еще меньше. Так что в этой игре производительность упирается и в процессор, и в видеокарту. Если специально поискать, то на той же площади можно найти место, в котором будет еще на несколько fps меньше:

В том случае, когда игра не находила в системе звуковой карты, она зависала на этапе загрузки. Поэтому на время тестирования в Rainbow Six Vegas в BIOS материнской платы был включен встроенный звук. Проверка в режиме SLI показала такие же результаты, как и на одиночной карте. Нагрузку процессора, объем занимаемой видеопамяти и fps в каждом режиме можно посмотреть в архиве с графиками.

6.4. Максимальные результаты в бенчмарках

Для получения максимальных результатов процессор и видеокарта были разогнаны до максимальных частот, на которых они были способны пройти тест. Процессор и GPU обеих видеокарт охлаждались проточной водой с температурой около +10°C. Настройки операционной системы Windows XP SP2, BIOS материнской платы и драйверов были установлены на максимальную производительность.

Результаты на одиночной GeForce 8800 GTS:

  • 2006: 9955
  • 2005: 15812
  • 2003: 33928, #4
  • 2001: 42796
  • Aquamark3: 125563

Результаты на двух GeForce 8800 GTS в режиме SLI:

  • 2006: 11421
  • 2005: 16682
  • 2003: 53587, #2
  • 2001: 40382
  • Aquamark3: 126181

Как видите, процессоры Athlon 64, даже двуядерные, не позволяют получить хорошие результаты в бенчмарках при использовании таких быстрых видеокарт, как GeForce 8800 GTS. Более-менее приличный результат получается только в 3DMark03. Настало время для замены тестовой платформы. Eсли раньше от этого удерживало отсутствие материнских плат с хорошими возможностями разгона и одновременной официальной поддержкой как SLI, так и процессоров Core 2 Duo/Quad, то сейчас такие платы уже стали доступны.

7. Заключение

Chaintech GAE88GTS, как и все выпускаемые на данный момент карты GeForce 8800 GTS, имеет референсный дизайн и систему охлаждения, поэтому перечисленные ниже преимущества и недостатки можно отнести ко всем видеокартам этой серии.

Плюсы:

  • Отличная производительность в номинале и хороший разгон;
  • Удачный дизайн PCB, позволяющий разгонять 1.2-ns память до недостижимых ранее частот;
  • Достаточно эффективная и относительно малошумная система охлаждения;
  • Поддержка HDR и сглаживания одновременно;
  • Видеокарта основана на первом и пока единственном графическом чипе с поддержкой DirectX 10 и Shader Model 4.0.

Минусы:

  • Высокое энергопотребление и тепловыделение графического чипа G80 (выше, чем у ATI R580 и остальных) и кроме самого GPU ощутимо греется вся карта (чипы памяти по центру, система питания слева и чип NVIO справа);
  • Занимает минимум два слота на материнской плате, при этом в слот, который через один ниже от видеокарты, также не следует устанавливать никаких длинных карт, чтобы не перекрывать поток воздуха к системе охлаждения. По этой же причине для использования пары таких видеокарт для SLI лучше выбрать материнскую плату, имеющую увеличенное расстояние между двумя длинными PCI-E слотами (два слота вместо одного);
  • Невозможность применения карандашного вольтмода GPU и падение напряжения GPU под нагрузкой;
  • Отсутствие функции VIVO и отсутствие поддержки разрешения 1080p при использовании HDCP;
  • Реальная цена в российской рознице пока еще значительно превышает уровень рекомендуемых цен на любые видеокарты GeForce 8800 GTS/GTX.

Так стоит ли приобретать данную видеокарту для игр на компьютере, построенном на базе процессора Athlon 64 X2 (естественно, при условии, что он неплохо разогнан), или вместе с заменой видеокарты так же необходимо менять и платформу? В большинстве протестированных игр скорости этого процессора все же оказалось достаточно для обеспечения минимального количества кадров в секунду в наиболее подходящих режимах для этой видеокарты (1280x1024 и 1600x1200 с 4x AA и 16 AF). В качестве исключения можно выделить две игры, в которых применение более быстрой платформы принесло бы пользу. Это Company of Heroes, которая довольно сильно нагружает процессор, но при этом не умеет поровну распределять нагрузку на оба ядра. И Rainbow Six Vegas, оставляющая впечатление недостаточно оптимизированного продукта. Действительно, зачем разработчикам игр тратить многие месяцы на оптимизацию, если на рынке присутствуют "опередившие свое время" GeForce 8800 GTS/GTX и Intel Core 2 Duo? А в следующем году таких игр станет еще больше.

Что же касается целесообразности использования связки из двух видеокарт GeForce 8800 GTS в режиме SLI, то тут все просто – лучше взять одну GeForce 8800 GTX. Только шесть из девяти протестированных игр получили прибавку от включения режима SLI и если расширить их список, то данное соотношение останется примерно на таком же уровне.

PS. Выражаю благодарность за предоставленное железо следующим людям:

  • Alex Kung и Alexander Petrushin (Chaintech Russia) – за видеокарты Chaintech GAE88GTS (GeForce 8800 GTS);
  • Ingen – за процессор Athlon 64 X2 3800+ и блок питания Chieftec GPS-620AB-A;
  • Илье – за материнскую плату DFI LanParty UT nF4-D.
Оцените материал →

Объявления компаний (реклама) и анонсы
  • GTX 1080 в XPERT.RU резко дешевле чем везде
  • Распродажа в Ситилинке: скидки до 40%!




Обсуждение ВКонтакте (скрыть)