GeForce GTX 580: в одиночку и вдвоем
реклама
Оглавление
- Вступление
- Графический процессор GF110
- Видеокарта GeForce GTX 580
- Монтаж Thermalright Spitfire
- GeForce GTX 580 SLI
- Тестовый стенд
- Инструментарий и методика тестирования
- Разгон, температурный режим и уровень шума
- Тестирование производительности
- Участники тестирования
- Результаты тестов одиночной видеокарты
- Результаты тестов SLI-конфигурации
- Результаты в сверхтяжелых режимах сглаживания
- Заключение
Вступление
Каждый новый виток противостояния ATI и nVidia порождает в компьютерной прессе и на «железных» форумах такой всплеск эмоций, что страсти не утихают еще как минимум несколько месяцев. Поэтапный выход новых видеокарт (появление топовых ускорителей, освоение среднего класса, приход новой архитектуры в массовый сегмент) вызывает бесчисленные споры среди любителей компьютерных игр и оверклокеров. Все это сопровождается многочисленными обзорами под заголовками вроде «Новый король», «ATI/nVidia наносит ответный удар», «Крепкие середняки» и, наконец, «На что способен новый ускоритель начального уровня?».
Это всегда очень увлекательный процесс (ну-ну – прим. Ред.). Тем более приятно осознавать, что сейчас мы как раз находимся внутри такого витка: AMD начала борьбу, выпустив на рынок Radeon HD 6850/6870 – новые ускорители среднего класса. В следующем месяце должны появиться и более мощные видеокарты шеститысячной серии: Radeon HD 6950/6970 на основе процессора Cayman. На данный момент ATI уже располагает самой мощной видеокартой на рынке – двухпроцессорным гигантом Radeon HD 5970; с выходом новинок компания стремится завоевать не менее престижный титул самого мощного однопроцессорного ускорителя.
Инженеры nVidia тоже не сидят сложа руки. Выпуск обновленного флагмана компании - GeForce GTX 580 удалось удачно вписать как раз между этапами релиза Radeon HD 6ххх. Схватка топовых решений - GeForce GTX 580 и Radeon HD 6970 обещает быть чрезвычайно интересной. Сейчас самое время исследовать потребительские качества первого из «дуэлянтов» и оценить проделанную конструкторами nVidia работу.
Графический процессор GF110
реклама
Видеопроцессор, ставший «мозгом» нового флагманского ускорителя, называется GF110. Логика такого наименования понятна: на рынок уже были последовательно выведены GPU GF100, GF104 (GeForce GTX 460), GF106 (GeForce GTS 450), GF108 (GeForce GT 430), относящиеся к четырехсотой серии видеокарт GeForce. Новый GPU стал первым в пятисотой линейке, можно предположить, что при дальнейшем расширении этого семейства младшие процессоры будут называться GF114, GF116 и так далее.
Читателям, которые отслеживают ситуацию на рынке видеокарт, должно быть известно, что GF110 представляет собой модифицированную версию предыдущего топового GPU компании nVidia – GF100. Этот процессор используется на видеокартах GeForce GTX 480, GTX 470, GTX 465 и, соответственно, представлен в трех вариантах, отличающихся количеством активных блоков ядра.
|
|
|
|
|
Графический процессор |
|
|
|
|
Технологический процесс, нм |
|
|
|
|
Количество транзисторов, млн штук |
|
|
|
|
Площадь кристалла, мм2 |
|
|
|
|
Количество кластеров обработки графики |
|
|
|
|
Количество потоковых мультипроцессоров |
|
|
|
|
Количество скалярных процессоров |
|
|
|
|
Количество блоков адресации текстур |
|
|
|
|
Количество блоков фильтрации текстур |
|
|
|
|
Количество блоков растеризации |
|
|
|
|
Число накладываемых текстур за проход |
|
|
|
|
Объём cache L1, Кб |
|
|
|
|
Объём cache L2, Кб |
|
|
|
|
Разрядность шины видеопамяти, бит |
|
|
|
|
Тип используемой памяти |
|
|
|
|
Для того чтобы объяснить значение некоторых из приведенных параметров и природу произошедших изменений, я приведу иллюстрацию, на которой схематически изображено устройство графического процессора GF100. Архитектурно GF110 практически не отличается от предшественника, следовательно, к нему эта схема также применима.
Видеопроцессор GF100/110 содержит четыре однотипных кластера обработки графики (GPC). Каждый из этих кластеров конструктивно напоминает отдельный GPU и содержит все необходимые элементы для обработки графики кроме собственных блоков ROP и контроллера памяти.
В свою очередь, отдельный кластер разделен на четыре потоковых мультипроцессора (SM), объединенных общим растерным движком (Raster Engine). Единичный мультипроцессор содержит массив ядер CUDA (скалярных потоковых процессоров) – всего 32 штуки, блок обработки геометрии (PolyMorph Engine), четыре текстурных блока и собственный cache первого уровня (16 Кбайт в случае обработки графики, 48 Кбайт для вычислительных операций). Эта схема немного упрощена для удобства изложения, но количество и способ организации основных блоков она отражает.
реклама
Помимо собственных cache L1 каждого мультипроцессора, у GF100/110 есть и более медленный общий cache L2 объемом 768 Кбайт. Сообщение cache L2 и видеопамяти обеспечивают шесть 64-битных контроллеров. Каждый из них связан с восемью блоками растровых операций – ROP (всего 48 штук).
В итоге схему графического процессора можно в общем виде представить следующим образом. Четыре кластера по четыре мультипроцессора, содержащих 32 ядра CUDA – всего 512 штук. Шесть групп по 8 блоков ROP – всего 48 штук, каждая группа связана с собственным 64-битным контроллером памяти (суммарная разрядность шины - 384 бита). Объем cache-памяти первого уровня составляет 256 Кбайт (по 16 Кбайт на каждый из 16 мультипроцессоров), объем общей cache-памяти второго уровня – 768 Кбайт.
Описанная схема – это «идеал», - GF100 со всеми активными блоками, в том виде, каким он проектировался изначально. К сожалению, в момент выпуска видеокарт на основе архитектуры Fermi графический процессор был «сырым». У компании-производителя (TSMC) возникли проблемы с выходом годных кристаллов, и для скорейшей организации массового производства часть блоков ядра пришлось отключить (это общепринятая версия ). Также на этот счет есть разные догадки: «nVidia приберегла часть потенциала GF100 на будущее» или «в полном виде GF100 оказался слишком горячим и прожорливым». Возможно, они недалеки от истины…
Очевидно, что первые экземпляры процессора аналогичного GF110 были у nVidia почти год назад (удачные образцы GF100), но в продажу видеокарты на их основе не поступили. Даже в «старшем» варианте, применяемом на GeForce GTX 480, у GF100 был отключен один из шестнадцати мультипроцессоров. Потеря не так велика: 480 ядер CUDA вместо 512 (плюс отсутствие одного блока PolyMorpf Engine). Все остальные возможности видеоядра были использованы в полном объеме.
GeForce GTX 470 урезана сильнее: мультипроцессоров осталось только 14, ядер CUDA, соответственно – 448. Помимо этого были отключены один из 64-битных контроллеров памяти и 8 блоков ROP, работающих с ним.
На GeForce GTX 465 деактивирован целый графический кластер. Результат – минус четыре мультипроцессора и один из четырех растерных движков. Контроллеров памяти стало меньше на два – разрядность шины снизилась до 256 бит, а количество блоков ROP c 48 до 32.
Таким образом, даже самые неудачные экземпляры GF100, с большим количеством отключенных блоков могли в итоге дойти до прилавка на одной из младших карт.
GF110 можно назвать «полноценным GF100», который наконец-то получил все активные блоки ядра, в отличие от вариантов, применяемых на ускорителях семейства GeForce GTX 4xx. Конструкция процессора, несмотря на новый цифровой индекс, осталась практически неизменной.
Выпуск полноценного GPU стал возможен благодаря совместным усилиям инженеров nVidia и TSMC. Существенные улучшения в технологии производства позволили сократить площадь ядра на 9 мм2 (с 529 до 520) при практически равном количестве транзисторов. Повысился выход работоспособных кристаллов GPU (40 нм техпроцесс уже хорошо «обкатан»). Тщательная проработка конструкции, по словам представителей nVidia, позволила сделать GPU более энергоэффективным. В переводе на русский это означает «менее прожорливым и горячим» даже с учетом увеличенного количества активных блоков. Для топовой видеокарты семейства GeForce это важно, ведь GTX 480 подверглась критике именно за высокий нагрев и уровень шума при работе.
В таком случае, быть может правильнее называть GF110 обновленной ревизией GF100? Это не совсем так, из-за того, что новый процессор обладает и архитектурными отличиями от предшественника.
Производительность GPU должна возрасти за счет оптимизаций архитектуры текстурных блоков (TMU). Теперь они способны производить обработку и билинейную фильтрацию текстур всех 64-битных форматов на полной скорости без пропуска тактов. Впервые этот механизм был реализован при создании процессора GF104 и теперь перекочевал на флагманский GF110.
Также модификации подвергся Raster Engine (растеризационный движок каждого из графических кластеров GPC), получивший улучшенный блок отбраковки поверхностей, невидимых в кадре (Z-cull). Теперь блоком поддерживаются новые форматы представления тайла, что позволяет более эффективно реализовывать алгоритмы ранней отбраковки.
В итоге производительность нового GPU должна немного возрасти, даже без учета большего количества активных блоков ядра и повышенной тактовой частоты. В официальном пресс-релизе приводится специальная таблица, согласно которой «чистое» преимущество новой архитектуры в некоторых играх может составлять от 3 до 12%.
Итак, новый процессор, несмотря на отсутствие революционных архитектурных изменений, должен обеспечить преимущество в производительности над GF100 уже в силу возросшего количества блоков ядра и общей оптимизации. Теперь самое время оценить рабочие частоты и другие характеристики ускорителя, созданного на основе этого GPU – GeForce GTX 580.
Видеокарта GeForce GTX 580
реклама
|
|
|
Дата релиза |
|
|
Графический процессор |
|
|
Тактовая частота ядра, МГц |
|
|
Тактовая частота шейдерного домена, МГц |
|
|
Тип графической памяти |
|
|
Объем видеопамяти, Мбайт |
|
|
Разрядность шины памяти, бит |
|
|
Реальная/эффективная частота графической памяти, МГц |
|
|
Полоса пропускания памяти, Гбайт/c |
|
|
Заполнение сцены, млрд пикс/с |
|
|
Заполнение сцены, млрд текс/с |
|
|
Производительность FP32, Гфлопс |
|
|
Производительность FP64, Гфлопс |
|
|
TDP, Вт |
|
|
Рекомендованная стоимость, USD* |
|
|
* На момент релиза
Частота GPU новинки составляет 772 МГц (1544 МГц для шейдерного домена, работающего на удвоенной частоте ядра). Это приблизительно на 10% выше, чем рабочая частота GF100 видеокарты GeForce GTX 480 (700/1401 МГц). С учетом архитектурных доработок GPU преимущество GTX 580 в производительности может оказаться и более весомым.
Графическая память (ее конфигурация полностью сохранена: GDDR5, 384-битная шина, объем 1536 Мбайт) также функционирует на повышенной частоте (с 3696 до 4008 МГц). Это привело к расширению полосы пропускания с 177,4 до 192,4 Гбайт/с (прирост ~8%). Все перечисленные изменения закономерно повлекли за собой увеличение скорости заполнения сцены и рост математической производительности видеокарты.
Подведу итог раздела. Производительность GeForce GTX 580 в сравнении с предыдущим флагманом компании (GeForce GTX 480) возросла по следующим причинам:
- Активация всех блоков GPU. Дополнительный мультипроцессор - это 32 ядра CUDA (прирост их количества составляет 6,6%), работающий с ними блок PolyMorph Engine и 16 Кбайт cache L1.
- Рост частот GPU (+10%) и видеопамяти (+8%).
- Архитектурные улучшения в текстурных блоках и растерных движках GPU (+3-12% производительности по данным nVidia).
Внешний вид
В лабораторию Overclockers.ru поступил ускоритель, маркированный как собственное изделие nVidia. Полюбуйтесь эталонным вариантом, очень скоро компании-партнеры «разрисуют» его наклейками:
А пока внешний вид скромен – из всех дизайнерских элементов присутствуют разве что незамысловатая графика в виде полосок и маленькая зеленая планочка (фирменный цвет nVidia) возле задней панели.
Внешне видеокарта заметно отличается от GTX 480, хотя общая компоновка сохранена. В глаза бросается отсутствие выступающих сверху тепловых трубок, ставших визитной карточкой предыдущего флагмана nVidia. Пластиковый кожух теперь целиковый, раньше в его передней части был вырез для радиатора системы охлаждения.
Обратная сторона видеокарты тоже по-своему интересна. Можно отметить огромное количество крепежных винтов, соединяющих систему охлаждения и печатную плату: всего их двадцать штук. Толстая металлическая рамка системы охлаждения играет роль ребра жесткости, препятствуя прогибу платы, что важно в случае такого массивного ускорителя как GeForce GTX 580. В итоге вся конструкция получается очень жесткой, по ощущениям ускоритель монолитен как кирпич . Обратите внимание, что конструкторы nVidia отказались от применения бэкплейта: прогнуть хорошо зафиксированную печатную плату практически невозможно.
Тщательнее осмотрев обратную сторону видеокарты, можно обнаружить контроллер преобразователя питания процессора (в «хвосте») и посадочные места для 12 дополнительных микросхем памяти. Возможно, кто-то из партнеров nVidia решится выпустить трехгигабайтную версию этого ускорителя. Сегодня такой объем памяти может понадобиться разве что при использовании нескольких мониторов с приличным разрешением, но продукт получился бы очень оригинальным.
Длина GeForce осталась такой же, как у предшественника (GTX 480). Для сравнения габаритных размеров привожу фото «бутерброда» из трех мощнейших однопроцессорных видеокарт современности: GeForce GTX 580 сверху, в середине – GeForce GTX 480, внизу – Radeon HD 5870.
Под этим углом зрения может показаться, что GTX 580 немного крупнее старого флагмана компании, но это не так: беспристрастная рулетка зафиксировала одинаковую длину в 267 мм (на официальном сайте приведен и имперский эквивалент - 10,5 дюйма). Radeon HD 5870 чуть крупнее – 279 мм (это, соответственно, ~11 дюймов).
При одинаковой длине GTX 580 оказывается ниже GTX 480, из-за отсутствия выступающих тепловых трубок, о которых я уже упоминал ранее. Высота нового ускорителя составляет 111 мм, тогда как старый выше приблизительно на 15 мм. Забавно, что сама nVidia этого факта не признает: по данным сайта компании высота обеих видеокарт одинакова.
На задней панели расположены три разъема: два двухканальных DVI и один mini-HDMI. Такой набор можно назвать достаточным для современного игрового ускорителя, хотя компания ATI в рамках развития технологии Eyefinity оснащает новейшие видеокарты большим количеством разъемов, включая сразу несколько Display Port. Разработчики из nVidia не так давно представили свой вариант технологии подключения нескольких мониторов к одиночному видеоадаптеру (NVIDIA Surround), но на количестве разъемов это пока не отразилось.
Обратите внимание на решетки, прикрывающие отверстия для выдува нагретого воздуха возле задней панели платы. Их две (по одной с каждой стороны). Я не совсем понимаю, в чем смысл этих дополнительных «ноздрей». По мнению автора, самым лучшим, наоборот, является хорошо герметизированный кожух, который направляет весь воздушный поток к задней панели, где он выдувается за пределы корпуса.
В передней грани кожуха также есть дополнительная прорезь, но она никак не сообщается с турбиной. Подобнее об организации внутреннего пространства кожуха я расскажу в соответствующем разделе.
Два разъема дополнительного питания (шести- и восьмиштырьковый) расположены на верхней грани платы, что обеспечивает удобный доступ к ним при монтаже системы в корпусе. GeForce GTX 580 – не самая длинная карта, но при подключении шнуров дополнительного питания сзади могли бы возникать неприятные «встречи» ускорителя с жесткими дисками (особенно в тесных корпусах).
Печатная плата
Перед вами фотография печатной платы GeForce GTX 580:
Вид сверху:
Даже при беглом осмотре родство новинки с предыдущим флагманом компании становится еще более очевидным. Для сравнения приведу фото эталонной печатной платы GeForce GTX 480, сделанное моим коллегой Gabe Logan более полугода назад для соответствующего обзора.
Отличия можно пересчитать по пальцам одной руки. Самое явное – у старой платы есть специальные прорези возле разъемов дополнительного питания для забора воздуха турбиной. На новой PCB их нет, но белая дуга разметки сохранилась. Второе отличие – распайка на выходах фаз преобразователей питания GPU и видеопамяти керамических конденсаторов вместо традиционных электролитических «банок». Третье и самое существенное отличие – наличие на новой плате нескольких дополнительных микросхем аппаратного мониторинга нагрузки, которые отслеживают силу тока, подаваемого через разъемы дополнительного питания и PCIe.
Это очень интересная система. Видеокарта самостоятельно отслеживает уровень нагрузки на GPU, основываясь на показателе энергопотребления, и подстраивает напряжение питания так, чтобы оставаться в рамках заявленного TDP (244 Вт). Работает вся схема в связке с драйвером видеокарты, который дополнительно оценивает тип запущенного приложения и может отдать команду на понижение частоты GPU вдвое (sic!). Пока в черный список попали два популярных стресс-теста: FurMark и OCCT GPU, которые уже много лет используются энтузиастами для прогрева видеокарты и проверки стабильности в экстремальных условиях. В случае запуска любого из них частота видеопроцессора будет снижена в два раза. Специалисты nVidia считают, что эти программы создают нетипично высокую нагрузку, что может привести к выходу ускорителя из строя из-за перегрева GPU или системы питания. Хм. То есть элементы на плате и СО рассчитаны на типичную нагрузку, а не на максимальную, и по этой причине долой стресс-тесты?
Проиллюстрирую свою мысль на примере: «Вот, машина теоретически может ехать 200 км/час, но поскольку из-за пробок большинство больше ста не ездит, то вот, при сборке мы поставили детальки, рассчитанные как раз на эту (100 км/час) скорость и заблокировали возможность её превышения». Странно конечно, ну ладно…
Что это – новое слово в проектировании «умных» видеокарт или признание специалистами nVidia неудачности процессора GF100, с энергопотреблением и тепловыделением которого они так и не смогли совладать? Возможно, все заявления компании о снижении энергопотребления и нагрева основаны именно на применении этого механизма, вовремя сбрасывающего напряжение питания? Не отразится ли это негативным образом на разгонном потенциале видеокарты? На момент написания статьи вопросов по работе микросхем мониторинга и подстройки было больше, чем ответов. О борьбе автора со «скачущим напряжением» будет рассказано в разделе «Разгон, температурный режим и уровень шума».
Графический процессор маркирован как GF110-375-A1. Он выпущен на 38 неделе нынешнего года (в конце сентября).
На GeForce GTX 580 применяются те же микросхемы памяти, что и на GeForce GTX 480. Это хорошо знакомые оверклокерам Samsung K4G10325FE-HC04, которые сегодня можно встретить на самых разных картах (к примеру, они же стоят на «референсе» Radeon HD 5870). Номинальное время доступа (0,4 нс) указывает на рабочую частоту 1250 МГц (эффективная частота 5000 МГц, с учетом «учетверения» GDDR5). На GeForce GTX 580 потенциал микросхем реализован не полностью, частота памяти составляет лишь 1002 (4008) МГц, но это все-таки лучше, чем 924 (3696) МГц GeForce GTX 480.
Система питания также позаимствована у GeForce GTX 480 в неизменном виде. Преобразователь питания GPU выполнен по шестифазной схеме и управляется контроллером CHL8266 производства CHiL Semiconductor. Питание памяти осуществляется посредством двухфазного преобразователя, управляемого контроллером APW7066 производства Anpec. При этом нужно учитывать, что две фазы отвечают за разные напряжения: VDDQ и VDD, возможно правильнее называть такую схему «1+1».
На следующей фотографии-схеме зеленым цветом выделен преобразователь питания графического процессора, синим – преобразователь питания микросхем видеопамяти, красным – новые микросхемы мониторинга и подстройки.
Видеокарта, как и прежний флагман компании, оснащена двумя разъемами SLI. Официально заявлена поддержка 2-way и 3-way SLI. Система на базе трех GeForce GTX 580 даже заочно выглядит одной из самых мощных конфигураций на сегодняшний день. Однако цена, энергопотребление и практически обязательное использование системы водяного охлаждения для повседневной эксплуатации переводят ее в разряд редкой экзотики.
О разъемах дополнительного питания я уже писал выше. С учетом практически неизменного уровня TDP в сравнении c GeForce GTX 480 требования к блоку питания также остались на прежнем уровне. Производитель рекомендует использование БП с выходной мощностью от 600 Вт для одиночной GTX 580.
реклама
Теги
Лента материалов раздела
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила