ALCATEL Idol
4S 6070K
Цена 29'990 руб.
ASUS RX 480
DUAL OC
Цена 16'880 руб.
Palit GeForce GTX 1080
GameRock
Цена 47'080 руб.

Сервера размещены в Прокат серверов

Мобильные устройства
Конференция
Персональные страницы
Wiki
Статистика разгона CPU (+1 за неделю, всего: 26933) RSS     



Объявления компаний (реклама) и анонсы
  • !!! Canon EOS 5D Mark IV всего чуть дороже Mark III
  • GTX 1070 MSI Aero дешевле чем ты думаешь
  • R9 390 за копейки, дешевле RX 480
  • ASUS Turbo GTX 1070 - еще одна дешевая 1070

Вы можете отметить интересные вам фрагменты текста,
которые будут доступны по уникальной ссылке в адресной строке браузера.

Время титанов возвращается! Знакомимся с видеокартой NVIDIA GeForce GTX Titan

Дмитрий Владимирович 20.02.2013 18:00 Страница: 1 из 3 | ссылка на материал | версия для печати | обсуждение | архив

Оглавление

Вступление

379x400  45 KB. Big one: 1423x1500  215 KB

Задолго до появления всей архитектуры Kepler никому из пользователей и в голову не могло прийти, что в основу массовой видеокарты NVIDIA верхнего ценового сегмента будет положено графическое ядро площадью менее 300 мм2. Им стало GK104, не в последнюю очередь из-за желания компании убрать из своего списка очень дорогое графическое ядро площадью более 400 мм2. Дальнейшие модели ускорителей создавались под лозунгом «Цель оправдывает средства».

И пока преданные поклонники NVIDIA ждали выхода настоящего флагмана из серии «А посмотрите, какого я размера», видеокарты обоих вендоров приобрели очень странные по сравнению с предыдущими поколениями ценники. То, что еще пару лет назад оценивалось суммой до 400 долларов, стало предлагаться за 400-500 долларов. Свою роль здесь сыграло множество факторов.

Первый, самый критичный – переход на техпроцесс 28 нм и существенное удорожание производства. При этом пользователи не остались внакладе, получив действительно производительные решения, которые пусть и стоили дороже, чем прошлое поколение, но зато обладали куда большей скоростью. А за тот период времени, пока GeForce GTX 680 и Radeon HD 7970 соперничали, NVIDIA в кулуарах разработала эксклюзивного тихого убийцу. GK110 – это и есть молчаливый монстр, площадью 521 мм2. Ему совсем чуть-чуть не хватило до рекорда, который числится за GT200/300 первой ревизии. Вы только вдумайтесь, если GT200/300 производился по 65 нм технологии, обладал площадью 576 мм2 и 1400 млн транзисторов в 2008 году, то спустя пять лет технологии позволили уместить 7100 млн транзисторов в куске кремния площадью 521 мм2.

Первые предпосылки о существовании GK110 появились в середине 2012 года, именно тогда всплыли некоторые данные, говорящие о скором выходе старшего решения. Вот только суждено ему было стартовать совсем в другом амплуа, не в игровом, а в сфере математических вычислений, в кругу моделей, именуемых как Tesla. На базе большого Kepler возникла целая серия профессиональных карт K20. Характеристики, интересующие большую часть пользователей, пусть и выглядели устрашающе для конкурента, но игрового применения не получили.

Что ж, тем проще было выбирать среди присутствующих на рынке видеокарт, разница в производительности которых зачастую ограничивалась значением в 10-15%. Примерно такой вот цифрой и можно охарактеризовать средний разброс между Radeon HD 7970 и GeForce GTX 680. Одна была чуть шумнее и прожорливее, но при этом быстрее, а вторая дороже и немного медленнее. Обе они хорошо подходили как для разгона, так и для современных игр, которые в последнее время не старались соответствовать духу времени. Отсюда и несерьезные на сегодняшний день технические требования. Особенно если учесть, что львиная доля пользователей как раз перешла с мониторов с разрешением меньше 1300 пикселей по ширине на модели с 1920.

Впрочем вернемся к Titan. Да, это новое название видеокарты для игроманов на GK110. Я продолжу с немного пугающей цифры – 35 000 рублей. Именно столько просит компания за свою разработку. Стоит отметить, что это рекомендованный производителем ценник, с которого, скорее всего, первые «сливки» захотят снять розничные продавцы. Думаю, к лету стоимость GeForce GTX 690 и GeForce GTX Titan сравняется.

Технические характеристики

Наименование
HD 7970
HD 7970 GHz
GTX 680
GTX Titan
GTX 690
Кодовое имя
Tahiti XT
Tahiti XT
GK104
GK110
GK104
Техпроцесс, нм
28
28
28
28
28
Размер ядра/ядер, мм2
365
365
294
521
294x2
Количество транзисторов, млн
4300
4300
3540
7100
3540x2
Частота ядра, МГц
925
1050
1006 (1084)
840 (880)
915 (1020)
Число шейдеров (PS), шт.
2048
2048
1536
2688
3072
Число блоков растеризации (ROP), шт.
32
32
32
48
64
Число текстурных блоков (TMU), шт.
128
128
128
224
256
Максимальная скорость закраски, Гпикс/с
30.2
33.6
32
40.2
58.6
Максимальная скорость выборки текстур, Гтекс/с
118.5
134.4
128
187.5
234.2
Версия пиксельных/ вертексных шейдеров
5.0 / 5.0
5.0 / 5.0
5.0 / 5.0
5.0 / 5.0
5.0 / 5.0
Тип памяти
GDDR5
GDDR5
GDDR5
GDDR5
GDDR5
Эффективная частота памяти, МГц
5500
6000
6000
6000
6000
Объем памяти, Мбайт
3072
3072
2048
6144
2048x2
Шина памяти, бит
384
384
256
384
256x2
Пропускная способность памяти, Гбайт/с
264
288
192
288.4
192x2
Потребляемая мощность (2D / 3D), Вт
3 / 250
3 / 290
нд / 195
нд / 250
нд / 300
CrossFire/Sli
да
да
да
да
да
Рекомендованная цена, $
410
430
500
999
999

Архитектура GK110

Ядро GK110 состоит из 15 SMX движков, каждый из которых наполнен вычислительными устройствами – Cuda-ядрами.

400x219  98 KB. Big one: 1500x821  667 KB

Если подробнее, то графический процессор GK110 содержит 192 FP32 CUDA-ядра и 64 FP64, 64 килобайта L1 кэша, 65 тысяч 32-битных регистров и 16 текстурных блоков. SMX движки состыкованы с 6 блоками, состоящими из 8 ROP каждый, 256 килобайтами L2 кэша и подсоединены к 64-битным контроллерам памяти. Число «15» не окончательное, в розничный сектор попали видеокарты с активированными 14 SMX. Как ни печально, но желание удержать энергопотребление на определенном уровне вносит свои коррективы в финальный продукт. Всего же в GK110 насчитывается 2688 CUDA-ядер, способных производить вычисления с одинарной точностью.

На тот случай, если вам захочется исполнить команды с двойной точностью, новый продукт NVIDIA располагает 896 FP64 ядрами. В дополнение к мощной вычислительной части у видеокарты присутствует 224 текстурных блока и 48 блоков ROP. В сущности, никаких изменений по сравнению с Tesla K20X. Желающие получить Hyper-Q и Dynamic Parallelism за 35 000 рублей могут не задерживаться, а проходить прямо к Tesla.

400x417  57 KB

За теоретической частью прячется суровая реальность. Частоты в угоду повсеместно внедряемой схеме снижения энергопотребления пришлось ограничить на уровне 8хх МГц. Что, с одной стороны, несколько меньше 1000 МГц у GTX 680, а с другой – не настолько мало, чтобы сильно выделяться среди семейства GeForce GTX. Что касается памяти, то золотой стандарт NVIDIA в 6 ГГц полностью соблюден. И приведу еще один интересный факт. На самом деле сейчас вполне можно было бы обойтись и объемом видеопамяти в 3 Гбайта, но новому флагману это просто не к лицу. Поэтому видеокарта получила 6 Гбайт, набранных двадцатью четырьмя микросхемами общей пропускной способностью в 288 Гбит/с.

На закуску осталось поговорить об энергопотреблении. Будь на дворе 2006-2008 год, то и 450 Вт мало кого удивило бы. Но в NVIDIA выбирали из двух вариантов. Приемлемый уровень – GeForce GTX 690 и 300 Вт, идеальный уровень – GeForce GTX 680 и 195 Вт. Здесь стоило бы сделать остановку и рассказать подробнее о 195 Вт у GeForce GTX 680. Это практически потолок энергопотребления на эталонной карте со 132% запасом Power Target. В жизни не все производители соблюдают энергетическую диету и часто превышают рекомендованный лимит. А GeForce GTX Titan умещается в 250 Вт, что очень скромно. И даже такой искусственный барьер позволяет разгонять видеокарту, впрочем, об этом речь пойдет чуть позже.

Итак, GeForce GTX Titan это в первую очередь игровая карта для настоящих энтузиастов, готовых выложить 35 000 рублей. Она едва ли не единственная, кто может не только быстро воспроизводить игровые картинки, но и считать. Напомню, что GK104 это игровое ядро с формальной поддержкой FP64. Скорость выполнения команд с двойной точностью у него ограничена 1/64 от полного такта, а у GK110 – 1/3, что дает ей 1.3 Тфлопса. Фактически, Titan претендует на роль младшей карты для вычислений. Ее нельзя расценивать с точки зрения «производительность/цена». Такой подход в корне убьет всю оставшуюся привлекательность, а она, поверьте мне, в ней есть.

Только сегодня и сейчас NVIDIA вправе говорить о выпуске самой быстрой однопроцессорной видеокарты, но лишь до тех пор, пока у конкурента нет аналога. Правда, я сильно сомневаюсь, что многим она окажется по карману, и еще меньшее число людей будет использовать ее возможности в полной мере. Вот и AMD не считает GeForce GTX Titan конкурентом.

Естественно, сегмент ультра дорогих моделей в разы меньше массового сектора, а идентичной производительности в играх проще достичь покупкой GeForce GTX 690 или сооружением связки SLI/Crossfire. С другой стороны, NVIDIA позволила себе подогреть интерес рынка к своим продуктам, так что можно считать Titan аналогом Veyron в мире видеокарт. Вы подумали о цене и ограниченности тиража? Неправильно, производитель уверяет, что не пройдет и двух недель с момента анонса, как Titan появится в магазинах и любой желающий сможет его приобрести.

Новые возможности

С анонсом архитектуры Kepler компания NVIDIA внедрила ряд дополнительных возможностей. В частности теперь можно задействовать адаптивный VSync. Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.

После активации адаптивного VSync максимальное число кадров в секунду не превышает частоту развертки монитора, но здесь важнее второй момент. Цикл падения производительности становится плавным, что приводит к отсутствию дерганой картинки. Усовершенствование заключается в том, что теперь доступна функция настройки ограничения кадров до любого значения, вплоть до 120.

Технология 3Way SLI позволяет подключить до трех GeForce GTX Titan в одной системе. На сегодня такой вариант наиболее производительный среди всего ассортимента предложений NVIDIA.

Разгон

Здесь наибольший интерес у пользователей вызовет новая технология GPU Boost 2.0. Пока она будет доступна только обладателям видеокарты GeForce GTX Titan, но я почти уверен, что позже следует ожидать ее появления и в будущих новинках NVIDIA. Стоит кратко напомнить, как пользоваться GPU Boost 1.0.

Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce осуществляется несколько в ином формате. Обращаю ваше внимание, что сейчас в руки пользователей попадает несколько переменных.

Первая – предельное энергопотребление, стандартная формулировка которого обозначается цифрой 100% или ~xxx Вт для ускорителя целиком (может варьироваться в зависимости от экземпляра, в основном завышенное базовое значение используется в разогнанных с завода моделях). Отныне заявленная номинальная частота – это базовая частота, ниже которой графическое ядро не опускается ни при каких нагрузках в типичных игровых приложениях. Значение «Турбо» (GPU Boost) обозначает усредненную частоту GPU по результатам большинства игровых сцен.

Новая технология, ориентируясь на максимально допустимую нагрузку и достигнутую температуру, автоматически подстраивает частоту и задает напряжение. В теории максимальная температура равна 82-85°C, вентилятор системы охлаждения постоянно подстраивается под изменяющиеся условия тестирования, не позволяя GPU разогреться выше приведенных чисел. Естественно, что GPU Boost учитывает и температуру. И если видеокарта по каким-то причинам превысит эту цифру, в дело вступят функции защиты. Практический максимум, по заявлениям NVIDIA, равен 98°C – это критическая температура, после которой система может полностью выключиться, предварительно применив все доступные методы защиты.

Вторая – это желаемая частота. Я не пишу «базовая», поскольку при установке этой частоты можно поймать себя в ловушку. Все дело в том, что при значительном нагреве или в случае аномальной загрузки видеокарта может понижать данную частоту и ниже ваших установок.

Разгон стоит начинать со статичного предельного энергопотребления, например, 100%. Затем понемногу увеличиваете желаемую частоту – до тех пор, пока не увидите один из признаков достижения лимита. Видеокарта либо начнет сбрасывать частоты на начальные значения, либо зависать. Любой из этих признаков означает, что придется увеличивать предел. Не советую сразу выставлять максимально допустимое энергопотребление. Данное действие мгновенно приведет к перегреву и зависанию карты. Зато набравшись терпения, чутья и времени, вы гарантированно мелкими шажками разгоните карту до 1.2-1.3 ГГц.

В свою очередь GPU Boost автоматически добавляет напряжение в зависимости от выставленного предела энергопотребления, следом растет и частота. В конечном итоге видеокарта постепенно разгоняется. В чем же суть обоих инструментов управления? Не в том ли, что отныне нет смысла задавать базовую частоту и напряжение? Фактически, испробовав различные комбинации и варианты, мне удалось сбалансировать на грани фола и удержать хороший разгон во время проверки программой Furmark. Делается это двумя переменными. Необходимо тонко чувствовать работу GPU Boost и подстраиваться под нее, устанавливая правильную базовую частоту и предел энергопотребления.

К счастью, видеокарты оригинального дизайна получили расширенный диапазон регулировки Power Target – до 150 и более процентов. Но это применимо не всегда, часть ускорителей (особенно тех, что заранее разогнаны), наоборот, ограничена до 120%. Тут логичнее говорить об общем максимуме мощности системы питания, когда каждый производитель выставляет свой предел.

Говоря проще, Power Target указывает на максимальное энергопотребление видеокарты, под которое подстраиваются GPU Boost и ваши настройки разгона. Чем выше значение Power Target, тем больше шансов разогнать GPU, при условии нормальных температур графического ядра и силовой части. Как только вы упираетесь в верхнюю грань и параллельно пытаетесь задать большую частоту (нежели ту, на которой может работать видеокарта), алгоритм, заложенный в драйвер, сбрасывает частоту. После этого достаточно убрать с десяток мегагерц и повторить тест. И так до тех пор, пока не найдете максимально стабильную частоту ядра. А далее – новый маневр с Power Target. Совет здесь один: поднимать на одно-два деления и не забывать при этом о проверке работоспособности видеокарты на заданных параметрах.

Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.

Общий план работы карты.

457x89  6 KB

Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.

493x125  11 KB

Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.

494x127  10 KB

Вот так выглядят идеально подобранные настройки. Запрашиваемая частота подкреплена сдвигом ползунка Power Target. Максимальное TDP не превышено.

К сожалению, иногда приходится встречаться со сложным алгоритмом разгона. С тех пор как NVIDIA задала определенный уровень TDP для каждого класса видеокарт, а компании применяют собственный разгон, вы вполне можете столкнуться с полным отсутствием частотного потенциала. Очень сложно определить стабильную частоту, поскольку, даже увеличив Power Target, GPU Boost работает непредсказуемо. В одной игре вы получите 1130 МГц, а в более требовательной – 1100 МГц. После запуска Furmark на экране и вовсе будет фигурировать 1050 МГц.

Новая технология в виде GPU Boost 2.0 расширила свое влияние на частотный диапазон. Даже первая ее версия отличалась быстрой работой, постоянно стараясь увеличить частоту при любой возможности. Вторая версия работает по более агрессивному сценарию. Если заявленная частота GPU Boost равна 870 МГц, то в реальности можно встретить как 915 МГц, так и 990 МГц. Причины столь сильного повышения частоты кроются в настройках.

Во-первых, пользователям теперь доступна не одна базовая настройка (Power target), а две – Power Target и «Температура». По умолчанию приоритет остается за первой. Максимальное значение для Titan – всего 110%, начальная температура 80°C, а максимальная температура равна 95°C. Оба параметра могут задаваться как раздельно, так и совместно, причем приоритет можно изменять от одного к другому. Как результат, средняя частота увеличивается.

Готовы перейти к более интересной части? Тогда вперед. NVIDIA позволила при условии соглашения с риском повредить видеокарту задействовать небольшой вольтмод (OverVoltage) до 1.187 В. Соглашаясь с правилами, вы дополнительно увеличиваете напряжение и повышаете среднюю частоту GPU. Вроде бы появляется ощущение снисходительности по отношению к энтузиастам, но ранее объявленное общее ограничение максимального энергопотребления никуда не делось. Допустим, будем считать, что 250 Вт это среднее энергопотребление, тогда максимальное по моим тестам получилось «плюс 45 Вт». Не дотягивает даже до GeForce GTX 690.

Что же получают пользователи? Жесткую привязку к 295 Вт, все остальное предоставлено на ваше усмотрение, хотя напряжение при этом нельзя поднять выше 1.187 В. Налицо желание компании максимально огородить видеокарту от любых повреждений и запутать дополнительно пользователя различными настройками. Но не все так печально. Изначальный смысл появления температурной настройки позволяет существенно снизить уровень шума без риска перегреть карту. Говоря проще, в рамках определенного диапазона можно делать все, что вашей душе угодно, варьировать уровень шума, нагрева, разгон по своему усмотрению, но под контролем NVIDIA .

Дополнительно обнаружился еще один интересный момент. Ранее я не встречался с проблемой разгона памяти на видеокартах NVIDIA GeForce GTX 6xx, но теперь максимальный TDP распространяется и на память. Чем это чревато для энтузиастов? Приведу простой пример. Путем некоторых манипуляций вокруг цифры 295 Вт можно получить разгон 1100-1170 МГц, настало время разгонять память. Но каждые дополнительные 100 МГц памяти отнимут 25-50 МГц от разгона ядра. Неудобно и непривычно… К тому же, ускоритель GeForce GTX Titan не приспособлен для стресс-тестов типа Furmark. Он быстро распознает нетипичную нагрузку и снижает частоту вместе с напряжением до минимального значения. Для проверки разгона мне пришлось воспользоваться программой тестирования Unigine Heaven в максимально тяжелых для видеокарты условиях.

393x485  24 KB

Частота GPU, ГГц
0.950
0.975
1
1.015
1.030
1.045
1.060
1.075
1.100
1.125
Power Target
100
102
106
106
106
106
106
106
106
106
Temp Target
80
85
95
95
95
95
95
95
95
95
GPU Clock offset
0
25
30
35
25
35
50
65
90
115
Напряжение, мультиметр, В
1.112
1.115
1.115
1.115
1.187
1.187
1.187
1.187
1.187
1.187
Температура GPU, °C
80
81
81
81
82
82
82
82
82
82
Температура VRM, °C
70
71
72
72
73
73
73
73
73
73
Обороты вентилятора (max), об/мин
2250
2350
2400
2400
2500
2500
2500
2500
2500
2500
Энергопотребление, Heaven, Вт
315
332
334
335
351
354
354
354
355
359

В итоге была достигнута стабильная частота графического процессора в 1125 МГц, а в играх и того больше – 1150 МГц. Не забыта и память, она разогналась совместно с GPU до 1650 МГц.

Пришло время рассмотреть видеокарту GeForce GTX Titan подробнее.

Оцените материал →

Объявления компаний (реклама) и анонсы
  • GTX 1070 - цены пошли вниз!
  • Новейший Moto Z Play - уже в Ситилинке!
  • ASUS R9 FURY STRIX ROG по цене RX 480
  • R9 390 Sapphire Nitro , еще одна крутейшая плата заМЕГАдешево




Обсуждение ВКонтакте (скрыть)