Платим блогерам
Редакция
Новости Hardware Mindango
Количество ядер CUDA намного больше ожидаемого ранее.

реклама

До сих пор мы обладали скудной информацией о 28 нм графических процессорах NVIDIA. В середине декабря прошлого года появились предположительные данные о характеристиках GPU GK104 и GK100, а спустя некоторое время стало известно, что решения с архитектурой Kepler уравняют частоты ядра и шейдерного домена.

Неизвестный доброжелатель обратил внимание на любопытный слайд, опубликованный ранее на ресурсе ChipHell и описывающий характеристики графических процессоров GK100, GK104, GK106, GK107 и GK108 во всех подробностях:

реклама

Изображение подтверждает догадки о равенстве частот, но в то же время несёт в себе информацию о невероятном количестве ядер CUDA, которым характеризуются старшие графические процессоры в иерархии решений с архитектурой Kepler. Так, GK104, как утверждается, должен обладать 1536 ядрами CUDA, 64 текстурными блоками, 32 блоками растеризации и работать на частоте 1050 МГц. При этом ширина интерфейса памяти составляет 256 бит, а уровень тепловыделения находится на отметке 225 ватт. Также упоминается быстродействие решения: Х3000 баллов в бенчмарке 3DMark 11 и 3.23 терафлопс в операциях одинарной точности (0.27 терафлопс в операциях двойной точности).

Гораздо внушительнее выглядит процессор GK100, которому приписывается 2304 ядра CUDA! Кроме того, флагман решений поколения Kepler должен получить 96 текстурных блоков, 64 блока растеризации, 512-битный интерфейс доступа к памяти и частоту 950 МГц. Соответствующим образом повышены показатели производительности: Х4500 баллов в 3DMark 11, 4.38 терафлопс в операциях одинарной точности и 1.46 терафлопс в операциях двойной точности. Безболезненно такая мощь не даётся и значение TDP для GK100 установлено на отметке 300 ватт.

Мы не можем утверждать, что эта информация является истиной последней инстанции, но, в то же время, у нас нет оснований для опровержения предоставленных данных. Ввиду этого, очередной раз призываем читателей отказаться от резких суждений и запастись терпением до официального анонса нового поколения видеокарт NVIDIA.

Написать комментарий (0)

Популярные статьи

Сейчас обсуждают