Gtx 980 ti дата выхода – Нежданно-негаданно. Тестирование видеокарты NVIDIA GeForce GTX 980 Ti — Игромания

Содержание

большой Maxwell пошел в массы / Видеокарты

В контексте существующего тренда на развитие GPU в сторону универсальных вычислительных устройств, который активно поддерживает сама NVIDIA, архитектура процессора GM200 стала вынужденным компромиссом. Так как производство крупных дискретных GPU еще не вырвалось из тисков техпроцесса 28 нм, ограничивающего всесторонний рост производительности за счет простого увеличения транзисторных бюджетов, для архитектуры Maxwell пришлось расставить четкие приоритеты: графика – в первую очередь, вычисления двойной точности (FP64) – по остаточному принципу (более подробно об этой архитектуре вы можете прочитать в обзорах GeForce GTX 750 Ti и GeForce GTX 980).

В качестве ускорителя для игр и вычислительных задач, не включающих операции FP64, TITAN X сделал большой шаг вперед относительно как GTX 980, так и группы плат, построенных на старшем чипе архитектуры Kepler – GK110: GTX 780/780 Ti, TITAN/TITAN Black. Но GeForce GTX 980 Ti неизбежно должен быть ограничен в конфигурации вычислительных блоков по сравнению с TITAN X, ведь производительность FP64, и так чрезвычайно низкая у GM200, не может служить фактором, отличающим плату серии TITAN от лидера игровой линейки GeForce. Основная интрига связана с тем, где в промежутке между GTX 980 и TITAN X производитель решит поместить новинку.

Как выяснилось, в GPU нового флагмана были отключены лишь 2 из 24 потоковых мультипроцессоров (SMM). Соответственно, GTX 980 Ti обладает 2816 активными ядрами CUDA и 176 текстурными блоками вместо 3072 и 192 в GPU TITAN X. Число ROP (96) не изменилось, равно как широта шины памяти (384 бит). Тактовые частоты GPU и памяти также остались в неприкосновенности, однако объем RAM был уполовинен до 6 Гбайт. Вот, собственно, и вся разница между GTX 980 Ti и TITAN X.

Модель Графический процессор Видеопамять TDP, Вт Рекомендованная розничная цена для рынка США (без налогов), $
Кодовое название Число транзис-торов, млн Тактовая частота, МГц: Base Clock / Boost Clock Число ядер CUDA Число текстур-ных блоков Число ROP Разряд-ность шины, бит Тип микро-схем Тактовая частота: реальная (эффектив-ная), МГц Объем, Мбайт
GeForce GTX TITAN X GM200 8 000 1000/1076 3072 192 96 384 GDDR5 SDRAM 1753 (7012) 12 280 250 999
GeForce GTX 980 Ti GM200 8 000 1000/1076 2816 176 96 384 GDDR5 SDRAM 1753 (7012) 6 144 250 649
GeForce GTX 980 GM204 5 200 1126/1216 2048 128 64 256 GDDR5 SDRAM 1750 (7000) 4 096 165 499
GeForce GTX 780 Ti GK110 7 100 875/928 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 3 072 250 699 (до снятия с продажи)

За эту скромную жертву полагается существенная скидка: GeForce GTX 980 Ti имеет рекомендованную цену $649 (США, без налогов) – куда дешевле, чем TITAN X ($999). Рублевый эквивалент составляет 39 990 р. Новый флагман основной геймерской линейки NVIDIA GTX 980 Ti получился дешевле, чем 780 Ti, до снятия с производства продававшийся за $699, и в то же время дороже, чем GTX 980 ($549 на момент релиза). Кстати, последний в связи с выходом 980 Ti получил уценку до $499.

Топовый однопроцессорный адаптер AMD – Radeon R9 290X – по прежнему остается наиболее выгодным предложением в верхнем сегменте игровых видеоадаптеров ($369), хотя равным соперником для него может быть в лучшем случае GTX 980, но никак не GTX 980 Ti. Более интересно столкнуть новоприбывшего с Radeon R9 295X2 (цена – от $789). И хотя последний – это уже устройство классом выше как по цене, так и по производительности, интересно проверить, что новый продукт NVIDIA сможет противопоставить такому монстру.

⇡#Поддержка новых аппаратных функций в DirectX 12 и GameWorks VR

Осталось немного времени до выхода в свет Windows 10, поэтому DirectX 12 уже обрел окончательный вид. В частности, представлены два «уровня» аппаратных функций (feature level). Напомним, что новая версия DirectX – это, с одной стороны, другой API, поддержка которого может быть внедрена в драйверы GPU, выпущенных до его появления. Соответственно, относительно старое «железо» также сможет воспользоваться преимуществами DX12 – в первую очередь более эффективным расходованием ресурсов CPU. С другой стороны, DirectX 12 представляет новые функции рендеринга, которые опционально могут быть реализованы в графических процессорах, но не требуются для работы новой runtime-библиотеки API. GPU, принадлежащие ко второй итерации архитектуры Maxwell, включая GM200, обладают полной поддержкой данных функций (feature level 12_0 и 12_1), среди которых можно выделить Volume Tiled Resources и Conservative Raster.

Первая дает возможность по требованию загружать в память видеоадаптера необходимые части большой трехмерной текстуры (необходимой для рендеринга жидкости или дыма), не расходуя ресурс RAM на текстуру целиком. Вторая обеспечивает точную локализацию пересекающихся границ полигонов, что в ряде ситуаций помогает избежать артефактов с прозрачными текстурами или, к примеру, наложением теней методом Ray Tracing, как показано на следующем слайде.

Одновременно с GTX 980 Ti NVIDIA представила набор библиотек GameWorks VR, предназначенных для адаптации игр к шлемам виртуальной реальности. Одна из ключевых функций GameWorks VR, которая опирается на аппаратные алгоритмы в GPU архитектуры Maxwell, – Multi-Res Shading – должна увеличить производительность при рендеринге сцены для стереоскопического шлема.

В окулярах шлема установлены линзы, позволяющие глазам сфокусироваться на близко расположенных LCD-экранах, потому картинка, отрисованная GPU, должна быть модифицирована, чтобы компенсировать искажение геометрии: края изображения сжимаются, как в фотоснимке, сделанном на объектив-«рыбий глаз». В результате часть работы, которую выполнил GPU, потратив ресурсы на рендеринг пикселов по краям изображения, обесценивается компрессией.

NVIDIA предлагает разделить кадр на несколько зон (viewports), рендеринг в которых выполняется одновременно, но с различным разрешением: больше в центре, меньше – по краям. Специальные алгоритмы задействуются, чтобы сопоставить края пикселей разного размера на границе зон, а затем формируется финальный кадр с искаженной геометрией. По утверждению разработчиков, Multi-Res Shading увеличивает производительность пиксельных шейдеров в 1,3-2 раза по сравнению с такой ситуацией, когда изображение изначально строится в высоком разрешении.

⇡#Конструкция

С виду GeForce GTX 980 Ti отличает от TITAN X только маркировка, цвет кожуха системы охлаждения (светлый в данном случае и черный у TITAN X), да еще количество микросхем памяти: поскольку объем RAM вдвое меньше, все чипы разместились на лицевой стороне платы, под общим радиатором.

Видеокарта оснащается закрытым кулером, уже неоднократно использованным NVIDIA в других топовых решениях, начиная с самого первого TITAN.

Не будем в очередной раз описывать устройство этой системы охлаждения. Достаточно отметить, что в радиатор GPU вмонтирована испарительная камера, которая также применялась в адаптерах на базе GK110, но отсутствовала в GTX 980.


Видеокарта обладает тремя разъемами DisplayPort и по одной штуке – HDMI и Dual-Link DVI-I.

⇡#Плата

Печатные платы GTX 980 Ti и TITAN X различаются лишь количеством распаянных чипов RAM. Память набрана 12 микросхемами SK hynix H5GQ4h34MFR-R2C со штатной частотой 7 ГГц.

Преобразователь напряжения построен по схеме 6+2 (число фаз для питания GPU и микросхем памяти соответственно) и содержит контроллер ON Semiconductor NCP81174. Дополнительное питание подается через один восьмиконтактный и один шестиконтактный разъемы.


Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

NVIDIA GeForce GTX
980 Ti
появится летом и получит полную версию GM200

Совсем недавно состоялся анонс нового графического процессора GM200 и видеоадаптера на его основе, NVIDIA GeForce TITAN X. Но новинка далеко не всем по карману, поскольку её официальная цена составляет $1000, а в европейском регионе и на территории Российской Федерации — ещё выше. Да и не всем нужны 12 гигабайт видеопамяти. Поэтому вспоминаются старые новости и предположения о возможном выпуске менее дорогой карты на базе того же чипа под именем GeForce GTX 980 Ti. Предположительно, её цена будет находиться в пределах $700, чтобы продукт мог полноценно конкурировать с AMD Radeon R9 390X.

Слухи о такой видеокарте ходят довольно давно, в основном, они касаются конфигурации будущей новинки и гласят, что часть вычислительных ядер в GeForce GTX 980 Ti будет отключена. Однако, как сообщает шведский ресурс Sweclockers, менее дорогая версия TITAN X получит полноценный, не усечённый в конфигурации чип GM200 со всеми его 3072 поточными CUDA-процессорами. Более того, GeForce GTX 980 Ti, по новой информации, будет иметь на 10 % более высокую тактовую частоту графического ядра, и лишь в объёме видеопамяти она уступит TITAN X — на борту будет установлено не 12, а 6 гигабайт видеопамяти GDDR5. Но мы знаем, что подавляющему большинству игр этого хватит с лихвой даже в разрешении 3840 × 2160. Лишь в редчайших случаях может потребоваться более 6 Гбайт.

Тут сразу же возникает вопрос цены и позиционирования. Как NVIDIA собирается позиционировать карту, которая в большинстве приложений будет пусть и не значительно, но всё же опережать TITAN X? GeForce GTX 980 Ti должна стоить дешевле TITAN X, иначе смысла в её выпуске нет, но чем же тогда объяснить столь высокую стоимость последнего? 12 гигабайт видеопамяти на полноценное оправдание никак не тянут, а отключить часть блоков FP64, как это NVIDIA делала ранее, не получится, поскольку GM200 и так весьма небогат в этом плане. Но это лишь предположения, поэтому придётся дождаться выпуска самой карты, который, как сообщает источник, состоится этим летом. Интересно отметить, что, в отличие от TITAN X, партнёры NVIDIA получат возможность создавать свои варианты печатных плат для GeForce GTX 980 Ti.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Nvidia Geforce GTX 980 Ti

Самый производительный однопроцессорный ускоритель игрового класса

Содержание

Представляем базовый детальный материал с исследованием Nvidia Geforce GTX 980 Ti.

Справочные материалы

Объект исследования: Ускоритель трехмерной графики (видеокарта) Nvidia Geforce GTX 980 Ti 6144 МБ 384-битной GDDR5 PCI-E

Сведения о разработчике: Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США. Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время — Geforce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) около 5000 человек.

Часть 1: Теория и архитектура

Совсем недавно отгремел анонс топовой новинки Nvidia из «титановой» премиальной серии — Geforce GTX Titan X, и вот мы снова знакомимся с почти столь же мощной видеокартой, но уже из привычной линейки Geforce GTX 900. Компания Nvidia приготовила свой ответ на ожидаемое вскоре новое топовое решение конкурента (даже не верится, что скоро мы увидим и его) и решила выпустить его в продажу чуть раньше видеокарты соперника. Собственно, ответ этот у них готов уже очень давно, даже Geforce GTX Titan X вышел не сразу, как только представилась такая возможность, а сегодняшний герой и вовсе является минимальной модификацией этого решения, во многом повторяющего его характеристики.

Мы уже много раз писали о новинках Nvidia, созданных на базе графических процессоров их последней архитектуры Maxwell, и осветили, пожалуй, практически все вопросы, связанные с работой этих видеокарт: все архитектурные изменения, новинки в функциональности, вопросы производительности. Казалось бы, писать больше особо не о чем. Но в последнее время появляются данные о новых технологиях, которые должны поработать для того, чтобы рынок игрового ПК-железа не зачах.

К примеру, ближе к концу года ожидается выход долгожданного обновления графического API Microsoft в виде DirectX 12, о котором мы подробнее напишем чуть ниже. Нельзя не отметить и набирающий силу интерес к использованию устройств вывода информации сверхвысокого разрешения — в так называемом 4K-разрешении. Благодаря резкому снижению цен на соответствующие мониторы и телевизоры, все большее число пользователей ПК обзаводится такими дисплеями.

За последний год количество 4K-мониторов у игроков выросло вдвое, и это только начало. К поддержке 4K-разрешения все видеокарты Nvidia на чипах архитектуры Maxwell также отлично подготовлены, они имеют специальные оптимизации для работы в таких условиях, поддерживают эффективные методы сжатия информации в кадровом буфере, а также единственные на рынке имеют поддержку видеовывода HDMI 2.0, позволяющую подключить 4K-телевизоры в полном разрешении при частоте обновления в 60 Гц.

Еще одним фактором (пока что лишь потенциальным) роста считаются устройства виртуальной реальности. Широкое появление VR-шлемов, очков и других аналогичных устройств в продаже ожидается в следующем году, и для популяризации виртуальной реальности важно, чтобы пользователи имели достаточно мощные видеокарты на базе GPU последних поколений, имеющие специальные оптимизации для VR и в целом обеспечивающие высокую производительность при минимальных задержках. Все это также относится к видеочипам семейства Maxwell в полной мере.

На данный момент, компания Nvidia выпустила уже несколько решений на основе чипов архитектуры Maxwell второго поколения, и сегодня к ним присоединяется еще одна модель — Geforce GTX 980 Ti. Это решение высочайшего уровня, обеспечивающего 3D-производительность лишь чуть хуже мощнейшей Geforce GTX Titan X. Новинка отличается большой математической и текстурной мощью, этот GPU включает 2816 потоковых ядер и оснащен шестью гигабайтами быстрой GDDR5-памяти. Новинка из топового ценового сегмента позволит будущим пользователям на несколько лет забыть о проблемах и тормозах, играя во все современные ПК-игры.

Так как рассматриваемая модель видеокарты от компании Nvidia основана на топовом графическом процессоре архитектуры «Maxwell» второго поколения, который мы уже рассматривали и который во многом схож с чипами предыдущей архитектуры «Kepler», то перед прочтением данного материала полезно ознакомиться с более ранними статьями о видеокартах компании Nvidia:

Итак, давайте рассмотрим подробные характеристики видеоплаты Geforce GTX 980 Ti, основанной на графическом процессоре GM200.

Графический ускоритель Geforce GTX 980 Ti
Параметр Значение
Кодовое имя чипа GM200
Технология производства 28 нм
Количество транзисторов около 8 млрд.
Площадь ядра около 600 мм2
Архитектура Унифицированная, с массивом общих процессоров для потоковой обработки многочисленных видов данных: вершин, пикселей и др.
Аппаратная поддержка DirectX DirectX 12, с поддержкой уровня возможностей Feature Level 12.1
Шина памяти 384-битная: шесть независимых контроллеров памяти шириной по 64 бита с поддержкой GDDR5-памяти
Частота графического процессора 1000 (1075) МГц
Вычислительные блоки 22 активных (из 24) потоковых мультипроцессора, включающих 2816 (из 3072) скалярных ALU для расчетов с плавающей запятой одинарной и двойной точности (с темпом 1/32 от FP32) в рамках стандарта IEEE 754-2008;
Блоки текстурирования 176 активных (из 192) блоков текстурной адресации и фильтрации с поддержкой FP16- и FP32-компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов
Блоки растеризации (ROP) 6 широких блоков ROP (96 пикселей) с поддержкой различных режимов сглаживания, в том числе программируемых и при FP16- или FP32-формате буфера кадра. Блоки состоят из массива конфигурируемых ALU и отвечают за генерацию и сравнение глубины, мультисэмплинг и блендинг
Поддержка мониторов Интегрированная поддержка до четырех мониторов, подключенных по интерфейсам Dual Link DVI, HDMI 2.0 и DisplayPort 1.2
Спецификации референсной видеокарты Geforce GTX 980 Ti
Параметр Значение
Частота ядра 1000 (1075) МГц
Количество универсальных процессоров 2816
Количество текстурных блоков 176
Количество блоков блендинга 96
Эффективная частота памяти 7000 (4×1750) МГц
Тип памяти GDDR5
Шина памяти 384-бит
Объем памяти 6 ГБ
Пропускная способность памяти 336,5 ГБ/с
Вычислительная производительность (FP32) около 6 терафлопс
Теоретическая максимальная скорость закраски 96 гигапикселей/с
Теоретическая скорость выборки текстур 176 гигатекселей/с
Шина PCI Express 3.0
Разъемы Один разъем Dual Link DVI, один HDMI 2.0 и три DisplayPort 1.2
Энергопотребление до 250 Вт
Дополнительное питание Один 8-контактный и один 6-контактный разъемы
Число слотов, занимаемых в системном корпусе 2
Рекомендуемая цена $649 (США), 39990 руб (Россия)

Новая модель Geforce GTX 980 Ti получила привычное для последних серий Geforce наименование — к названию менее мощного решения просто добавили приставку Ti. Новинка не заменяет в текущей продуктовой линейке компании других решений, а наращивает ее сверху, не вытесняя премиальные Titan X и двухчиповую Titan Z. Ну а ниже ее располагается модель Geforce GTX 980, основанная на менее сложном чипе GM204.

Рекомендованная цена на новую плату составляет $649, и это даже ниже ожиданий рынка. Как показывает практика, от Nvidia редко можно ждать цен ниже тех, что предполагаются экспертами, но сегодня — именно тот случай. Хотя новинка и является одним из лучших по производительности решений на рынке одночиповых видеокарт, но стоит не запредельно дорого (если учесть, что цена еще и включает ключ к игре Batman: Arkham Knight — по крайней мере, на западных рынках).

Похоже, что Nvidia таким образом наносит превентивный удар по позициям конкурента, переименованная (в очередной раз!) линейка которого должна вот-вот появиться, будучи дополненной только новым топовым решением. Естественно, изменились и цены на все остальные платы в серии Geforce GTX 900. Для GTX 980 рекомендованная цена теперь установлена в $499, GTX 970 будет стоить от $329, а GTX 960 — от $199. Очень хорошие цены, хотя конкурент может снизить их еще больше — им просто не остается ничего другого.

Рассматриваемая сегодня модель компании Nvidia основана на чипе GM200, имеющем 384-битную шину памяти, и память работает на частоте 7 ГГц, как у Titan X, что дает такую же пиковую пропускную способность в 336,5 ГБ/с — в полтора раза больше, чем в GTX 980. С такой шиной, объем установленной на видеокарту видеопамяти мог быть 6 или 12 ГБ, и в данном случае смысла в большем значении просто нет, к тому же оно занято моделью серии Titan. А на GTX 980 Ti установлено 6 ГБ, чего вполне достаточно для запуска любых 3D-приложений с любыми настройками качества — сейчас такого объема видеопамяти хватит для всех игр. Да и будущий топовый конкурент с предполагаемыми 4 ГБ памяти нового стандарта HBM останется в проигрыше.

Печатная плата Geforce GTX 980 Ti ничем особо не отличается от платы GTX Titan X, что неудивительно — они похожи по всем характеристикам. Значение типичного энергопотребления для Geforce GTX 980 Ti составляет 250 Вт — столько же, что и у Titan X. Да и в остальном платы одинаковы, длина референсной платы Geforce GTX 980 Ti составляет 267 мм, и на ней установлены такие же разъемы для вывода изображения: один Dual-Link DVI, один HDMI 2.0 и три DisplayPort.

Архитектура

Как и видеокарта Geforce GTX Titan X, анонсированная чуть ранее, новинка основана на графическом процессоре GM200. Он включает все архитектурные возможности чипа GM204, поэтому все сказанное в статье по GTX 980 относится в полной мере и к сегодняшней новинке — советуем сначала ознакомиться с материалом, в котором более полно рассмотрены архитектурные особенности Maxwell.

На сегодняшний день, GM200 — это самый мощный GPU как у Nvidia, так и вообще на рынке. Архитектурно видеочип GM200 полностью соответствует младшей модели GM204, он также состоит из кластеров GPC, в которые собрано по несколько мультипроцессоров SM. Графический процессор содержит шесть кластеров GPC, состоящих из 24 мультипроцессоров, но в данной модели были отключены два из них — в основном, чтобы Titan X оказалась все же немного быстрее, оправдывая свои название и цену.

Поэтому видеочип в варианте для модели Geforce GTX 980 Ti выпускается в слегка урезанном виде, он содержит на пару потоковых мультипроцессоров меньше, чем полное ядро GM200. Из 24 мультипроцессоров этого GPU, в данном варианте активны 22 штуки. Соответственно, чип включает 2816 потоковых процессора CUDA из 3072 имеющихся физически, и 176 (из 192) блоков выборки и фильтрации текстур TMU.

А вот количество блоков ROP и присоединенная к ним кэш-память второго уровня остались нетронутыми. GPU этой модификации имеет все 96 блока ROP и 3 МБ L2-кэша, имеющихся в графическом процессоре физически. Важно отметить, что так как по количеству ROP и объему кэш-памяти второго уровня в этой модификации ничего не урезано, то у Geforce GTX 980 Ti нет и проблем, аналогичных модели GTX 970, у которой урезаны ROP и L2-кэш, а вместе с ними и полоса пропускания для одного из сегментов видеопамяти (0.5 ГБ из имеющихся 4 ГБ в этой модели отличаются крайне медленным доступом). Nvidia не допустила подобной ситуации еще раз и скорость чтения из всех 6 ГБ памяти тут одинаково высокая.

Базовая тактовая частота новинки равна 1000 МГц, а средняя турбо-частота Boost Clock — 1075 МГц, то есть ровно столько же, сколько было у GTX Titan X. Не забываем, что реальная частота работы GPU в играх может отличаться от этих показателей, чаще всего в большую сторону, а средняя турбо-частота соответствует определенному набору приложений и условий. Теоретически, по сравнению с GTX Titan X, чип в новой модели может работать на несколько более высокой частоте, так как часть функциональных блоков отключена, что может позволить повысить рабочую частоту. Ну и возможности разгона должны быть чуть лучше — по первым отзывам, частот порядка 1400 МГц и даже выше добиться вполне реально.

Что касается оперативной памяти, то и тут все осталось неизменным по отношению к Titan X. Графический процессор GM200 в составе GTX 980 Ti имеет 384-битную шину памяти (шесть каналов по 64-бита), а чипы видеопамяти GDDR5 в объеме шести гигабайт работают на эффективной частоте в 7 ГГц. Что дает те же 336,5 ГБ/с, что и у дорогой старшей модели. То есть, по ПСП новинка аж на 50% быстрее младшей модели GTX 980.

Но сравнение с младшей сестрой не так интересно, как с ожидаемым решением конкурента, который будет оснащен новым типом памяти — High Bandwidth Memory, которая должна обеспечить порядка 512 ГБ/с. Само по себе преимущество в полосе пропускания памяти очень важно в графических задачах, но подсистему памяти и кэширования данных могут ограничивать и другие факторы, мешающие показать высокую эффективность и использовать все возможности GPU и видеопамяти. Так, чтобы решить эти потенциальные проблемы, в чипах второго поколения архитектуры Maxwell внедрили новое поколение подсистемы памяти, которое использует имеющуюся ПСП эффективнее.

Мы уже писали об этом более подробно ранее, все новые GPU компании Nvidia используют уже третье поколение алгоритма компрессии информации о цвете в кадровом буфере, которое поддерживает новые методы сжатия. Дополнительно к этому, каждый из мультипроцессоров SMM в чипе GM200 имеет собственную общую память объемом в 96 КБ, тогда как кэш-память первого уровня и текстурный кэш объединены в 48 КБ область на каждый мультипроцессор. Это решение выгодно отличает новые GPU от семейства Kepler, в которых использовалась общая память объемом в 64 КБ, которая также была и L1-кэшем. Все это дополнено кэш-памятью второго уровня приличного объема в 3 МБ. В итоге даже при негативной разнице в ПСП по сравнению с конкурирующими решениями, видеокарты Nvidia обычно показывают себя не хуже.

Во всем остальном чип GM200 ничем не отличается от GM204 по своим возможностям и поддерживаемым технологиям. И все то, что мы ранее писали про GTX 980 и GTX 970, в полной мере относится и к GTX 980 Ti. Поэтому по всем остальным вопросам функциональных тонкостей новинки вы можете обратиться к обзорам Geforce GTX 980 и GTX 750 Ti, в которых мы подробно писали об архитектуре Maxwell, устройстве потоковых мультипроцессоров (Streaming Multiprocessor — SMM), организации подсистемы памяти и некоторых других архитектурных отличиях. Там же вы можете ознакомиться и с функциональными возможностями, вроде аппаратной поддержки ускорения расчета глобального освещения VXGI, новых методов полноэкранного сглаживания и улучшенных возможностей графического API DirectX 12.

Некоторые изменения были внесены в возможности технологии G-Sync, которая позволяет получить максимально плавную смену кадров при условии использования поддерживаемого монитора. Технология реально значительно влияет на повышение комфортности при игре и заставляет устройство вывода сменять изображение только тогда, когда оно полностью рассчитано графическим процессором.

Такой подход убирает артефакты разрыва картинки и неплавности частоты кадров, которые появляются при использовании обычных мониторов с выключенной и включенной вертикальной синхронизацией. С технологией G-Sync получается так, что частота обновления картинки на мониторе полностью совпадает с частотой кадров, обеспечиваемой игровой системой.

Среди свежих нововведений в G-Sync выделим Variable Overdrive — технологию, которая обеспечивает более аккуратный цветовой сдвиг (color-shifting). Также новой для G-Sync является поддержка не полноэкранного режима работы, а оконного. Если раньше G-Sync по этому показателю уступал конкурирующей технологии от AMD, то теперь пользователи видеокарт Nvidia и соответствующих мониторов могут использовать 3D-приложения с точной синхронизацией и в оконном режиме.

Весьма ожидаемым стало появление поддержки G-Sync в игровых ноутбуках от компаний Gigabyte, MSI, Asus и Clevo, в которых применяются специальные LCD-панели, хорошо подходящие для игр, в том числе с разрешением 3К и 4К, а также частотой обновления в 75 Гц. Кроме этого, на рынке ожидается появление нескольких новых моделей мониторов с поддержкой этой технологии.

Так, компании Asus и Acer вскоре предложат пользователям по несколько новых моделей G-Sync-мониторов, включая наиболее интересные 34-дюймовые модели с изогнутой IPS-матрицей высокого разрешения 3440х1440 пикселей и частотой обновления в 75 Гц.

Полная поддержка возможностей DirectX 12

Компания Microsoft в своих материалах в основном рассказывает о внесенных в новую версию графического API оптимизациях производительности — Direct3D 12 позволяет меньше грузить CPU бесполезной работой, удобно контролировать использование ресурсов GPU, что раньше делалось операционной системой и видеодрайвером, а графический код можно лучше распараллелить на несколько вычислительных устройств. Все это позволяет значительно повысить производительность, особенно в условиях, когда она ограничена большим количеством вызовов функций отрисовки (draw calls). Что даже еще более важно, эти возможности поддерживаются на всех видеокартах Geforce, начиная с GTX 400.

Но не только оптимизации производительности отличают DirectX 12, в этом API есть еще и новые функции, помогающие внедрению в 3D-приложения новых эффектов. Среди них отметим появление поддержки объемных тайловых ресурсов (volume tiled resources), которые можно использовать при рендеринге реалистично выглядящих огня и дыма. DirectX 12 предлагает два уровня поддержки функциональности Feature Level: 12.0 и 12.1.

Уровень 12.0 включает поддержку тайловых ресурсов (tiled resources), которые можно использовать для рендеринга теней при помощи карт теней разного разрешения, bindless-текстур, увеличивающих одновременное количество обрабатываемых текстур в одной шейдерной программе и снижающих нагрузку на CPU, а также Typed UAV (Unordered Access Views). Уровень 12.1 добавляет ко всем этим особенностям еще и консервативную растеризацию и raster ordered view — эта функция дает контроль над порядком операций пиксельного шейдера и позволяет использовать алгоритмы для рендеринга полупрозрачных поверхностей, не требующие предварительной сортировки, например.

Дополнительно, все графические чипы семейства GM2xx поддерживают объемные тайловые ресурсы (volume tiled resources), схожие по типу с просто тайловыми, но в трехмерном виде. Принцип работы тайловых ресурсов состоит в разделении текстур на тайлы, а в процессе рендеринга приложение определяет и загружает в видеопамять лишь те тайлы, которые нужны для визуализации. Эта возможность позволяет игровым разработчикам получать более разнообразные текстуры на объектах в сцене при меньшем использовании видеопамяти, а также помогает в организации текстурного стриминга.

Так вот, ранее тайловые ресурсы были доступны лишь для двумерных текстур, а объемные тайловые текстуры переносят эту же функциональность на 3D-текстуры. Это логично, ведь множество эффектов нуждаются в объеме, чтобы выглядеть реалистично: жидкости, дым, огонь, туман — это лишь самые очевидные примеры. И рендеринг сложных сцен с содержанием подобных эффектов на GPU с поддержкой объемных тайловых текстур позволяет использовать ресурсы видеопамяти более эффективно, и также улучшать качество имитации того или иного эффекта. К примеру, для качественной имитации дыма в играх можно использовать симуляцию жидкостей, как показывала Nvidia в нескольких демонстрационных программах:

Ну а консервативная растеризация, также поддерживаемая чипами семейства Maxwell и являющаяся обязательной возможностью Feature Level 12.1, отличается от обычной растеризации тем, что в процессе отрисовываются не только те пиксели, в центр которых попала геометрия сцены, а все пиксели, в площадь которых попал даже маленький кусочек треугольника. Эту функциональность можно использовать в процессе вокселизации (конвертации геометрии в воксели), как в алгоритме глобального освещения VXGI от Nvidia, о котором мы неоднократно писали.

Операция эта далеко не бесплатная, консервативная растеризация в любом случае медленнее привычной, но если графический процессор обеспечивает аппаратную поддержку этой возможности, то вычисления производятся в разы быстрее, что будет полезно для некоторых алгоритмов, ожидаемых в играх в ближайшем будущем. Еще одним примером использования консервативной растеризации в играх можно считать качественный рендеринг теней, просчитанных при помощи трассировки лучей:

Как видите, такие тени выгодно отличаются от привычных теней с использованием карт теней отсутствием пиксельных «лесенок». А при обычном методе растеризации и алгоритме трассировки лучей в тенях получаются неприятные артефакты. Избавиться от них помогает включение консервативной растеризации, обеспечивающее этому алгоритму рендеринга теней идеальную пиксельную точность.

Самый важный вопрос — когда мы увидим все это великолепие в играх? По данным компании Microsoft, около 100 игровых разработчиков уже занимаются разработкой 3D-приложений, использующих возможности новой версии их графического API, и мы уже видели несколько соответствующих демонстраций на CryENGINE, Unity и Unreal Engine, запущенных на ПК с видеокартами Geforce на различных мероприятиях. Главное, что архитектура Maxwell от Nvidia обладает полноценной поддержкой всех возможностей текущей версии DirectX 12 уровня Feature Level 12.1 — самого совершенного на данный момент.

Виртуальная реальность с GameWorks VR

Наверняка почти все наши читатели уже в курсе новой реинкарнации виртуальной реальности, которая начала свой путь с подачи компании Oculus VR, позднее купленной компанией Facebook. Много-много лет назад довольно примитивные по современным меркам VR-шлемы выпускались многими компаниями, были довольно массивными при плохом качестве изображения, и при этом стоили сотни и даже тысячи долларов. С улучшением технических возможностей, за проекты шлемов и очков виртуальной реальности взялись несколько компаний, наиболее заметной из которых все же стала Oculus.

Виртуальная реальность — это один из возможных движителей, который возродит рынок игрового ПК-железа, так как все новинки быстрее приживаются на универсальной системе, позволяющей подключить буквально все, что угодно, и использовать это так, как хочется. ПК в качестве такой экспериментальной системы вполне подходит, поэтому есть надежда, что VR на ПК даст новый толчок рынкам комплектующих и игровому.

Но для успешного внедрения VR требуется не только аппаратная, но и программная поддержка. Как раз этим и занимаются в компаниях виртуальной реальности, так как с аппаратной точки зрения в VR-шлеме нет особо сложных технологий, почти все уже давно отработано. Самая главная проблема VR заключается в больших задержках между физическим действием игрока (поворотом головы) и изображением на экране — тут важна буквально каждая миллисекунда! Это на взгляд мы не заметим небольших задержек, а мозг наш все заметит. Отсюда и все проблемы с головокружением и тошнотой, которые и стараются сейчас решить, прежде всего.

Хотя не только это важно для VR, также очень полезной была бы специализированная поддержка VR со стороны графических процессоров, чтобы облегчить задачу рендеринга — ведь в таком случае картинку высокого разрешения приходится рендерить дважды — для каждого глаза отдельно. Инженеры компании Nvidia тесно работают с производителями аппаратного и программного обеспечения для виртуальной реальности и уже разработали несколько технологий, обеспечивающих лучшую поддержку VR со стороны GPU, назвав инициативу объединяющим наименованием GameWorks VR.

К примеру, можно взять различные оптимизации рендеринга. Общеизвестно, что VR-устройства используют в работе специальную оптическую систему из экрана высокого разрешения и линз, установленных перед ними в нескольких сантиметрах. Эти самые линзы и создают ощущение виртуальной реальности, обеспечивая соответствующий сверхширокий обзор с большим полем зрения.

Для работы VR-устройств, на их встроенный экран нужно вывести изображение, искаженное специальным образом — центр картинки крупно, а периферия по краям сжатая. В итоге с применением специальной линзы пользователь увидит правильное изображение с большим полем зрения (Field of View). И все это нужно сделать дважды — отдельно для каждого глаза.

Так как графические процессоры изначально спроектированы для получения обычного двумерного изображения, они не имеют специальной поддержки рендеринга специально растянутых изображений для систем виртуальной реальности. Вопрос приходится решать программным способом, отрисовывая 3D-картинку в нормальном режиме и сжимая изображение на периферии перед подачей его в VR-устройство.

Хотя такой подход отлично работает в VR с точки зрения качества картинки, он не слишком эффективен с точки зрения расходования вычислительных ресурсов. Ведь графический процессор рендерит изображение как типичную картинку для обычного монитора, когда центр изображения и его края одинаковы по значению. А при искажении изображения, требуемом VR-устройствами, огромная часть пикселей просто отбрасывается без пользы. Пиксели на периферии кадра сжимаются в несколько раз, и многие из них просто оказываются не нужны (см. иллюстрацию выше). В середине пиксели остаются почти один к одному, а с краев большая площадь заметно уменьшается в итоговом VR-изображении — это неэффективный подход.

Для решения проблемы эффективности VR-рендеринга, компанией Nvidia была придумана технология Multi-Res Shading, разработанная специально для систем виртуальной реальности и использующая возможности мультипроецирования (multi-projection) — все графические процессоры Maxwell второго поколения умеют одновременно проецировать геометрию сцены на несколько проекций.

В случае с виртуальной реальностью, технология работает так — картинка делится на несколько областей (viewport) и каждая из них отрисовывается в разных разрешениях, в зависимости от расположения. Так, разрешение центральной области остается без изменений, а боковые области масштабируются в зависимости от требуемого качества. На обычных GPU без поддержки мультипроецирования, потребовалось бы несколько раз отрисовать одну и ту же геометрию в несколько буферов, а эта возможность позволяет за один проход спроецировать геометрию сразу в несколько буферов.

В результате, по оценке Nvidia, эта технология обеспечивает 1.3-2-кратный рост производительности пиксельных шейдеров, по сравнению с традиционным подходом рендеринга всего изображения с одинаковым разрешением. Что самое важное, эта технология из GameWorks SDK уже доступна разработчикам систем виртуальной реальности, многие из которых уже занимаются ее внедрением.

Видеокарты Geforce последнего поколения, основанные на графических процессорах архитектуры Maxwell второго поколения, можно назвать идеальной платформой для разработки и использования систем виртуальной реальности, ожидаемых от многих компаний в ближайшие месяцы. Помимо того, что для VR-систем критичным показателем является высокая производительность и максимально плавная смена кадров, которая вполне обеспечивается топовым Geforce GTX 980 Ti, для них важна и программная и аппаратная поддержка со стороны производителя GPU.

В случае VR-систем особенно важной станет правильная подстройка параметров игры и качества 3D-графики, чтобы обеспечить максимальную плавность, ведь проблемы с производительностью могут вызвать физическое недомогание у игроков. Тут как нельзя лучше подойдет утилита Geforce Experience, входящая в комплект драйверов Nvidia, которая обеспечит оптимальные настройки для всех 3D-приложений, в том числе и VR (в будущем). А для VR-разработчиков очень полезной является инициатива GameWorks VR, сочетающая набор API, библиотек и технологий, помогающих в освоении виртуальной реальности.

Совсем скоро мы наконец-то увидим результаты этой работы в широком доступе, а пока что приходится довольствоваться видеороликами из многочисленных демонстрационных версий и пятиминутными просмотрами в VR-шлемах на различных мероприятиях, посвященных играм и 3D-графике. Демонстрации довольно впечатляющие, надо сказать, их выпустили уже несколько компаний, вот лишь несколько примеров: «Thief in the Shadows» — совместная разработка Nvidia, Epic, Oculus и WETA Digital – студии, создававшей визуальные эффекты в кинотрилогии «Хоббит», «Back to Dinosaur Island» — перезагрузка известной 14 лет назад демо-программы «X-Isle: Dinosaur Island» от Crytek, демонстрации от Valve: «Portal», «Job Simulator», «TheBluVR» и «Gallery», а также демо-программа виртуальной реальности на движке Unity 5.

Предварительная оценка производительности

Для начала давайте рассмотрим табличку сравнения Geforce GTX 980 Ti с моделями схожего позиционирования прошлых лет: GTX 680 и GTX 780 Ti, которые завоевали немалую популярность у ПК-игроков. Новинка Nvidia выглядит заметно лучше своих предшественниц, она до трех раз быстрее GTX 680, обеспечивает играбельную частоту кадров даже в 4K-разрешении во всех играх с максимальными настройками. Кроме того, графический процессор GM200 архитектуры Maxwell поддерживает все возможности Feature Level 12.1 из DirectX 12, а видеокарта оснащена шестью гигабайтами видеопамяти, против 2 и 3 ГБ у предшественниц.

Новая топовая видеокарта хороша, как ни крути. Особенно если рассматривать ее энергоэффективность, ведь технологический процесс за долгие годы не изменился, как и потребление энергии, а производительность выросла в разы. Исходя из теории, Geforce GTX 980 Ti по скорости располагается куда ближе к GTX Titan X, чем к GTX 980, например. Так, новинка имеет на 38% больше блоков ALU и TMU, значительно больше блоков ROP. да и по ПСП имеет серьезное преимущество. В целом, Geforce GTX 980 Ti урезан относительно GTX Titan X примерно на 10% (по количеству блоков ALU и TMU — самых важных для видеочипа), а по блокам ROP и ПСП и вовсе идет вровень.

Зато по сравнению с Geforce GTX 980, у новинки на 38% больше процессоров CUDA и текстурных блоков, а по пропускной способности памяти еще больше — это очень приличная разница. В целом, по сравнению с топовыми моделями Geforce GTX предыдущих поколений, новая модель выглядит намного более производительной в теории. Да и на практике это подтверждается, особенно в удобных для новинки высоких и сверхвысоких разрешениях:

По оценке компании Nvidia, по средней частоте кадров в самых современных играх, включая Witcher 3, Assassin’s Creed: Unity, Grand Theft Auto: IV, Far Cry 4, Dragon Age: Inquisition, Shadow of Mordor и Watch Dogs, запущенных на топовой системе с высокими игровыми настройками в разных разрешениях, представленная сегодня модель Geforce GTX 980 Ti от двух до трех раз быстрее, чем Geforce GTX 680 (максимальная разница наблюдается в разрешении 4K, разумеется), а предшественница GTX 780 Ti обойдена в среднем в полтора раза. Приводит Nvidia и конкретные примеры игр, протестированных в самом высоком разрешении:

Как видите, Geforce GTX 980 Ti обеспечивает куда большую частоту кадров в таких условиях, если сравнивать ее с давно устаревшей моделью GTX 680. Преимущество в 2.2-2.6 раз в таких случаях совершенно неудивительно. Куда интереснее будет сравнить новинку с… а ее сейчас особенно и сравнивать то не с чем. Ведь конкурента от AMD для топовых решений Nvidia до сих пор нет на рынке, они только обещают выпустить свой вариант в июне — нам придется подождать его еще какое-то время.

Выводы по теоретической части

С архитектурной точки зрения, графический процессор, применяемый в Geforce GTX 980 Ti, не отличается от того, что мы видели в GTX Titan X. GM200 включает лучшее из прошлых архитектур компании, дополнительную функциональность и улучшения второго поколения Maxwell. При помощи полной переработки исполнительных блоков, инженеры компании Nvidia добились для этого поколения GPU лучшего показателя энергоэффективности — соотношения производительности к потреблению энергии, добавив при этом еще в функциональности (полная поддержка Feature Level 12.1 из графического API DirectX 12).

Компания Nvidia выпустила очередного флагмана для своей линейки в виде модели Geforce GTX 980 Ti, предназначенной для энтузиастов компьютерных игр. Ей нипочем любые игровые настройки, любые разрешения и уровни сглаживания, она всегда обеспечит приемлемую играбельность. Особенно выгодно она выделяется на фоне многочиповых решений, имеющих определенные недостатки, связанные с неплавной сменой кадров и увеличением задержек — одночиповое решение всегда лучше при прочих равных, да и при небольшой разнице в цене оно обеспечивает не только лучшую скорость, но и меньшие нагрев и шум.

Увы, но сравнивать с одночиповыми видеокартами Geforce GTX 980 Ti толком не получится — у нее нет конкурентов, если не считать таковым старшую сестру GTX Titan X. Компания AMD так до сих пор и не выпустила конкурентоспособную топовую видеокарту, но мы ждем ее анонса с недели на неделю. И мы уверены, что сражение новинок от Nvidia и AMD будет жарким!

Geforce GTX 980 Ti отличается применением самого мощного GPU компании Nvidia, лишь слегка урезанного по своей производительности и содержащего 2816 активных потоковых процессоров (по сравнению с 3072 ядер у GTX Titan X). Аналогично было уменьшено количество текстурных блоков. Зато количество блоков растеризации и каналов памяти осталось тем же, в итоге подсистема памяти новинки включает шесть 64-битных каналов (всего 384-бита), по которым подключены 6 ГБ памяти, работающей на частоте в 7 ГГц.

Тактовые частоты новинки ничуть не изменились — 1000 МГц базовой и 1075 МГц Boost-частоты. В целом, пусть GTX 980 Ti немного уступает GTX Titan X из элитной серии, но разница в производительности не должна быть больше 5-10%, а шести гигабайт видеопамяти хватит на то время, пока этот GPU не потеряет своей актуальности — то есть, на несколько следующих лет.

Кроме этого, Geforce GTX 980 Ti получила еще и весьма привлекательную цену в $649, даже несколько неожиданную для топового решения Nvidia. Непонятно, насколько сильно на цену повлиял предполагаемый скорый выпуск конкурента от компании AMD, но факт есть факт. Представленная сегодня модель очень мощная, но при этом совсем не настолько дорогая, как GTX Titan X с почти той же производительностью и ровно теми же возможностями. Отличное предложение для энтузиастов ПК-игр!

Анонс новинки совпал с началом работы выставки Computex 2015, которая вот-вот начнется на Тайване, а появления видеокарт от партнеров Nvidia в магазинах можно ожидать уже в течение недели после анонса, в зависимости от рынка. На российском рынке новая топовая видеокарта Geforce ожидается уже с 2 июня. Конечно же, в продажу выйдут не только видеокарты референсного дизайна, чуть позже производители начнут продавать и изделия, имеющие оригинальные печатные платы и системы охлаждения.

В следующих частях нашего материала мы исследуем скорость рендеринга новой видеокарты Nvidia Geforce GTX 980 Ti на практике, сравнив ее скорость с производительностью самых мощных видеосистем от компании AMD и со скоростными показателями плат на чипах производства Nvidia, сначала в нашем привычном наборе синтетических тестов, а потом и в играх.

Средняя текущая цена (количество предложений) в московской рознице:
Рассматриваемые карты Конкуренты
GTX 980 Ti — $655 (на 01.06.16) R9 290X — $431(33)
GTX 980 Ti — $655 (на 01.06.16) GTX 780 Ti — $518(11)
GTX 980 Ti — $655 (на 01.06.16) GTX 980 — $495 (на 01.06.16)

Благодарим компанию Nvidia Russia
и лично Ирину Шеховцову
за предоставленную на тестирование видеокарту

2 блока питания Thermaltake DPS G 1050W/Амур 1200 для тестового стенда предоставлены компанией Thermaltake Корпус Corsair Obsidian 800D Full Tower для тестового стенда предоставлен компанией Corsair Модули памяти Corsair Vengeance CMZ16GX3M4X1600C9 для тестового стенда предоставлены компанией Corsair Corsair Hydro SeriesT h200i CPU Cooler для тестового стенда предоставлен компанией Corsair
Монитор Dell UltraSharp U3011 для тестовых стендов предоставлен компанией Юлмарт Системная плата Asus Sabertooth X79 для тестового стенда предоставлена компанией Asustek Системная плата MSI X79A-GD45(8D) для тестового стенда предоставлена компанией MSI Жесткий диск Seagate Barracuda 7200.14 3 ТБ для тестового стенда предоставлен компанией Seagate
Накопитель SSD OCZ Octane 512 ГБ для тестового стенда предоставлен компанией OCZ Russia 2 накопителя SSD Corsair Neutron SeriesT 120 ГБ для тестового стенда предоставлены компанией Corsair Монитор Asus ProArt PA249Q для рабочего компьютера предоставлен компанией Asustek Клавиатура Cougar 700K для рабочего компьютера предоставленa компанией Cougar

Видеокарта NVIDIA GeForce GTX 980 Ti

Наименование: NVIDIA GeForce GTX 980 Ti
Серия: GeForce 900
Архитектура GPU: Maxwell
Модель GPU: GM200-310
Ядер CUDA: 2816
Базовая тактовая частота (Boost): 1000 MHz (1075 MHz)
Быстродействие памяти: 7 Гбит/с
Память: 6 Gb GDDR5 384-bit

geforce gtx 980 tigeforce gtx 980 ti

4.7 / 5 ( 4 голоса )

Видеокарта NVIDIA GeForce GTX 980 Ti создана на основе 28 nm техпроцесса и основанная на графическом процессоре GM200-310. Карта поддерживает Directx 12 (API). NVIDIA разместила 6144 мегабайт GDDR5, которая подключена с использованием 384-bit интерфейса.
Графический процессор работает на частоте 1000 MHz, которую можно повысить до 1075 MHz. Количество ядер CUDA составляет 2816, с быстродействием 7000 Мбит/с и пропускной способностью 336.5 Гбит/с.

Энергопотребление видеокарты составляет 250 Вт, а рекомендуемый блок питания на 600 Вт.

NVIDIA GeForce GTX 980 Ti поддерживает Microsoft DirectX 12 (API) и OpenGL 4.5.

Характеристики видеокарты NVIDIA GeForce GTX 980 Ti

Характеристики GPU:
Модель: NVIDIA GeForce GTX 980 Ti
Серия: GeForce 900
Модель GPU: GM200-310
Архитектура: Maxwell
Техпроцесс: 28 nm
Ядер CUDA: 2816
Графических процессоров (GPC): 6
Потоковых мультипроцессоров (SMs): 22
Текстурных блоков (TMUs): 172
Базовая тактовая частота: 1000 MHz
Тактовая частота с ускорением (Boost): 1075 MHz
Количество транзисторов: 8 миллиардов
Характеристики памяти:
Объем памяти: 6 Gb
Тип памяти: GDDR5
Шина памяти: 384-bit
Быстродействие памяти: 7000 Мбит/с (7 Гбит/с)
Пропускная способность: 336.5 Gbps
Скорость заполнения текстур: 176 GTexel/s
Поддержка дисплеев:
Максимальное цифровое разрешение: 5120×[email protected]Гц DisplayPort
Максимальное VGA разрешение: 2048×1536
Стандартные разъемы: Dual Link DVI-I, DisplayPort, HDMI
Поддержка нескольких мониторов: Да
HDCP: Да
HDMI: Да
Аудио вход для HDMI: Internal
Тепловые характеристики:
Максимальная температура GPU: 91 ℃
Потребление энергии (TDP): 250 Вт
Рекомендованные требования по питанию: 600 Вт
Дополнительные разъемы питания: 6-pin + 8-pin
Размеры видеокарты:
Высота: 11,16 см
Длина: 26,67 см
Ширина: 2 слота
Технологии и возможности:
SLI: Да, 4-way
V-Sync: Да
PhysX: Да
GameStream: Да
GPU Boost: 2.0
DirectX: 12 (API)
Vulkan API: Да
OpenGL: 4.5
Шина: PCIe 3.0
Поддержка ОС: Microsoft Windows 7-10, Linux, FreeBSDx86

Обратите внимание: в таблице представлены эталонные характеристики видеокарты, они могут отличаться у разных производителей.


Новые драйверы для видеокарты NVIDIA GeForce GTX 980 Ti

Драйвер GeForce Game Ready Driver Desktop:

Операционная система:
Windows 10 64-bit

Версия:
441.87 WHQL

Тип:
Standard

Операционная система:
Windows 10 64-bit

Версия:
441.87 WHQL

Тип:
DCH

Операционная система:
Windows 8 64-bit, Windows 7 64-bit

Версия:
441.87 WHQL

Тип:
Standard

Информация о драйвере:

Название драйвера:
GeForce Game Ready Driver
Тип драйвера:
Графический драйвер
Версия драйвера:
441.87 WHQL — Официальный драйвер
Язык драйвера:
Русский

Операционная система:
Windows 10 64-Bit
Windows 8 64-Bit
Windows 7 64-Bit

Устаревшие драйверы драйверы для видеокарты NVIDIA GeForce GTX 980 Ti

Операционная система:
Windows 10 64-bit

Версия:
391.35 WHQL

Дата выхода:
27 Марта 2018

Статус:
Устарел

Операционная система:
Windows 10 32-bit

Версия:
391.35 WHQL

Дата выхода:
27 Марта 2018

Статус:
Устарел

Операционная система:
Windows 8 32-bit, 8.1 32-bit, 7 32-bit

Версия:
391.35 WHQL

Дата выхода:
27 Марта 2018

Статус:
Устарел

Операционная система:
Windows 8 64-bit, 8.1 64-bit, 7 64-bit

Версия:
391.35 WHQL

Дата выхода:
27 Марта 2018

Статус:
Устарел

Операционная система:
Windows XP 32-bit

Версия:
368.81 WHQL

Дата выхода:
14 Июля 2016

Статус:
Устарел

Операционная система:
Windows XP 64-bit
Windows Server 2003 x64

Версия:
368.81 WHQL

Дата выхода:
14 Июля 2016

Статус:
Устарел

Скачивание драйвера для видеокарты NVIDIA GeForce GTX 980 Ti производится с официального сайта!

Или воспользуйтесь программой GeForce Experience — она автоматически подберет необходимый драйвер для Вашей видеокарты.


Производительность NVIDIA GeForce GTX 980 Ti в играх:

Среднее значение fps, при тестировании видеокарты NVIDIA GeForce GTX 980 Ti в 1080p с максимальными настройками в популярных играх:

Counter-Strike: Global Offensive
208 fpsPUBG PlayerUnknown’s Battlegrounds
74 fpsThe Witcher 3 — Wild Hunt
84 fps

Данные предоставлены сайтом UserBenchmark

Производительность и тесты NVIDIA GeForce GTX 980 Ti

Bitcoin mining

385.89 mHash/s

Распознавание лиц

144.09 mPixels/s

Частые вопросы и ответы по видеокарте NVIDIA GeForce GTX 980 Ti

Какая это серия у видеокарты?

Серия видеокарты: GeForce 900

Какое энергопотребление и требования по питанию?

Максимальное энергопотребление составляет: 250 Вт.
Рекомендуемый блок питания: 600 Вт.
Разъемы дополнительного питания: 6-pin + 8-pin.

Где скачать драйвер GeForce GTX 980 Ti?


Архитектура Maxwell

Видеокарты на 6Gb

Обзор NVIDIA GeForce GTX 980: энергетическая революция / Видеокарты

В номенклатуре дискретных видеоадаптеров NVIDIA произошло нечто необычное: видеокарты GeForce минуют 800-ю серию и сразу переходят к линейке GeForce 900. Сделано это для того, чтобы синхронизировать наименования десктопных и мобильных SKU. В ноутбуках уже используются адаптеры 800-й серии, большинство из которых оснащены GPU архитектуры Kepler, а поскольку новые десктопные видеокарты основаны на архитектуре Maxwell, эту разницу следовало подчеркнуть, сразу запустив серию GeForce 900.

Сегодня NVIDIA представила две модели, в основе которых лежит графический процессор GM204. Если судить по этому коду, чип принадлежит к той же категории, что и GK104, первенец архитектуры Kepler, — это GPU второго эшелона. За более производительным ядром должно быть зарезервировано наименование GM201 или GM210. Ну а пока NVIDIA предлагает GM204 в качестве полноценной замены GK110 — топового ядра предыдущей архитектуры — в игровых видеоадаптерах. Пример GeForce GTX 680 показал, что относительно компактное ядро нового поколения может справиться с такой задачей, но в прошлый раз GK104 поспособствовал переход с техпроцесса 40 на 28 нм.

Однако оба основных производителя GPU вот уже три года как пользуются узлом 28 нм на TSMC и не имеют возможности перейти на 20 нм в ближайшей перспективе. Такая линия уже действует на TSMC, но пока что зарезервирована для производства мобильных SoC. Поэтому сейчас NVIDIA полагается исключительно на архитектурные изменения, которые должны увеличить производительность, используя резерв технологии 28 нм. Это и есть краеугольный камень Maxwell — радикальное увеличение производительности на ватт. Вплоть до 100%, если верить NVIDIA.

Поставки GeForce GTX 770, 780 и 780 Ti с сегодняшнего дня официально прекращаются. На смену им приходят GeForce GTX 970 и GTX 980. Новые адаптеры изначально дешевле, чем их предшественники: $329 (14 990 р. для России) за GTX 970 и $549 (23 990 р.) за GTX 980. Осталось убедиться в том, что они обладают как минимум не худшей производительностью. Начнем с GTX 980. Обзор GeForce GTX 970 вы увидите в ближайшее время.

⇡#Архитектура Maxwell: общие принципы

С архитектурой Maxwell мы уже познакомились на примере процессора GM107, который был представлен ранее в составе карт GeForce GTX 750 и 750 Ti. В целом, как и следовало ожидать, GM204 представляет собой увеличенный аналог GM107, а устройство строительных блоков GPU осталось по большей части неизменным. Повторим описание архитектуры Maxwell, данное в обзоре GTX 750 Ti и дополненное той информацией, которую мы получили позднее.

Maxwell является первым плодом стратегии NVIDIA, в соответствии с которой новые архитектуры GPU создаются в первую очередь с расчетом на мобильные и ультрамобильные устройства, а во главе угла стоит энергоэффективность.

Если судить по представленным блок-схемам, основное новшество Maxwell заключается в эффективной реорганизации исполнительных компонентов GPU. На глобальном уровне GM204 следует принципам, заложенным еще в Kepler (подробнее о них можно прочитать в обзоре GeForce GTX 680). Вся вычислительная логика сосредоточена в структурах под названием Graphics Processing Cluster (GPC), которых в GM204 четыре. Вне GPC расположен весь back-end процессора в виде блоков ROP и нескольких 64-битных контроллеров памяти, а также Giga Thread Engine, выполняющий функции смены контекста, одновременного исполнения kernel’ов и распределения потоков нагрузки между GPC.

 

Блок-схема NVIDIA GM204

Первое количественное отличие от Kepler здесь состоит в кеше L2, увеличенном с 256 до 2048 Кбайт, что должно компенсировать узкую, 128-битную шину, а также сократить расход энергии на транзакции с весьма прожорливой памятью, каковой является GDDR5 SDRAM.

На уровне GPC значимых нововведений по сравнению с Kepler не заметно. Есть несколько Stream Multiprocessors (которые теперь называются аббревиатурой SMM, а не SMX), и есть единственный Raster Engine, выполняющий первоначальные стадии рендеринга: определение граней полигонов, проекцию и отсечение невидимых пикселов.

Главные изменения произошли внутри потоковых мультипроцессоров. Идея состоит в том, чтобы сместить соотношение управляющей и вычислительной логики в пользу первого компонента. Как и в Kepler, потоковый мультипроцессор содержит четыре планировщика, но число ядер CUDA уменьшилось с 192 до 128, а текстурных блоков — с 16 до 8.

Известно, что отдельно взятый планировщик за такт может обратиться к одному (а при наличии параллелизма в потоке — сразу к двум) из следующих массивов вычислительных блоков:

  • 32 ядра CUDA;
  • 8 блоков Load/Store;
  • 8 SFU;
  • 4 текстурных блока.

Ключевое нововведение Maxwell состоит в том, что исполнительные блоки теперь не являются одинаково доступными для адресации любому планировщику. Каждый планировщик теперь получил в свое распоряжение фиксированную часть ресурсов: 32 ядра CUDA, 8 блоков Load/Store и SFU (Special Function Units, выполняющие, к примеру, тригонометрические операции). Только текстурные блоки и ядра CUDA, совместимые с вычислениями FP64, по-прежнему являются общими ресурсами.

Какие преимущества по сравнению с Kepler дает такая организация? Во-первых, потоковый мультипроцессор Maxwell, избавившись от 64 ядер CUDA, меньше полагается на параллелизм инструкций: четыре планировщика даже в пессимистичном сценарии способны обслужить 128 ядер CUDA. Разделение исполнительных блоков на отдельные «домены» также позволило сократить логику, которая соединяет с ними планировщики (crossbars) и координирует действия самих планировщиков. Планировщики также оптимизированы с целью уменьшения латентности исполнения инструкций. В конечном счете эти изменения позволили сохранить 90% производительности отдельного потокового мультипроцессора при существенно меньшей площади SMM.

Maxwell базируется на оптимизациях энергопотребления, представленных в архитектуре Kepler. После архитектуры Fermi NVIDIA отказалась от динамических планировщиков внутри GPU, переложив всю работу по планированию внеочередного исполнения инструкций на компилятор в составе драйвера. Такой подход позволил существенно сократить мощность, к тому же он не оказывает большого негативного влияния на собственно шейдерные вычисления. Однако задачи общего назначения (GP-GPU), не связанные с графикой, не всегда предсказуемы для компилятора, поэтому, в то время как архитектура GCN от AMD наращивает производительность за счет дополнительного ILP (параллелизма на уровне инструкций), чипы Kepler/Maxwell достигают равной эффективности только за счет грубой силы в виде большого количества CUDA-ядер.

Что касается именно GM204, то, поскольку это чип второй категории, а более крупное ядро на базе Maxwell, возможно, ожидает нас в будущем, NVIDIA нашла приемлемым оставить в каждом SMM только четыре ядра CUDA с поддержкой F64. В результате производительность GM204 в вычислениях двойной точности относительно производительности при работе с FP32 даже меньше, чем у GK104, — 1/32 против 1/24.

⇡#GM204: вторая итерация Maxwell

Рассмотрим конфигурацию GM204 более внимательно. Цифра два в названи чипа указывает на вторую версию архитектуры Maxwel. И действительно, GM204 имеет несколько отличий от предтсавленных ранее GPU GM107 и GM108. Во-первых, на блок-схемах геометрический движок Polymorph Engine имеет версию 3.0, в то время как в GM107 — 2.0. Апгрейд обесечивает работу некоторых из новых аппаратных функций GM204.

Представленные в GM204 функции рендеринга делают его совместимым с наиболее полным feature level, официально существующим в стандарте DirectX — 11_1. Подробнее о них — в разделе ниже.

Другим дополнением архитектуры Maxwell второй волны стал усовершенствованный аппаратный кодек H.264 — NVENC. В Maxwell первой волны GPU уже был способен кодировать видео 1080p на скорости в 6-8 раз быстрее реального времени (4х для Kepler) и декодировать в 8-10 раз быстрее. Поддерживаются и 4K-разрешения. Кроме того, в Maxwell предусмотрен новый режим энергопотребления GC5, предназначенный для снижения мощности при легкой нагрузке — такой как декодирование видео силами NVENC. NVIDIA еще не внедрила в кремний декодер стандарта H.265 — он ускорятся лишь частично, с выполнением доли операций на CPU. Чем в этом плане отличается GM204, так это поддержкой полностью аппаратного кодирования видео стандарта H.265. Необходимая для этого производительность используется функцией NVIDIA ShadowPlay, которая позволяет на GM204 делать запись игрового процесса в разрешении Ultra HD с частотой 60 кадров/с. Увы, дела с поддержкой fixed-function-логики для кодирования видео в других, даже профессиональных приложениях, обстоят из рук вон плохо, хотя само железо давно присутствует в чипах NVIDIA и AMD.

По числу вычислительных блоков чип представляет собой промежуточный вариант между GK104 и GK110. В нем нет такого количества ядер CUDA, как в GK110. Но, принимая во внимание разную архитектуру, нельзя сравнивать чипы на базе Kepler и Maxwell напрямую по количеству исполнительных блоков. NVIDIA утверждает, что благодаря реогранизации логики GPU удалось увеличить эффективность ядра CUDA на 40%.

Наконец, GM204 имеет больше ROP, чем топовый Kepler, — 64 против 48. Это явно пойдет на пользу видеоадаптеру в 4К-разрешении, как показывает пример GPU AMD Hawaii, который также несет 64 ROP. Однако для того, чтобы реализовать потенциально столь большую скорость заполнения пикселов, требуется достаточная пропускная способность DRAM.

Между тем, конфигурация шины памяти адаптеров на GM204 такая же, как у GeForce GTX 770: разрядность 256 бит и эффективная частота 7 ГГц, в то время как GK110 и Hawaii используют, соответственно, 384- и 512-битные шины. Создателям GM204 пришлось принять меры для экономии пропускной способности интерфейса, которые, помимо увеличенного кеша L2, состоят в новом алгоритме цветовой компрессии. Это третья версия алгоритма, впервые представленного в чипе NV40, позволяющая сжимать данные с соотношением вплоть до 8:1 без потери информации.

⇡#GeForce GTX 970/980: технические характеристики

На основе GM204 NVIDIA выпустила два видеоадаптера — GeForce GTX 970 и GTX 980, которые различаются числом активных вычислительных блоков и тактовыми частотами. Флагманский адаптер имеет 1126 МГц базовой частоты по штатным спецификациям — это, прямо скажем, внушительное значение для техпроцесса 28 нм и 5,2 млрд транзисторов.

Новинки имеют беспрецедентно низкий TDP для своего класса: 145 и 165 Вт соответственно. Также весьма впечатляет, если учесть, что новинки заменяют в линейке GeForce модели с энергопотреблением от 230 до 250 Вт. Впрочем, забегая вперед, отметим, что в реальности запросы GM204 оказались повыше.

Поскольку GPU имеет 256-битную шину памяти, объем DRAM обеих моделей составляет 4 Гбайта. В этом плане GTX 970/980 превзошел модели GTX 780/780 Ti, имеющие 3 Гбайт RAM по референсным спецификациям, и не уступает топовым видеокартам AMD, которые также комплектуются 4 Гбайт видеопамяти на ядро.

Большие изменения GTX 980 принес в конфигурации видеовыходов. NVIDIA удалила один из портов DVI, зато теперь карта несет три разъема DisplayPort и HDMI стандарта 2.0 (что означает поддержку 4К-разрешений при частоте 60 Гц).

Модель Графический процессор Видеопамять Шина ввода/ 
вывода
TDP, Вт

Кодовое название

Число транзисторов, млн

Техпроцесс, нм

Тактовая частота, МГц: 
High State /Boost State

Число шейдерных потоковых процессоров

Число текстурных блоков

Число ROP

Разрядность шины, бит

Тип микросхем

Тактовая частота: реальная (эффективная), МГц

Объем, Мбайт

GeForce GTX 980

GM204

5200

28

1126/1216

2048

128

64

256

GDDR5 SDRAM

1750 (7000)

4096

PCI-Express 3.0 x16

165

GeForce GTX 970

GM204

5200

28

1050/1178

1664

104

64

256

GDDR5 SDRAM

1750 (7000)

4096

PCI-Express 3.0 x16

145

GeForce GTX 780 Ti

GK110

7100

28

875/928

2880

240

48

384

GDDR5 SDRAM

1750 (7000)

3072

PCI-Express 3.0 x16

250

GeForce GTX 780

GK110

7100

28

863/900

2304

192

48

384

GDDR5 SDRAM

1502 (6008)

3072

PCI-Express 3.0 x16

250

GeForce GTX 770

GK104

3540

28

1046/1085

1536

128

32

256

GDDR5 SDRAM

1502 (7010)

2048

PCI-Express 3.0 x16

230

Новые технологии рендеринга 

Помимо оптимизаций, направленных на повышение производительности и энергоэффективности, Maxwell принес несколько дополнительных функций графичекого конвейера. Некоторые опираются на аппаратные средства GPU, другие – чисто программные. Кое-что из этого, как уже известно, войдет в набор новых функций API DirectX 12. 

Dynamic Super Resolution (DSR)

Эта опция поначалу будет эксклюзивной для Maxwell, но затем в драйвере появится поддержка других GPU. DSR – простая в основе своей функция, которая состоит в том, что изображение рендерится в повышенном разрешении, а затем масштабируется к родному разрешению экрана при помощи гауссовского фильтра. Выглядит как старый добрый антиалиасинг методом суперсемплинга (SSAA). Фактически это он и есть, только — в отличие от «истинного» SSAA — DSR применяется к итоговому кадру на выходе с конвейера рендеринга. Следовательно, а) DSR можно форсировать в любой игре, б) всегда корректно применяются эффекты пост-обработки. С другой стороны, GUI в играх также отрисовывается в повышенном разрешении и масштабируется, из-за чего может выглядеть слишком мелко.

Драйвер позволяет выбрать множитель повышенного разрешения – от 1,2 до 4,0, а также резкость фильтрации.


Multi-Frame Anti-Aliasing (MFAA)

Очередная фирменная технология полноэкранного сглаживания от NVIDIA представляет собой вариацию на тему мультисемплинга, которая увеличивает производительность по сравнению с традиционной реализацией MSAA. При использовании MSAA с мощностью, допустим, 4х происходит выборка четырех точек в проекции пиксела. Вместо этого MFAA 4x делает выборку по две точки в двух соседних кадрах, но со смещением паттерна, а затем комбинирует результат. Вычислительная нагрузка, таким образом, снижается (максимум на 30%) по сравнению с MSAA.

Для MFAA требуется GPU Maxwell, поскольку только он позволяет программировать позиции внутри пиксела, из которых происходит выборка. Технология пока находится в разработке и еще не включена в публичный драйвер NVIDIA.

 

Voxel Global Illumination (VXGI)

Самое интересное – это созданная NVIDIA реализация глобального освещения, обеспечивающая относительно нетребовательную к ресурсам и качественную аппроксимацию метода трассировки лучей (Ray Tracing) и других схожих алгоритмов, которые используются в производстве медиаконтента – компьютерной графики в кино и фотореалистичных изображений, но для исполнения в реальном времени требует колоссальных вычислительных мощностей. Скажем, отлично подходит кластер из 200 ускорителей Quadro на базе GK110 в установках NVIDIA VCA.

Типичная трассировка лучей строится на следующем алгоритме: из точки обзора прослеживается множество линий, исходящих во все стороны. Если линия (луч) наталкивается на геометрический примитив, уже из этой точки выпускается множество лучей (с учетом отражающих свойств материала) и так далее. Таким образом, источником колоссальной вычислительной нагрузки при трассировке лучей является сложность геометрии сцены, от которой зависит количество порождаемых лучей второго, третьего и последующих порядков.

В отличие от Ray Tracing (Path Tracing, Ray Casting), VXGI не является сам по себе методом рендеринга, но представляет собой дополнение к конвейеру растеризации, который ускоряется блоками фиксированной функциональности в GPU (T&L, текстурные модули, ROP) и применяется в компьютерных играх. Множественные отражения света от элементов геометрии сцены вычисляются при помощи аппроксимированной модели, благодаря чему соблюдается скорость обработки, необходимая для рендеринга в реальном времени.

На первом этапе VXGI формируется модель сцены, состоящая из вокселов – кубических квантов пространства. Отрисовывая сцену с позиции каждой грани воксела, для воксела вычисляется доля объема, которая пересекается с объектами геометрии. 

На втором этапе сцена отрисовывается множество раз с точки каждого воксела из тех, которые не оказались пустыми на предыдущем этапе. Записываются параметры света, падающего на воксел от прямых источников (включая направление и яркость) и свойства материала объектов, находящихся внутри.

Третий этап является частью конвейера растеризации. Когда пиксел проецируется на участок полигона, из этой «точки» испускаются конусы во всех направлениях. Вот первое ключевое отличие VXGI от Ray Tracing: вместо тысяч вторичных лучей используются немногочисленные конусы. Второе отличие: регистрируется пересечение конуса не с геометрией сцены как таковой, а с воксельной сеткой, которая аппроксимирует геометрию. Варьируя размер конусов, можно задавать оптические свойства материала. Широкие конусы дадут эффект поверхности, рассеивающей свет, узкие конусы – глянцевой. 

В принципе, VXGI может использоваться и на других GPU, помимо Maxwell, однако именно в Maxwell есть аппаратные функции, которые ускоряют необходимые вычисления и приводят к приросту частоты смены кадров вплоть до 200% по сравнению с полностью софтверной реализацией VXGI. 

  • Viewport Multicast. Позволяет рендерить сцену с множественных точек обзора, предварительно только один раз загрузив геометрию без необходимости каждый раз проходить конвейер от начала до конца. Необходимо для ускорения первого этапа VXGI – вокселизации сцены.
  • Volume Tiled Resources. GM204 получил поддержку Tiled Resources версии Tier 2. Эта технология аналогична том, что в железе AMD называется Partially Resident Textures. Смысл ее состоит в том, чтобы при использовании больших текстур не держать их целиком в памяти видеоадаптера в каждый момент времени. Вместо этого текстура разделяется на части (tiles), из которых загружаются в память только те, которые необходимы, и в необходимом разрешении. Volume Tiled Resources распространяет эту идею на трехмерные текстуры, в качестве которых могут выступать карты теней (shadowmaps) — традиционное средство в моделях статического освещения, как и воксельные сетки в DXGI.
  • Conservative Raster. Также используется на этапе вокселизации и обеспечивает более точное определение пересечений воксела с полигонами сцены. Без поддержки этой функции в железе приходится прибегать к более затратным с позиции вычислительных ресурсов методам. Считается, что эта технология войдет в feature set ныне еще незавершенного API DirectX 12.

В сочетании с прямым освещением VXGI производит реалистичную сцену, свет в которой распространяется как от прямых источников, так и путем отражений от объектов, которые сами не светятся.

Внешний вид, конструкция

В отличие от большинства референсных образцов, GeForce GTX 980 прибыл к нам не в простом антистатическом пакете, а в стильной подарочной коробке. Любо-дорого взглянуть.

 

Сама видеокарта следует стилистике предшествующих топовых продуктов от NVIDIA, но есть нововведение: задняя поверхность PCB покрыта рифленой алюминиевой пластиной, как у GTX TITAN Z. Только в отличие от двухпроцессорного монстра, здесь пластина имеет лишь декоративную и защитную функции: на задней поверхности нет чипов DRAM. Пластина увеличивает толщину устройства на пару миллиметров. Поэтому для того, чтобы в режиме SLI видеокарта не перкрывала доступ воздуха к системе охлаждения соседки, установленной вплотную, в пластине сделали разрез напротив горловины турбинки. Закрепленный винтом фрагмент легко удаляется.


NVIDIA сконструировала практически идеальный радиальный кулер («турбинку», или blower), эффективность и высокие акустические качества которого были проверены не раз. Ну а в дополнение к практическим достоинствам увесистую видеокарту в цельнометаллическом кожухе просто приятно взять в руки. Однако система охлаждения GeForce GTX 980 кое в чем отличается от тех образцов, которые были представлены в референсных версиях GeForce GTX 770 и GTX TITAN.

Массивная крыльчатка продувает большую часть забираемого воздуха через радиатор GPU и выбрасывает за пределы корпуса ПК. В основание радиатора вмонтированы три тепловые трубки, а не испарительная камера, как прежде, — и  это главное изменение. Кроме того, с времен GeForce GTX 780 Ti и TITAN Black — последних однопроцессорных адаптеров на базе GK110 — NVIDIA поменяла форму крепежной планки и расположение видеовыходов. Решетка имеет более крупные ячейки и распространилась на площадь, которую в предшествующих продуктах занимал второй разъем DVI. Часть воздуха исходит в противоположном от планки направлении, охлаждая небольшой блок ребер, смонтированных на раме, которая покрывает печатную плату.

Алюминиевая рама отводит тепло от микросхем памяти, которые в полном составе находятся на лицевой поверхности платы, и от мощных транзисторов системы питания.

⇡#Плата

Видеопамять объемом 4 Гбайт набрана микросхемами Samsung K4G41325FC-HC28, для которых 7 ГГц являются штатной эффективной частотой. Система питания довольно скромная для видеоадаптера такого класса: она включает четыре фазы для питания GPU, одну — для видеопамяти и еще одну — для PLL. Производителя и модель контроллера питания по маркировке определить не удалось.


Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *