Использование
Easy Tune следует использовать для разгона CPU и RAM. Однако, для того, чтобы добиться желаемого, нужно соблюсти несколько условий. Во-первых, на Вашем устройстве должна быть материнская плата от Gigabyte. Во-вторых, при инсталляции программы необходимо наличие интернет-подключения. Если с этими двумя пунктами проблем не возникнет, значит, софт без проблем установится на ПК, и Вы сможете приступить к разгону.
Утилита имеет несколько режимов работы – «Easy» и «Advanced”». В первом варианте все настройки отрегулированы автоматически, что пригодится неопытным юзерам, второй же вариант подходит для профессионалов, желающих выжать из своего компьютера максимум.
GIGABYTE GeForce GTX 970 G1
При столь низкой цене для без пяти минут флагманской модели GeForce GTX 970 представлен как замена одновременно GeForce GTX 770 и GTX 780. А последний, напомним, стоил $499. То есть новое поколение предлагает весьма существенное снижение цены при — предположительно — неизменном уровне производительности. Масла в огонь подливает и тот факт, что основной соперник GTX 970 из команды AMD, Radeon R9 290, также имеет более высокую рекомендованную цену – $399.
В таких условиях, если притязания GeForce GTX 970 подтвердятся на практике, это будет чрезвычайно выгодное предложение и в своем роде не менее впечатляющий продукт, чем флагманский GTX 980.
GIGABYTE GeForce GTX 970 G1
Функционал
Перед тем, как приступать к самому важному, ради чего скачивалось данное ПО, можно ознакомиться с информацией, которую считывает EasyTune – производителем, вольтажом, частоте, типе и других характеристиках комплектующих. Сам разгон, как мы уже говорили, выполняется в два клика. После него очень важно контролировать все параметры и отслеживать их влияние на компьютер. Gigabyte EasyTune позволяет мониторить все эти данные.
С ее помощью можно отслеживать показатели термодатчиков, датчиков напряжения и скорость вращения вентиляторов. Юзер может контролировать не только состояние «материнки», но и центрального процессора, памяти, графического адаптера, а также изменять частоты AGP, PCI и DRAM.
Для того, чтобы не беспокоиться лишний раз о превышении допустимой нормы, рационально задать лимиты для каждого из значений. Как только показатели превысят норму, утилита просигнализирует об этом, и Вы сможете своевременно отреагировать на «нарушения».
Дизайн
GIGABYTE GeForce GTX 970 G1 Gaming: дизайн системы охлаждения маскирует ее внушительные габариты Задняя поверхность печатной платы покрыта тонкой защитной пластиной с многочисленными прорезями. В торец видеокарты вмонтирован светящийся логотип WINDFORCE. Радиатор выходит далеко за пределы площади платы, поэтому длина устройства изрядная, несмотря на компактную PCB. Впрочем, благодаря тому, что толщина кулера полностью укладывается в два слота, а также ажурной конструкции СО видеокарта выглядит не громоздкой, а, напротив, легкой и изящной.
GIGABYTE GeForce GTX 970 G1 Gaming: нижняя усилительная пластина значительно удлиняет карту Радиатор состоит из трех частей, соединенных тепловыми трубками. В блоке, принадлежащем GPU, трубки сплющены, расположены вплотную друг к другу и образуют основание, снимающее тепло с микросхемы. Другой блок используется для охлаждения мощных транзисторов в системе питания. Третий является ответвлением блока GPU, подвешенным на тех же теплотрубках над краем печатной платы.
Ключевые особенности
- осуществляет разгон центрального процессора;
- работает исключительно с материнскими платами от Gigabyte;
- осуществляет контроль показателей памяти, материнской платы, ЦП;
- не требует использования BIOS, однако, запрашивает выход в сеть;
- предлагает несколько режимов для пользователей разного уровня опыта.
Интерфейс программы:
английский
Платформа:XP / 7 / Vista
EasyTune
– одна из самых интересных и практичных утилит, предназначенная для использования оверлокерами, в особенности тем, которые решили, что назвается, «поколдовать» над разгоном материнских плат производства Gigabyte. Хотя, думается, и не столь продвинутым пользователям программа может пригодиться в плане обучения основам разгона.
Скачать
Загрузка установщика начнется после того, как вы кликните на представленную кнопку.
Вместе с этим смотрят: Msvcp140.dll для Windows 10 x64 Bit
Основные возможности программы EasyTune
Прежде всего, сразу скажем, что приложение имеет четкие ограничения по всем характеристикам материнских плат и не позволит совершить разгон, который может привести к полной неработоспособности оборудования. Так что, в этом плане можно не волноваться. Просто при задании какого-то параметра, который выходит за рамки допустимого значения, программа сразу выдаст сообщение о неприменимости таких действий и не установит заданный параметр к выполнению.
Если говорить о характеристиках, которые можно изменять, то здесь выбор довольно широк. К примеру, можно покопаться в настройках частот AGP, PCI и DRAM, поэкспериментировать с множителем или системной шиной. Самое интересное, что в приложении имеется собственный модуль наподобие программы CPU-Z, который выдает полные характеристики по всем параметрам, включая напряжение на отдельных элементах, температуру, скорость вращения вентиляторов и многое другое. Здесь же, как уже говорилось выше, есть и модуль задания пороговых значений, который и не позволяет применять параметры выше или ниже критических.
Конфигурация тестовых стендов
-CPU Intel Core i7-3960X @ 4,6 ГГц (100×46) Intel Core i7-3970X @ 4,6 ГГц (100×46) -Материнская плата ASUS P9X79 Pro -Оперативная память DDR3 Kingston HyperX 4×2 Гбайт @ 1600 МГц, CL9 -ПЗУ Intel SSD 520 240 Гбайт -Блок питания Corsair AX1200i, 1200 Вт Seasonic Platinum-1000, 1000 Вт -Охлаждение CPU Thermalright Archon -Корпус CoolerMaster Test Bench V1.0 -Операционная система Windows 7 Ultimate X64 Service Pack 1 -ПО для GPU AMD AMD Catalyst 13.4 -ПО для GPU NVIDIA 344.07
Для измерения мощности системы используется стенд с блоком питания Corsair AX1200i. Энергосберегающие технологии CPU во всех тестах отключены. Шина PCI-Express работает в режиме 3.0. Для активации PCI-E 3.0 на видеокартах серий GeForce 600 и 700 в системе на чипсете X79 применяется патч от NVIDIA.
В настройках драйвера NVIDIA всегда в качестве процессора для вычисления PhysX выбирается CPU. Для карт AMD всегда настройка Tesselation переводится из состояния AMD Optimized в Use application settings. В CrossFire-конфигурациях остается включенной опция Frame Pacing.
Бенчмарки: синтетические
Программа API Настройки Анизотропная фильтрация, полноэкранное сглаживание Разрешение 3DMark 2011 DirectX 11 Профиль Extreme 3DMark DirectX 11 Тест Fire Strike (не Extreme) TessMark DirectX 11 Set 4 (2048×2048), tessellation x8/x16/x32/x64 AF Off 1920×1080 Unigine Heaven 4 DirectX 11 DirectX 11, макс. качество, тесселяция в режиме Extreme AF 16x, MSAA 4x 2560х1440 / 3840×2160
Бенчмарки: игры
Программа API Настройки Анизотропная фильтрация, полноэкранное сглаживание Разрешение
Far Cry 3 + FRAPS DirectX 11 DirectX 11, макс. качество, HDAO.
1) Начало миссии Secure the Outpost AF, MSAA 4x 2560х1440 / 3840×2160 Tomb Raider. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x 2560х1440 / 3840×2160 Bioshock Infinite. Встроенный бенчмарк DirectX 11 Макс. качество. Postprocessing: Normal AF 16x, FXAA 2560х1440 / 3840×2160 Crysis 3 + FRAPS DirectX 11 Макс. качество.
2) Начало миссии Post Human AF 16x, MSAA 4x 2560х1440 / 3840×2160 Metro: Last Light. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x 2560х1440 / 3840×2160 Company of Heroes 2. Встроенный бенчмарк DirectX 11 Макс. качество AF, SSAA 4x 2560х1440 / 3840×2160 Batman: Arkham Origins. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 2560х1440 / 3840×2160 Battlefield 4 + FRAPS DirectX 11 Макс. качество.
3) Начало миссии Tashgar AF 16x, MSAA 4x + FXAA 2560х1440 / 3840×2160 Thief. Встроенный бенчмарк DirectX 11 Макс. качество AF 16x, SSAA 4x + FXAA 2560х1440 / 3840×2160
Бенчмарки: вычисления
Программа Настройки LuxMark 2.0 X64 Сцена Room (Complex Benchmark) Sony Vegas Pro 13 Бенчмарк Sony для Vegas Pro 11, рендеринг в XDCAM EX, 1920х[email protected]
CompuBench CL Desktop Edition X64, Ocean Surface Simulation – CompuBench CL Desktop Edition X64, Particle Simulation — 64K – SiSoftware Sandra 2014 SP3, Scientific Analysis Open CL / CUDA, FP64
Как пользоваться программой Gigabyte EasyTune?
Одна из особенностей программы Gigabyte EasyTune — простой и понятный пользовательский интерфейс. В основном окне расположены вкладки, в которых отражен весь функционал приложения — все настройки выполняют в них, пользователю более не нужно никуда заходить.
Smart Quick Boost
В этой вкладке осуществляется быстрая настройка ключевых параметров работы системы и вычислительных компонентов ПК. Пользователю достаточно лишь выбрать один из 6-ти предлагаемых программой режимов работы, и тот будет сразу применен без необходимости перезагрузки ПК. Например:
- При включении режима «Energy Saving» система и компьютер переходят в режим максимального энергосбережения, при этом производительности машины снижается.
- Если же задействовать режим «Extreme», можно получить максимально возможный прирост производительности компьютера.
Advanced CPU OC
Из этой вкладки осуществляется ручная настройка различных параметров работы центрального процессора:
- Frequency (тактовая частота). При помощи ползунков пользователь может увеличить или, наоборот, понизить тактовую частоту каждого отдельного ядра процессора — в зависимости от того, требуется ли пользователю высокая производительности или энергосбережение.
- Voltage (напряжение). Также при помощи ползунков можно легко увеличить или понизить подаваемое напряжение на различные компоненты центрального процессора, а также, наоборот, выставить ограничения напряжения для их защиты: отдельные ядра, встроенные компоненты памяти, интерфейсы, шины и другие.
- Graphic. Данный параметр отвечает за регулировку частоты работы встроенного в ЦП графического ядра. Актуально только для материнских плат Gigabyte с интегрированной видеокартой.
Advanced DDR OC
В этой вкладке расположены настройки для основных запоминающих устройств (ОЗУ) компьютера:
- Frequency (тактовая частота). Регулировка общей тактовой частоты работы устройств памяти.
- Memory (память). Здесь расположены настройки для широкого спектра параметров работы оперативной памяти, включая т.н. тайминги.
3D Power
В некоторых моделях материнских плат Gigabyte при помощи утилиты EasyTune можно тонко настраивать параметры широтно-импульсной модуляции (ШИМ). Если имеющаяся плата поддерживает перенастройку параметров ШИМ, в программе отобразится вкладка «3D Power», откуда можно будет выполнить соответствующие настройки.
GeForce GTX 970: технические характеристики
GeForce GTX 970 и GTX 980 различаются в первую очередь числом активных вычислительных блоков чипа GM204. В кристаллах, выделенных модели GTX 970, отключены 3 из 16 MMX. Следовательно, из 2048 ядер CUDA и 128 текстурных блоков остались в строю только 1664 и 104 соответственно. Различия в конфигурации front-end’а GPU весьма существенны. Кроме того, в GTX 970 снижены тактовые частоты: с 1126/1216 до 1050/1178 (базовая частота и Boost Clock соответственно).
Блок-схема GM204 в составе GeForce GTX 970 А вот back-end процессора не пострадал. По-прежнему активны 64 ROP и четыре 64-битных контроллера памяти. Эффективная частота RAM по референсным спецификациям составляет 7 ГГц, объем – 4 Гбайт.
GIGABYTE GeForce GTX 970 G1 Gaming: спецификации, комплект поставки, цена
Запуск GeForce GTX 970 не сопровождается выпуском референсного устройства — NVIDIA отдала дизайн на откуп непосредственно производителям видеокарт. Так что вместо референса, которого нет, мы познакомимся с новой позицией в линейке потребительских видеоадаптеров NVIDIA на примере GIGABYTE GeForce GTX 970 G1 Gaming (GV-N970G1 GAMING-4GD) – карты оригинального дизайна.
GIGABYTE GeForce GTX 970 G1 Gaming: упаковка и ее содержимое
GPU в составе устройства работает на повышенной частоте, выбранной любопытным образом. Если в референсных спецификациях GTX 970 Boost Clock составляет 1178 МГц, то для GIGABYTE GeForce GTX 970 G1 Gaming это базовая частота, а Boost Clock равняется 1329 МГц. Графическую память производитель не разгонял, оставив работать на частоте 7012 МГц. Объем стандартный – 4 Гбайт.
Особенность платы GIGABYTE — большой набор видеовыходов: три разъема DisplayPort, два DVI и один HDMI. Но одновременно можно использовать только четыре монитора.
В российских интернет-магазинах найти эту модель не удалось, но на американском сайте newegg.com она стоит $369 – побольше рекомендованной цены, но ведь и технические характеристики у нее выше референсных.
Выводы
В своей ценовой нише GeForce GTX 970 – даже более эффектная карта, чем GTX 980. Главная заслуга последней в том, что она вернула цены на флагманский игровой видеоадаптер NVIDIA к привычному уровню — $549. GTX 970, с одной стороны, сильно отличается от флагмана по спецификациям и производительности. С другой стороны, и скидка на этот раз необычно велика для NVIDIA. Если раньше для второй по старшинству видеокарты можно было ожидать цену в районе $400, то теперь заполучить топовый GPU архитектуры Maxwell, пусть и в изрядно порезанном виде, можно всего лишь за $329.
А самое замечательное в этой ситуации то, что — несмотря на потерю доброй части вычислительных блоков GPU и пониженные частоты — GeForce GTX 970 в целом не уступает по производительности GeForce GTX 980 и, что наиболее обидно для AMD, не только успешно конкурирует с Radeon R9 290, но и зачастую не уступает Radeon R9 290X. При этом энергопотребление GeForce GTX 970 просто несопоставимо с аппетитами топовых адаптеров AMD.
Производительность: вычисления
Luxmark: Room (Complex Benchmark)
Вслед за GeForce GTX 980 новый GTX 970 демонстрирует высокую производительность при трассировке лучей. Видеоадаптеры на базе GK110 и рядом не валялись. Но положение GPU AMD по-прежнему сильно. Хотя GTX 970 набрал больше очков, чем R9 290, флагман красных – R9 290X — имеет преимущество.
Sony Vegas Pro 13
Первые места удерживают видеоадаптеры AMD, включая Radeon R9 280X на довольно-таки старом GPU Tahiti. GTX 970, с минимальным отрывом пропустив вперед GTX 780, оказался на втором месте с конца.
В этой задаче успехи GTX 970 также невелики. Если уж даже GTX 980 не может на равных соперничать с продуктами на базе GK110, то GTX 970 уступает даже GeForce GTX 770. Вершины Radeon R9 290 и R9 290X совершенно недосягаемы для GTX 970, и только R9 280X обладает сравнимой производительностью.
Следующий тест процессор GM204 лидирует. GeForce GTX 970 уступает только своему собрату, оставляя позади все видеоадаптеры на базе GK110. Команда AMD заняла места далеко внизу диаграммы.
В силу того, что производительность GPU GM204 в операциях с двойной точностью составляет 1/32 от производительности в FP32, результаты обеих топовых видеокарт NVIDIA незавидные. Хуже только GeForce GTX 770, а адаптеры с GK110 на борту, как и устройства AMD, ушли далеко вперед.
Частоты
На референсных частотах GeForce GTX 970 по мощности практически не отличается от своего флагманского собрата при нагрузке в играх. Новинка также немного более экономична по сравнению с GeForce GTX 780, хотя GTX 770 демонстрирует меньшую мощность. GTX 970 также несравненно выгоднее смотрится в сравнении с любыми видеокартами AMD — от R9 280X до R9 290X.
С помощью FurMark удалось уловить небольшую разницу между GTX 970 и GTX 980, а соотношение GTX 970 и GTX 770 сместилось в пользу новинки. Топовые видеоадаптеры AMD по-прежнему намного прожорливее, но Radeon R9 280X парадоксальным образом демонстрирует в FurMark более низкую мощность, чем в игровом тесте.
Плата GIGABYTE имеет запас мощности для разгона. После увеличения частот энергопотребление в обоих тестах возросло в где-то на 30 Вт по сравнению с результатами карты на референсных для GTX 970 частотах.
Система охлаждения карты GIGABYTE настолько эффективна, что плата с большим преимуществом перед остальными участниками теста заняла первое место с наиболее низкими температурами GPU под нагрузкой. Впрочем, не можем умолчать о досадном недостатке кулера: в простое вентиляторы постоянно то разгоняются до высоких оборотов, то затихают. По-видимому, это назойливое поведение – результат неудачной прошивки нашего тестового экземпляра. В конце концов, это один из первых образцов платы.
Обзор, тестирование, разгон видеокарты Gigabyte Radeon RX 5600 XT Gaming OC 6G
Вступление
21 января 2020 года в продажу поступила новая серия видеокарт AMD поколения Navi — Radeon RX 5600XT с 6 Гб видеопамяти на борту. Ко мне в руки попала трехвентиляторная модель видеокарты в дизайне от Gigabyte. Gigabyte RX5600 XT Gaming OC 6G — трехвентиляторная модель видеокарты с заводским разгоном и фирменным охлаждением Windforce. Цены на видеокарты Gigabyte RX 5600XT Gaming OC 6G в российских магазинах находятся на уровне ~24000 рублей.
Видеокарта Radeon RX5600XT построена на 7-нм техпроцессе Navi 10 XLE — одной из разновидностей чипа Navi 10. По информации ресурса videocardz.com, семейство Navi 10 имеет аж 6 различных модификаций:
- Radeon RX 5700 XT 50th Anniversary: Navi 10 XTX
- Radeon RX 5700 XT: Navi 10 XT (некоторые модели XTX)
- Radeon RX 5700: Navi 10 XL
- Radeon RX 5600 XT: Navi 10 XLE
- Radeon RX 5600 OEM: Navi 10 XE
- Radeon RX 5600M: Navi 10 XME
Доступная рядовым покупателям видеокарта Radeon RX 5600 XT содержит 36 исполнительных блоков с 2304 ядрами RDNA, 144 текстурных блока и 64 растровых блока. Базовая частота тестируемой модели Gigabyte RX 5600 XT Gaming OC 6G зафиксирована на отметке 1225 МГц, в режиме буста до 1620 МГц и “игровой” частоте 1560 МГц. Под «игровой частотой» компания AMD подразумевает усредненное значение, на котором будет работать видеокарта в различных играх. Память GDDR6 работает на частоте 12000 МГц — на 2000 МГц ниже по сравнению с видеокартами с 8 Гб видеопамяти на борту ввиду меньшего числа чипов памяти (6 против 8). Пропускная способность 192-битной шины составляет 288 Гб/с. Видеокарта сообщается с системой через 16 линий интерфейса PCI-E поколения 4.0, однако в моем случае видеокарта протестирована с использованием интерфейса PCI-E 3.0.
Сразу отмечу, что модель видеокарты от Gigabyte Radeon RX 5600 XT Gaming OC сильно отличается от рекомендуемых характеристик AMD относительно видеокарт серий RX 5600 XT. Рекомендуемое требование к дизайну видеокарт RX 5600 XT составляет 150 ватт, а эффективное энергопотребление тестируемой модели составляет всего лишь 90 ватт! Для сравнения — средняя потребляемая мощность видеокарты RX 5700 составляет 180-190 ватт, при этом видеокарта работает на частоте 1700-1720 МГц. Gigabyte Radeon RX 5600 XT Gaming OC в своей стоковой конфигурации без каких-либо настроек бустится в среднем до 1640-1660 МГц по ядру с энергопотреблением 80-90 ватт. Как вы увидите ниже, разгон видеокарт Gigabyte RX 5600 XT Gaming OC позволяет получить значительный прирост производительности, вплотную приближая видеокарту к производительности 300-ваттной Vega 64 и почти 200-ваттной RX 5700.
Внешний вид
Gigabyte Radeon RX 5600XT Gaming OC 6G предлагает стандартный для серии дизайн из трех 80мм вентиляторов Windforce, центральный из которых вращается в противоположную сторону для уменьшения эффекта турбулентности и, как следствие, лучшего охлаждения видеокарты. Видеокарта оснащена 3 чипами памяти по 2Гб производства Micron. Охлаждение видеокарты RX 5600 XT Gaming OC — большой апгрейд по сравнению с 5500 XT: увеличенные вес и площадь радиаторов, увеличенное число тепловых трубок, отдельные радиаторы с проходящими насквозь тепловыми трубками для охлаждения памяти и VRM, функциональная задняя панель из алюминия, контактирующая с задней стороной платы при помощи термопрокладок для улучшенного отведения тепла от важных элементов видеокарты. Все это отражается на размере видеокарты — ее вес составляет 914 грамм, длина — 280 мм, ширина — 115 мм и высота — 50 мм, что соответствует 2.5 слотам расширения PCI-E.
Пластиковый кожух видеокарты приятен на ощупь и ощущается очень солидно, а функциональная задняя панель серьезно усиливает прочность конструкции. На боковой панели присутствует лого Gigabyte, поддерживающее подсветку RGB Fusion 2.0. Подсветку можно настраивать соответствующим софтом, но сама подсветка остается тусклой. Для питания видеокарты требуется дополнительный источник питания 8-pin. Видеокарта Gigabyte Radeon RX 5600 XT Gaming OC 6G содержит 3 разъема DisplayPort 1.4 и 1 разъем HDMI 2.0b. Наличие четырех разъемов обеспечивает одновременную поддержку до 4 мониторов с максимальным разрешением до 7680×[email protected]
Конфигурация системы
Тестирование видеокарты проводилось в закрытом корпусе. Скорость вращения корпусных вентиляторов и CPU была зафиксирована на отметке ~1000 об/м, что соответствует уровню шума ~36.5 децибел на расстоянии 1 метра от корпуса.
Конфигурация системы:
- Процессор: Ryzen 3600 @ Stock
- Оперативная память: 16Gb Crucial Ballistix Sport LT @ 3800 MHz CL16
- Материнская плата: Asus Prime X470-PRO
- SSD: Samsung EVO 860 500Gb
- Охлаждение CPU: Be Quiet Dark Rock Pro 4
- Блок питания: XFX XTR Black Edition 750W Gold
- Корпус: NZXT H500
- Операционная система: Windows 10 1909
- Версия драйвера: AMD Radeon 20.1.1 Adrenalin 2020 Edition (специальный драйвер для 5600XT)
Видеокарта: Gigabyte Radeon RX5600XT Gaming OC 6G
Шум, температура, энергопотребление
Для тестирования температуры видеокарты использовался стресс-тест синтетического бенчмарка Superposition в пресете 1080p Extreme. По истечении 10 минут с начала теста измерялись показания температуры в программе HwInfo и скорость вращения вентилятора. Для измерения энергопотребления использовалась HwInfo, уровень шума измерялся при помощи шумомера, расположенного на расстоянии 1 метра от корпуса.
Видеокарта Gigabyte RX 5600 XT Gaming OC ведет себя немного странно. Работу видеокарты ограничивают несколько показателей: ограничение скорости вращения вентиляторов на отметке 46%, что соответствует ~2000 об/м, цель — удержать температуру ниже 70 градусов цельсия и максимально допустимая температура в 90 градусов. Мне кажется, что вентиляторы не в курсе ограничений по энергопотреблению или эффективности дизайна системы охлаждения. Как результат, при появлении нагрузки вентиляторы устремляются к отметке ~1600-1800 об/м, температура видеоядра доходит до отметки ~60 градусов и фиксируется на этом уровне. Через две-три минуты вентиляторы понимают, что температура особо не вырастет и начинают замедляться до отметки в ~1000 об/м. После этого в зависимости от нагрузки температура варьируется в районе 60-68 градусов и вентиляторы начинают разгоняться только в том случае, если температура добирается до отметки в 70 градусов.
В стоковой конфигурации видеокарта потребляет до 90 Вт, температура ядра не превышает 68 градусов цельсия, а частота ядра удерживается на отметке 1640-1660 МГц. После первого буста вентиляторы успокаиваются на отметке 1000 об/м, что делает их практически бесшумными — уровень шума не превышал 37 дБ. Система питания видеокарты не производила различимого шума.
Еще одна интересная деталь — это напряжение ядра. Видеокарты 5500XT, 5700, 5700XT работают на напряжении 1.1-1.2 вольт. Номинальное напряжение ядра видеокарты Gigabyte Radeon RX 5600 XT Gaming OC составляет всего лишь 900 милливольт, что является аргументом в пользу теории об оптимизации техпроцесса компанией AMD. Именно этого мы и ждали от видеокарт семейства Navi.
Видеодрайвер ограничивает увеличение лимита потребляемой мощности до +20%, что выливается в максимальное энергопотребление видеокарты в разгоне в районе 115-120 ватт. При этом скорость вращения вентилятора в моем случае не превышала 1300 об/м.
Тесты в играх
Тестирование видеокарты проводилось в двух разрешениях — 1920×1080 и 2560×1440 в шести играх:
Shadow of The Tomb Raider
Тестирование проводилось при помощи внутриигрового бенчмарка в режиме DX12 на максимальных настройках качества с отключенным моушен блюром и сглаживанием SMAA 2X.
Видеокарта легко справляется с Ларкой и показывает комфортный уровень FPS как в 1080p, так и 1440p.
Rainbow Six: Siege
Тестирование проводилось при помощи внутриигрового бенчмарка с “соревновательными” настройками графики.
Бенчмарк в среднем менее требовательный, чем мультиплеерные матчи. На практике уровень FPS в 1080p почти всегда держится выше 200 кадров/с и лишь изредка проседает до уровня 180-190 FPS.
Far Cry: New Dawn
Тестирование проводилось при максимальных настройках графики с отключенным моушен блюром.
Игра классически демонстрирует всю кривость и отсталость движка — она не способна задействовать больше 8 потоков процессора, а основная нагрузка ложится всего на 2 потока. Частота видеоядра постоянно скачет и опускается до 800-1200 МГц. Но даже так видеокарта выдает комфортный уровень FPS как в 1080p, так и в 1440p.
The Division 2
Тестирование проводилось в DX12 с максимальными настройками графиками и отключенным моушен блюром.
Даже с вручную выставленными на максимум настройками графики, видеокарта справляется с игрой. Уменьшение лишь пары графических настроек позволяет добиться стабильных 60+ FPS почти без потери качества в разрешении 1440p.
Resident Evil 2
Тестирование проводилось в DX11 с почти максимальными настройками графики и отключенным моушен блюром. Размер текстур был выставлен на отметку 2 Гб, а качество теней — на отметку High.
Вот тут начинает проявляться одно слабое место видеокарты — объем видеопамяти. В разрешении 1440p игра предупреждает о возможных проблемах в связи с недостаточным объемом видеопамяти, что выливается в небольшие, почти незаметные подгрузки локаций в тех местах, где в 1080p все плавно. Общий игровой опыт плавный и комфортный, но в будущем недостаток объема видеопамяти может вылиться в более серьезные проблемы с производительностью.
Monster Hunter World: Iceborne
Тестирование проводилось в DX12 с почти максимальными настройками графики в новой хаб-локации.
Абсолютно комфортный уровень FPS в одной из самых требовательных игр на сегодняшний день как в 1080p, так и в 1440p.
Дополнительно я ограничил уровень FPS на отметке 59 при помощи функции видеодрайвера Radeon Chill и отправился на охоту в новой локации, чтобы проверить качество игрового опыта на моей домашней системе с разрешением 2560×1080. Ввиду особенностей движка и криворукости разрабов, игра работает не совсем корректно на FPS 100+, поэтому большинство игроков стремится к отметке в 60-80 FPS.
Здесь тестирование проводилось в разгоне, как основном виде использования видеокарты в моем случае. Как видно из графиков, Frametime абсолютно стабилен, частота видеокарты и потребляемая мощность постоянно варьируются, а видеоядро не нагревается выше 65 градусов.
Видеокарта Gigabyte Radeon RX 5600 XT Gaming OC пережевывает все современные игры, выдавая комфортный уровень FPS в ААА-тайтлах и высокий фреймрейт в соревновательных играх. Приобретаете ли вы видеокарту для игры в 240FPS в соревновательных играх, или 60 FPS на новом 1440p мониторе — видеокарта Gigabyte Radeon RX 5600 XT Gaming OC легко справится с любой ситуацией.
AMD противопоставляют видеокарту RX 5600 XT видеокарте Nvidia 1660 Super, и как видно из графиков, видеокарта от Nvidia остается позади видеокарты RX 5600 XT в четырех проведенных тестах:
Разгон
Для разгона видеокарты использовался Radeon Graphics Software, тестирование результатов разгона и его стабильности проводились в синтетическом бенчмарке Superposition. Дальнейшая стабильность подтверждалась в протестированных играх.
Разгон видеокарты Gigabyte Radeon RX 5600 XT Gaming OC ограничен драйвером: +20% Power Limit, не больше 1.05 вольт на ядро и не более, чем 1820 МГц по ядру и 1860 по памяти. Как всегда это бывает с видеокартами AMD, ограничения эти можно обойти патчем реестра, разблокировав доступ к подробной настройке видеокарты, вплоть до индивидуальных таймингов, кривой вольтажа и многих других прелестей. Само собой, подобные манипуляции серьезно увеличивают риск повреждения видеокарты и лишают пользователя гарантии. Если не знаете, что делаете — не пробуйте.
Видеокарта не моя, поэтому патчами реестра я не занимался, хотя очень хотелось! Без особого труда я смог зафиксировать частоту ядра на уровне 1800 МГц при напряжении 950 МГц. Видеокарты была полностью стабильна и при уровне напряжения 920 МГц в некоторых играх и бенчмарках, но в Rainbow Six крашился видеодрайвер. Тестировать максимальные лимиты я не стал и щедро добавил 30 милливольт к напряжению ядра, чтобы зафиксировать стабильность.
Интерфейс программы Adrenalin 2020 и общие принципы разгона видеокарт AMD обеспечивают легкость и удобство процесса. Разгон GDDR6 памяти ограничен значением 1860 МГц в драйвере, что обеспечивает эффективную частоту 14880 МГц, и выливается в пропускную способность 357.1 Гб/с. Неплохой буст со стоковых 288 ГБ/с! И никаких крашей и артефактов. В случае с видеокартами серии Vega или любыми картами Nvidia приходится дополнительно отлавливать артефакты, тестируя стабильность разгона по памяти. С Navi это просто не нужно — максимально допустимый драйвером разгон оказывается стабилен почти на всех видеокартах.
Разгон видеокарты Gigabyte Radeon RX 5600 XT Gaming OC значительно увеличивает производительность в играх — в среднем он позволяет получить от 10% дополнительной производительности, но все упирается в оптимизацию конкретной игры. В каких-то играх растут все показатели, в каких-то — только средний уровень FPS. При этом энергопотребление и тепловыделение находятся под полным контролем — не больше 115-120 ватт при максимальной нагрузке. Очень хочется увидеть на что способна видеокарта без искусственных ограничений — система питания и дизайн охлаждения позволяют гораздо больше. Смущает только отсутствие двойного биоса, чтобы можно было играть с прошивкой и экстремальным разгоном.
Новый BIOS
17 января, после всех проведенных тестов и написанного обзора, я получил в руки новую версию BIOS видеокарты от Гигабайт. Если верить слухам, AMD разослала партнерам новый BIOS для видеокарт RX 5600 XT. С новым BIOS партнеры получили возможность создавать дизайны видеокарт с TBP (Total Board Power) 160 ватт и с увеличенными стоковыми частотами. Gigabyte не стали поднимать энергопотребление с 90 до 160 ватт, но производительность видеокарты подняли. Заниматься тестированием по второму кругу мне не хочется, поэтому вкратце резюмирую, что изменилось и чего ожидать от нового биоса.
В стоке сильно выросли частоты, энергопотребление выросло на ~20%, общая производительность выросла примерно на 7%. В разгоне почти ничего не изменилось, так как ограничение по частоте осталось, но ввиду увеличенного на 5 ватт power limit выросла средняя поддерживаемая частота. Немного изменилось поведение кулера — теперь он стремится удержать температуру в 67 градусов.
20 января мне в руки попала еще одна версия биоса: на этот раз поднялась частота памяти до 14000 МГц, что добавило еще 50 очков в бенчмарке Superposition. Видеокарта уже вплотную приближается к своему софтварному ограничению по разгону.
Какие видеокарты достанутся итоговому покупателю мне неизвестно. Будет ли первая волна видеокарт содержать старый биос или уже новый — неясно. В любом случае, можно просто сдвинуть три ползунка в настройках драйвера и увеличить себе производительность до уровня нового биоса.
Заключение
Откуда такая магия энергоэффективности? Пока мы не увидим сравнительные результаты между различными моделями видеокарты Radeon RX 5600 XT, не получится сделать выводов — поэтому мы ограничимся догадками. Всем известно, что за годы производства техпроцесс “созревает”, производитель оптимизирует технологию производства, и даже в какой-то мере дизайн. Крайний пример — процессоры Ryzen первого поколения, когда в первый год было практически невозможно поднять частоту ядра выше 3.9 ГГц при комфортном уровне напряжения, а через два года те же модели процессоров стабильно работали на частотах 4.1-4.2 ГГц со значительно меньшим напряжением сравнительно разгонов процессоров первой волны. Или может быть все более прозаично и Gigabyte отбирает лучший силикон для своей топовой модели видеокарты. Но мне почему-то хочется верить, что это больше связано с оптимизациями техпроцесса, которые проводит AMD — и на это указывает больше улик. Использование мобильной “веги” в будущих APU Renoir, задержка релиза мобильных решений на платформе Zen 2, фокус на производстве более дешевых моделей видеокарт на архитектуре RDNA — мне кажется, что подобный подход был в первую очередь выражен желанием оптимизировать производственный процесс и добиться улучшенных показателей производительности и уменьшенного потребления для достижения оптимальных результатов работы мобильных и топовых вариантов. Что делает видеокарту RX 5600 XT первым тизером реальных возможностей AMD при использовании 7-нм техпроцесса.
Невольно начинаешь себя хайповать относительно потенциала “больших Navi”, мобильных APU с улучшенной Vega и консолей нового поколения. Потенциал архитектуры RDNA до сих пор анализировался через призму производительности видеокарт RX 5700 и RX 5700 XT, однако появление RX 5600 XT в этом виде — когда итоговый результат значительно превзошел ожидания — может серьезно изменить картину ожиданий будущих продуктов AMD. И это именно то, что нужно нам, простым покупателям. Конкуренция в сегменте игровых видеокарт, мощные игровые приставки нового поколения и осушение болота, созданного Nvidia и Intel.
Достаточно легко превзойти ожидания, когда большинство комментариев о новой видеокарте AMD варьируются от “слишком дорого за свою производительность” до “мертворожденный продукт”, но AMD пошли дальше. Они предложили конкурентный продукт, который очень легко рекомендовать, а Gigabyte в свою очередь этот продукт доставили покупателям в лучшем виде. В видеокарте Gigabyte Radeon RX 5600 XT Gaming OC 6G хорошо все: потрясающая энергоэффективность, абсолютно бесшумная система охлаждения, высокий разгонный потенциал. За что видеокарта заслуживает нашей медали — Выбор Гохи!
Видеокарта была предоставлена компанией Gigabyte