Современные видеокарты на чипсетах компании NVIDIA. Современные видеокарты на чипсетах компании NVIDIA Южный мост MCP: APU

Чипсет NVIDIA nForce 790i SLI
Процессор LGA775 Pentium 4 FSB 1066/800/533 МГц
Celeron Conroe/Prescott FSB 800/533 МГц
Dual-Core Pentium4 Smithfield/Presler
Yorkfield, Wolfdale FSB 1600/1333/1066/800 МГц
Quad-Core Kentsfield, Dual-Core Conroe/Allendale
HyperThreading
Память DDR3 800/1066/1333
HDD 1x UltraDMA/133(RAID)
8x SerialATA II (2x RAID)
Дополнительно Звук High Definition Audio
10 USB 2.0
2x Gigabit Ethernet LAN
2х IEEE-1394
Цена: ~$425 (Price.Ru)

Чипсет NVIDIA nForce 790i SLI анонсирован довольно давно, однако первые продукты на его основе появляются только сейчас. Впрочем, сожалеть об этом не будем - одна из главных особенностей этого продукта заключается в поддержке памяти DDR3, которая стала относительно доступной (по цене) лишь несколько недель назад. Кстати, NVIDIA выпустила еще одну версию чипсета, под названием nForce 790i Ultra SLI. Причем единственное ее отличие от "не Ultra" заключается в поддержке более скоростных модулей памяти DDR3 и поддержке технологии EPP 2.0. Все остальные характеристики - совершенно одинаковые.

Второй важной особенностью этих чипсетов является нативная поддержка шины PCI Express v2.0. Если чипсет nForce 780i SLI являлся переименованным nForce 680i SLI, в котором поддержка PCI-E v2.0 была реализована при помощи дополнительного моста nForce 200, то северный мост nForce 790i поддерживает то же самое количество линий, без дополнительных чипов. Всего этот чипсет поддерживает 62 (!) линии шины PCI Express, из которых 32 линии отвечают спецификациям v2.0. Такое количество позволяет разработчикам материнских плат установить на свои продукты три слота PCI Express x16 и обеспечить поддержку технологии 3-way SLI (т.е. объединение вычислительных ресурсов трех видеокарт NVIDIA).

Что касается южного моста, то он не претерпел изменений. Это чип nForce 570i MCP, возможности расширения которого полностью отвечают современным требованиям.

Итак, объектом сегодняшнего тестирования является материнская плата ASUS Striker II NSE на чипсете nForce 790i SLI. Этот продукт относится к довольно дорогой и эксклюзивной серии "Republic of Gamers" и предназначен для оверклокеров и компьютерных энтузиастов. Ориентация платы на эту группу пользователей выдает вотерблок, который установлен на северном мосту чипсета, а также богатая комплектация и мощные функции разгона (которые, как показало это тестирование, действительно работают, в отличие от Striker II Formula на nForce 780i SLI).

Спецификация ASUS Striker II NSE

Процессор - Intel Pentium 4 (Prescott (2M)/Gallatin/CedarMill) с частотой шины 1066/800/533 МГц
- Двухъядерные Intel Pentium D/EE (Smithfield/Presler) с частотой шины 800/1066 МГц
- Intel Celeron-D (Conroe-L, Prescott) с частотой шины 800/533 МГц
- Поддержка Intel Core 2 Duo/Quad (Kentsfield (4 ядра), Conroe/Allendale (2 ядра)) с частотой шины 1333/1066/800 МГц
- Поддержка Intel Yorkfield, Wolfdale с частотой шины 1600/1333/1066/800 МГц
- Разъем Socket LGA775
- Поддержка процессоров с технологией HyperThreading
Чипсет - Северный мост nForce 790i SLI SPP
- Южный мост nForce 570i SLI MCP
- Связь между мостами: шина HyperTransport (1 ГГц)
Системная память - Четыре 240-контактных слота для DDR-3 SDRAM DIMM
- Максимальный объем памяти 8 Гб
- Возможен двухканальный доступ к памяти
- Поддерживается память типа DDR3 800/1066/1333
- Индикаторы питания на плате
Графика - Три слота PCI Express x16 (2х 16 v2.0 + 1х 16 v1.0)
Возможности расширения - Два 32-х битных PCI Bus Master-слота
- Два слота PCI Express x1
- Десять портов USB 2.0 (6 встроенных + 4 дополнительных)
- Два порта IEEE1394 (Firewire; 1 встроенный + 1 дополнительный)
- Два сетевых контроллера Gigabit Ethernet
Возможности для разгона - Изменение частоты FSB от 100 до 750 МГц; изменение множителя
- Изменение напряжения на процессоре, памяти, FSB, PLL и чипсете(nb & sb)
- Технология ASUS AI Overclocking
- Утилита ASUS AI Booster
Дисковая подсистема - Один канал UltraDMA133/100/66/33 Bus Master IDE (с поддержкой до 2 ATAPI-устройств & RAID 0, 1)
- Поддержка протокола SerialATA II (6 каналов - nForce 570i SLI, c поддержкой RAID 0,1,5, 0+1 и JBOD)
- Дополнительный SerialATA II/Raid-контроллер (микросхема JMB363, 2 канала SerialATA II, RAID)
- Поддержка LS-120 / ZIP / ATAPI CD-ROM
BIOS - 8 MBit Flash ROM
- Award Phoenix BIOS с поддержкой Enhanced ACPI, DMI, Green, PnP Features и Trend Chip Away Virus
- Технология ASUS EZ Flash 2
- Технология ASUS CrashFree BIOS 2
- Технология ASUS MyLogo 3
- Технология ASUS OC Profile
- Multi-languages BIOS
Разное - Один порт для FDD, порт для PS/2 клавиатуры
- Кнопки включения, перезагрузки и сброса настроек BIOS
- IrDA
- STR (Suspend to RAM)
- SPDIF Out
Управление питанием - Пробуждение от модема, мыши, клавиатуры, сети, таймера и USB
- 24-контактный разъем питания ATX (ATX-PW)
- Дополнительный 8-контактный разъем питания
Мониторинг - Отслеживание температуры процессора, системы, чипсет (nb+sb), трех дополнительных термодатчиков, мониторинг напряжений, определение скорости вращения восьми вентиляторов
- Технология ASUS Q-Fan 2
- Технология ASUS AI Gear, AI Nap
Размер - ATX форм-фактор, 244x305 мм (9,63" x 12")

Коробка

Плата упакована в довольно внушительную коробку со стильным дизайном:

Коробка имеет ручку для переноски, а одна страница обложки раскрывается наподобие книги:

Внутри пользователь обнаружит плату в прозрачном пластиковом боксе, а также еще одну коробку с аксессуарами:

Комплектация

  • материнская плата;
  • DVD-диск с ПО и драйверами;
  • диск с игрой Company of Heroes: Opposing Fronts;
  • руководство пользователя на английском языке;
  • один ATA-133-шлейф, FDD-шлейф;
  • шесть SerialATA-кабелей + переходник питания (два разъема);
  • заглушка на заднюю панель корпуса;
  • планка с двумя портами USB 2.0 и одним портом Firewire;
  • SLI-коннектор, 3-way SLI-коннектор;
  • набор стяжек + набор резиновых подставок;
  • дополнительный вентилятор;
  • звуковая карта SupremeFX II;
  • набор дополнительных коннекторов Q-Connector;
  • наклейка с логотипом ASUS;
  • набор хомутов, переходников и соединительных трубок для СВО;
  • три внешних термодатчика;
  • LCD Poster.

Комплектация платы Striker II NSE полностью соответствует уровню high-end-продукта. В частности, пользователю не придется искать в магазинах внешние термодатчики или набор для подключения системы водяного охлаждения: все это есть в комплекте. Единственное, что, возможно, придется купить, - это переходники питания для SerialATA-устройств (если у пользователя "старый" блок питания) и/или планку с парой портов USB 2.0 (если используется "старый" корпус).

Начнем с документации. Книжка написана просто отлично; затронуты все аспекты сборки и настройки системы (включая иллюстрированное руководство подключения СВО).

Кроме этого, к плате прилагается два DVD-диска. На первом можно найти набор фирменных утилит ASUS (PC Probe 2, AIBooster, Update, MyLogo 3 + набор заставок), а также все необходимые драйверы для Windows и Linyx. Кроме того, на диске записан пакет Norton Internet Security 2007 и Kaspersky Anti-Virus. Более того, на диске имеется лицензионная версия 3DMark 06 Advanced Edition (однако мы не нашли серийного номера для этого бенчмарка). На втором диске записана суперпопулярная стратегия Company of Heroes: Opposing Fronts.

Далее - к плате прилагается шесть кабелей SerialATA, переходник питания с двумя разъемами, PATA- и FDD-шлейфы, заглушка на заднюю панель (которая способна защитить систему от статики), а также набор коннекторов Q-Connector.

Следующими компонентами являются дополнительный вентилятор и планка с двумя портами USB 2.0 и портом Firewire.


Для организации SLI-массива в комплектацию включены два коннектора: один гибкий, для соединения двух видеокарт, другой - жесткий, для трех карт соответственно.

Кроме этого, есть набор стяжек, три внешних термодатчика и LCD-Poster. Последний представляет собой небольшой экран, который предназначен для вывода диагностических сообщений. Точно такой же экран был установлен на первом Striker. Причем он был жестко закреплен на задней панели, а наш LCD-Poster можно вывести в любое удобное место (до которого хватит кабеля).

Если система собирается на коленке, то компьютерному энтузиасту могут потребоваться резиновые проставки под плату (9 шт).

И, наконец, плата имеет звуковую подсистему, которая выполнена в виде отдельной платки SupremeFX II:

Встроенная графика нового поколения пришла первой на платформу AMD. Почему так? Никакого секрета тут нет.

Во-первых, системная логика для платформы AMD устроена значительно проще, чем для платформы Intel. По той причине, что самые сложные компоненты уже встроены в центральный процессор, а на долю чипсета материнской платы приходится только поддержка периферии. Следовательно, встроить более сложное графическое ядро в кристалл северного моста чипсета для платформы AMD намного проще технически.

Во-вторых, корпорация Intel, основной поставщик чипсетов для своей платформы, пока не смогла представить достойное графическое ядро, которого следует опасаться NVIDIA. Неудивительно, что руководство последней потребовало приложить все усилия для своевременного выпуска новых интегрированных чипсетов для платформы AMD. Ведь сама AMD, заполучив отдел разработки чипсетов компании ATI, стала активно развивать именно направление интегрированных решений. И чипсет с новым графическим ядром, получивший название AMD 780G, выпустила первой именно она.

Впрочем, NVIDIA подтянулась довольно быстро. И, судя по косвенным признакам, ее чипсет получился более надежным и доведенным до ума, хотя и более дорогим. Собственно, чипсет не один – их целая линейка, от самых простых и дешевых до полнофункциональных с поддержкой Tri-SLI. Из них на рынок домашних медиа-центров нацелены чипсеты GeForce 8000, которые предназначены для установки на материнские платы с максимальным количеством мультимедиа-функций.

Итак, что нам может предложить чипсет GeForce 8200, базовый в упомянутой линейке? Он оснащен урезанным графическим ядром G86, успешно примененным в свое время в видеокартах серии GeForce 8400. Заявленная поддержка DirectX 10 и шейдеров версии 4.0 вряд ли пригодится владельцу интегрированной материнской платы, так как ввиду некоторых "врожденных" особенностей (в частности, нет локальной памяти – только системная, доступная через общий контроллер) производительность в 3D будет весьма низкой. Но с другой стороны, чип G86 способен аппаратно обрабатывать видеопоток, сжатый новыми кодеками, ускоряя тем самым воспроизведение. При этом новый чипсет в полной мере поддерживает интерфейс HDMI для подключения цифровых телевизоров, позволяет передавать цифровой многоканальный звук и видео по одному и тому же интерфейсу.

Важной может показаться и новая функция "гибридной" графики, позволяющая добавлять дискретную видеокарту для совместного со встроенной обсчета 3D-графики (технология GeForce Boost). Правда, работать это будет только для младшей модели вроде той же 8400, покупка которой, между нами говоря, не имеет никакого смысла. Если же оснастить новую плату мощной видеокартой класса 9800 GT, то гибридная технология может быть применена для другого – для отключения этой видеокарты при работе в 2D, что дает снижение температуры и шума компьютера.

С точки зрения поддержки периферии у чипсетов NVIDIA давно все в порядке – гигабитный Ethernet, RAID вплоть до уровня 5, 12 портов USB. В новой линейке реализована поддержка PCI Express 2.0. Неясной остается ситуация лишь с External SATA: на платах с чипсетами NVIDIA соответствующий разъем если и встречается, то обслуживается дополнительным контроллером, а не чипсетом. Но модели внешних винчестеров с External SATA уже не редкость.

Gigabyte M78SM-S2H. Дизайн, функциональность

Несмотря на то, что чипсеты серии GeForce 8000 практически не уступают чипсету AMD 780G, да и другие модели нового поколения весьма неплохи, компания Gigabyte отдает предпочтение именно чипсетам AMD 700-ой серии. Связано это, возможно, с высокой стоимостью микросхем NVIDIA. В частности, на базе чипсета GeForce 8200 у Gigabyte имеется (на момент подготовки статьи) только одна модель – M78SM-S2H.

А модель эта интересная. Начнем с того, что она оснащается сразу тремя видеовыходами – аналоговым VGA (с разъемом D-Sub) и цифровыми DVI и HDMI. При этом нужно учесть, что цифровые порты делят на двоих один CRTC-контроллер, то есть выводят одинаковое изображение, в то время как порт VGA работает независимо от них. Этот недостаток может проявляться, например, невозможностью реализовать режим "Театр", когда на телевизор выводится полноэкранное видео, которое на мониторе в то же время воспроизводится в окне.

С другой стороны, отсутствует поддержка FireWire (1394), хотя большинство видеокамер подключаются именно через него. На панели портов имеется урезанный до трех набор аналоговых "джеков", зато выведен электрический S/PDIF.

Получается, что производитель рекомендует подключать и телевизор, и звук "по цифре". Аудиокодек Realtek ALC888 – обычный 8-канальный кодек с поддержкой основных функций. Сетевой кодек тоже Realtek, с поддержкой гигабитных сетей. Остальная функциональность, в том числе по поддержке жестких дисков, обеспечивается чипсетом NVIDIA.

Подробнее рассмотрим дизайн.

Плата выполнена в форм-факторе microATX, но по ширине она урезана почти на 3 см. К сожалению, поместились только два слота DIMM, что было бы не критично для платы начального уровня, но модель Gigabyte отнюдь не дешевая. Набор остальных слотов типичен для этого форм-фактора – по одному PCI Express, x16 и x1, плюс два PCI. Все шесть портов Serial ATA разведены, как и все 12 портов USB (в том числе 8 через внутренние штырьковые разъемы).

Модуль питания процессора выполнен по 4-фазной схеме, динамическое управление количеством фаз не реализовано.

В цепях использованы твердотельные конденсаторы, но только для VRM процессора. Оба разъема питания расположены в удобных местах.

Для охлаждения чипсета, а точнее, одного чипа MCP78S, из которого и состоит GeForce 8200, применен крупный алюминиевый радиатор, окрашенный "под золото".

Чтобы не мешать установке карты расширения в слот PCIe x1, который у платы только один, радиатор в соответствующем месте спилен.

Все разъемы расположены в удобных местах, за исключением Front Audio, который вынесен поближе к аудиокодеку. Особенность последних моделей Gigabyte, и M78SM-S2H в частности, состоит в том, что все разъемы не только подробно раскрашены, но и снабжены подписями прямо на колодках (крупными и читабельными), а также рамками для надежной фиксации.

Будем надеяться, что и другие производители начнут ставить такие колодки.

Панель портов у платы нестандартная. Про три видеовыхода и S/PDIF мы уже упоминали, как и про 4 порта USB. Тут имеется также архаичный порт LPT (трудно предположить, зачем он может понадобиться в домашнем компьютере), зато PS/2 порт для мышки отсутствует – на его месте расположены два USB.

BIOS, настройки

По традиции плата M78SM-S2H снабжена BIOS фирмы Award, в который внесены некоторые фирменные изменения. Например, самые "опасные" опции доступны после нажатия Ctrl-F1 в главном меню BIOS Setup.

Для повышения производительности и разгона следует заглянуть в раздел MB Intelligent Tweaker, поскольку в остальных разделах ничего интересного обнаружено не было.

Объем настроек для разгона весьма невелик и включает:

  • выбор опорной частоты шины HT, от которой зависит тактовая частота процессора (по умолчанию 200 МГц);
  • выбор множителя (для процессоров серии Black Edition);
  • выбор множителя (в виде частоты) и ширины канала HT между процессором и чипсетом;
  • настройка частоты шины PCI Express;
  • изменение напряжения на процессоре и модулях памяти; для процессора отображается номинальное напряжение (так сказать, для справки).

В подразделе управления работой памяти можно указать желаемую ее частоту (400, 533, 667, 800 или 1066 МГц), которая не всегда будет совпадать с реальной (ввиду особенностей тактирования памяти у процессоров AMD).

Набор таймингов скрыт от пользователя, можно изменить лишь CAS Latency.

В разделе PC Health Status можно опять же по традиции указать порог температуры, по достижении которого включается "сирена", и активировать предупреждение об остановке кулера процессора и вентилятора в корпусе.

Управление вращением процессорного кулера имеется, но оно не настраивается; вентилятор в корпусе не управляем.

В целом набор настроек платы M78SM-S2H весьма скромен для платы домашнего назначения и скорее характерен для платы офисной.

Комплектация

В коробке с платой Gigabyte M78SM-S2H обнаружен компакт-диск (драйверы и утилиты для плат на чипсетах NVIDIA), заглушка для панели портов, два кабеля Serial ATA, один IDE и один FDD.

Руководство пользователя очень подробное, имеется небольшая инструкция на французском и турецком (видимо, в этих странах запрещено продавать товары без инструкции). Никаких других аксессуаров, которые могут пригодиться пользователю, в комплекте нет.

Тестирование

Мы провели тестирование платы Gigabyte в составе компьютера следующей конфигурации:

  • процессор Athlon 64 X2 5000+ Black Edition (2.6 ГГц);
  • память DDR2 GoodRAM PRO DDR2-900 2 x 1 Гб;
  • жесткий диск WD Caviar SE 250 Гб.

Для сравнения приведем результаты тестирования конкурирующего продукта – платы Micro-Star на чипсете AMD 780G. Данная плата в чем-то уступает M78SM-S2H (нет поддержки RAID и разъема DVI), а в чем-то превосходит, в том числе по стоимости.

Производительность . В тесте SYSMark 2007 задействован целый ряд современных приложений, которые отрабатывают тот или иной сценарий – последовательность действий пользователя. Мы запускали этот пакет и в Windows XP, и в Windows Vista.

И, судя по всему, у платы Gigabyte производительность на 5-10% выше. Обратный результат наблюдался только в Vista, в сценарии видеомонтажа, в чем виноват скорее сам тест SYSMark 2007.

А вот с производительностью встроенной графики в 3D-играх у данной платы (и у всех аналогов) проблемы.

Рассчитывать на играбельность можно лишь в играх типа Quake 4 или Call за Duty 2, да и то при минимальных настройках и разрешении ниже 1024х768. У встроенной графики чипсета AMD 780G показатели лучше, но тоже далеки от желаемого.

Разгон . Плата M78SM-S2H способна работать при опорной частоте шины HT, равной 405 МГц (если процессор позволит, конечно). Значение выше этого BIOS просто не позволяет ввести. Что касается конкретных результатов разгона тестового процессора Athlon 64 X2 5000+, то у нас получился результат всего 2.75 ГГц, или 6% прироста. А все оттого, что BIOS не дает повысить напряжение Vcore выше 1.55 В.

Плата Gigabyte M78SM-S2H интересна прежде всего наличием сразу трех выходов на монитор, включая HDMI. Ее встроенная графика способна поддерживать 3D-игры (пусть и в минимальном качестве), а также аппаратно декодировать HD-видео на дисках Blu-ray. В плюсы запишем также поддержку RAID и наличие шести разъемов Serial ATA. Вместе с тем данная плата не пригодна для разгона (по крайней мере, при активированной встроенной графике) и не имеет никаких дополнительных функций, которые положены хорошей модели для домашнего ПК.

Плюсы:

  • три видеовыхода;
  • практичная компоновка, уменьшенная ширина;
  • 6 портов Serial ATA и 12 USB;
  • твердотельные конденсаторы в цепях VRM процессора.

Минусы:

  • всего два слота DIMM;
  • нет FireWire;
  • не поддерживается аналоговое подключение акустики 7.1;
  • бедный настройками BIOS.

Благодарим компанию "ДжетСервис" за предоставленную материнскую плату Gigabyte

Оценка автора:

Выход компании NVIDIA на рынок наборов логики для процессоров семейства Intel Core 2 вызвал у нас неоднозначные эмоции. Конечно, с точки зрения формальных характеристик, NVIDIA nForce 680i SLI равных нет. По своим возможностям этот чипсет, действительно, превосходит альтернативные решения от Intel и, уж тем более, AMD. Однако спецификации в наше время решают далеко не всё. Рассмотренные нами ранее серийные платы, основанные на NVIDIA nForce 680i SLI, единодушного восхищения, к сожалению, не вызывают. И продукты, построенные на референсном дизайне , и ASUS Striker Extreme , имеют множество мелких проблем, которые способны испортить впечатление об этих продуктах у придирчивых пользователей. Но особенно при этом расстраивает цена материнских плат, основанных на топовом наборе логики от NVIDIA. Именно из-за неё широкая популярность и всенародная любовь NVIDIA nForce 680i SLI явно не грозит. В результате, самым массовым и востребованным набором логики для настольных Core 2 систем на данный момент продолжает оставаться набор логики Intel P965.

Однако в ближайшее время эта ситуация может измениться. Компания NVIDIA начала поставки производителям плат нового набора логики nForce 650i SLI, удешевлённой версии не столь привлекательного NVIDIA nForce 680i SLI. Первые продукты, в основе которых лежит этот многообещающий чипсет, в магазинах уже появились. И что особенно приятно, их стоимость вполне сравнима с ценой материнских плат на интеловских чипсетах. Таким образом, принимая во внимание спецификации NVIDIA nForce 680i SLI, от новинок можно ожидать превосходного сочетания потребительских характеристик и цены. Именно поэтому наша лаборатория решила уделить внимание одной из первых появившихся на рынке материнских плат на базе NVIDIA nForce 650i SLI, ASUS P5N-E SLI.

Впрочем, перед тем как перейти к рассмотрению этого подающего большие надежды решения, пару слов необходимо сказать о самом чипсете NVIDIA nForce 650i SLI, ведь его позиционирование не в верхнем, а в среднем ценовом диапазоне, очевидно, привело к некоторому сокращению возможностей. Первые же выводы об этом можно сделать, глядя на блок-схему новинки.

Как видим, главное отличие NVIDIA nForce 650i SLI от своего старшего собрата заключается в уменьшении количества линий PCI Express, которое отражается в том числе и на схеме реализации технологии SLI. В то время как nForce 680i SLI имел в своём распоряжении в общей сложности 46 линий PCI Express, у nForce 650i SLI их всего 18. В результате, в то время как старшая модель чипсета предлагает реализацию технологии SLI по схеме PCI Express x16 + PCI Express x16, предоставляя к тому же и дополнительную шину PCI Express x8 для установки физического ускорителя, в nForce 650i SLI технология SLI использует более простую схему PCI Express x8 + PCI Express x8. Соответственно, в nForce 650i SLI речь не идёт и ни о каких-либо дополнительных шинах для видеокарт, исполняющих роль физического ускорителя.

Объясняется это тем, что хотя nForce 680i SLI и nForce 650i SLI строятся на базе одного и того же северного моста C55 SPP, их южные мосты не имеют между собой ничего общего. Функции этой микросхемы у nForce 650i SLI сильно урезаны, и не только лишением поддержки линий PCI Express.

Так, NVIDIA nForce 650i SLI располагает лишь одним гигабитным сетевым контроллером вместо двух у старшей модели набора логики, четырьмя Serial ATA-300 портами вместо шести и восемью портами USB 2.0 вместо десяти. Зато nForce 650i SLI предлагает два канала Parallel ATA-133, что для современных чипсетов большая редкость. Но странного в этом ничего нет, ведь южный мост в nForce 650i SLI – это ни что иное, как микросхема nForce 430 MCP, давно и хорошо знакомая нам по интегрированному набору логики nForce 6150. Чему-чему, а искусству унификации у NVIDIA можно поучиться.

К вышесказанному надо добавить, что часть возможностей у nForce 650i SLI отключена на уровне BIOS материнских плат. Так, несмотря на то, что этот набор системной логики использует тот же северный мост, что и nForce 680i SLI, более дешёвый чипсет лишён официальной поддержки технологии NVIDIA Linkboost и поддержки высокоскоростной памяти с EPP. Впрочем, для продвинутых пользователей, привыкших к ручному конфигурированию своих систем, эти отличия вряд ли могут считаться принципиальными.

Итак, сведём воедино всё вышесказанное.

Фактически, если отсутствие поддержки SLI по схеме PCI Express x16 + PCI Express x16 не является для вас принципиальным моментом, то, судя по характеристикам, набор логики NVIDIA nForce 650i SLI может стать вполне полноценной основой системы. И уж, несомненно, он может рассматриваться как настоящий конкурент для Intel P965.

Спецификация и комплект поставки

А вот и первая ласточка, основанная на NVIDIA nForce 650i SLI – материнская плата ASUS P5N-E SLI.

Главный вопрос состоит в том, сможет ли материнская плата ASUS P5N-E SLI, в основе которой лежит многообещающий чипсет NVIDIA nForce 650i SLI, рассматриваться в качестве полновесного соперника популярных решений на базе iP965? Ответ становится ясным уже из её спецификации.

ASUS P5N-E SLI
Процессоры LGA775 процессоры Celeron D, Pentium 4, Pentium D, Pentium 4 XE, Pentium XE, Core 2 Duo, Core 2 Quad и Core 2 Extreme
Чипсет NVIDIA nForce 650i SLI (C55 SPP + nForce 430 MCP)
Частоты FSB, МГц 133-750 (с шагом 1 МГц)
Функции для разгона Возможность изменения напряжения на процессоре, памяти и северном мосту
Независимое тактование шин PCI и PCI Express
Поддержка технологии EPP
Память 4 слота DDR2 DIMM для двухканальной DDR2-1067/800/667/533 SDRAM
Слоты PCI Express x16 2 (с поддержкой NVIDIA SLI в режиме 8x + 8x)
Слоты PCI Express x1 1
Слоты расширения PCI 2
Порты USB 2.0 8 (4 – на задней панели)
Порты IEEE1394 2 порта IEEE1394a (1 – на задней панели, через контроллер VIA VT6308P)
ATA-100/133 2 канала ATA-133 (через чипсет)
Serial ATA 4 канала Serial ATA-300 (через чипсет, с поддержкой RAID)
1 канал eSATA (на задней панели, через контроллер JMicron JMB360)
Поддержка ATA RAID RAID 0, 1, 0+1, 5 у чипсета
Интегрированный звук Шестиканальный HD кодек Realtek ALC883
Интегрированная сеть Gigabit Ethernet (через чипсет)
Дополнительные возможности Нет
BIOS Phoenix AwardBIOS v6.00PG
Форм-фактор ATX, 305x229 мм

Да, может. По основным формальным параметрам она нисколько не уступает основной массе материнских плат, построенных на iP965. При этом надо всё же понимать, что ASUS P5N-E SLI относится к разряду недорогих плат, а потому "тяжеловесы" вроде ASUS Commando принадлежат к более высокому классу. Более подробное знакомство с ASUS P5N-E SLI выявит множество моментов, в которых инженеры руководствовались в первую очередь стремлением сделать эту плату более доступной по стоимости. Таким образом, конкурентоспособность этого продукта мы будем рассматривать, исходя из её стоимости, которая составляет на сегодняшний день $120-140.

Возьмём, например, упаковку и комплект поставки. Экономия тут сразу же бросается в глаза. Рассматриваемая плата предлагается в ни чем не примечательной коробке "обычного" типоразмера без красивых картинок, прозрачных прорезей и ручек для переноски.

Внутри коробки тоже несколько пустовато. В наличии имеется собственно плата, руководство, компакт-диск с ПО и драйверами, заглушка для задней панели корпуса (I/O Shied), шлейфы для подключения дисковода и Parallel ATA устройств, два Serial ATA кабеля и соответствующий переходник питания. Этот джентльменский набор дополнен лишь тремя более ценными принадлежностями: заглушкой-брекетом с парой дополнительных USB портов, гибким шлейфом для соединения видеокарт в режиме SLI и набором фирменных разъёмчиков Q-Connector.

Впрочем, несмотря на скудный (по сравнению с более дорогими платами ASUS) комплект поставки, придраться к нему достаточно сложно. Всё необходимое в коробке, безусловно, есть.

Подробнее о возможностях

То же самое можно сказать и о функциональных возможностях самой платы. Хотя практически все её свойства базируются в своей реализации на соответствующих функциях набора логики, упрекнуть ASUS P5N-E SLI в нехватке чего-то важного вряд ли получится.

Плата поддерживает полный спектр LGA775 процессоров, включая двухъядерные и четырёхъядерные CPU семейства Core 2. Более того, несмотря на отсутствие официальных упоминаний о поддержке ASUS P5N-E SLI будущих процессоров с частотой шины 1333 МГц, сомневаться в работоспособности этой платы с такими CPU не приходится. Эта уверенность обуславливается разгонными результатами платы с одной стороны, и использованием северного моста C55 SPP (который в составе чипсета NVIDIA nForce 680i SLI официально поддерживает будущую шину) – с другой.

Иными словами, нами не видится никаких причин, которые могут вызвать проблемы в эксплуатации ASUS P5N-E SLI с будущими процессорами.

Что касается работы с памятью, то и тут ASUS P5N-E SLI мало чем отличается от той же ASUS Striker Extreme. Благодаря свойствам северного моста C55 SPP частота DDR2 SDRAM может быть задана как делителями относительно частоты FSB (набор делителей не так уж и богат и включает коэффициенты FSB:DRAM равные 1:2, 5:8, 3:4 и 1:1), так и псевдоасинхронно. При включении псевдоасинхронного режима BIOS Setup платы предлагает ввести любое значение частоты памяти от 400 до 2600 МГц, но при этом реальная частота будет подобрана среди близких значений, получаемых при использовании расширенного множества делителей, количество которых в асинхронном режиме значительно увеличено.

Надо заметить что, несмотря на обещанные NVIDIA ограничения в части поддержки технологии EPP чипсетом nForce 650i SLI, ASUS P5N-E SLI поддерживает её без каких либо проблем.

Отдельное внимание следует уделить имеющимся на плате двум слотам PCI Express x16. Эти слоты нужны исключительно для использования в качестве видеоподсистемы пары видеокарт, работающих в режиме SLI. При включении этого режима оба слота логически работают как PCI Express x8. Если же в системе установлена только одна видеокарта, то первый слот функционирует как полноценный PCI Express x16, а второй – отключается. Выбор между режимами работы слотов выполняется самым старым и примитивным способом – при помощи установки в одно из двух положений дочерней карты-переключателя.

Благодаря южному мосту nForce 430 материнская плата ASUS P5N-E SLI имеет восемь портов USB 2.0, четыре порта SATA-300 с поддержкой пропускной способности 3 Гбит в секунду, NCQ и RAID, два канала PATA-133 и гигабитный сетевой порт.

Эти возможности дополняются при помощи контроллера VIA VT6308P, обеспечивающего работу двух IEEE1394 портов, и чипа JMicron JMB360, добавляющего в число свойств платы поддержку дополнительного внешнего порта eSATA (SATA On-the-Go, как его называет ASUS).

Шестиканальный интегрированный звук на ASUS P5N-E SLI реализуется через кодек высокого разрешения Realtek ALC833. Хотя сам по себе этот кодек обладает поддержкой 8 каналов, на плате выведено только шесть из них. Кроме того, следует отметить, что этот кодек относится к числу недорогих и обладает не столь высоким качеством поддержки EAX 2.0, как, например, кодеки Analog Devices, используемые ASUS на более дорогих платах.

Дизайн и впечатления

Комплектация ASUS P5N-E SLI и её заявленные возможности особого впечатления на нас не произвели. Всё вполне типично для материнской платы среднего ценового диапазона. Но что касается дизайна, то здесь у рассматриваемого продукта обнаруживаются весьма примечательные и достаточно необычные особенности.

Так, первое что бросается в глаза при взгляде на плату, это гигантский алюминиевый радиатор, установленный на северном мосту чипсета.

Стремление разработчиков к снижению финальной стоимости платы не дало ни малейшего шанса на появление на ASUS P5N-E SLI более эффективной охлаждающей конструкции. А ведь медный активный кулер здесь явно бы не помешал. Чип C55 SPP чрезвычайно сильно нагревается во время работы. Установленный на плате алюминиевый радиатор раскаляется до таких температур, что при длительной эксплуатации платы возникает сильное беспокойство за здоровье северного моста. Так что мы бы рекомендовали первым делом сменить этот дешёвый радиатор на что-то более эффективное, особенно, если вы планируете разгон, или же ваша система не предусматривает сильную циркуляцию воздуха в районе северного моста.

На южном мосту платы и вовсе никакого радиатора нет. Впрочем, нагревается по сравнению с северным мостом он не столь уж пугающе. Тем не менее, на печатной плате около этой микросхемы предусмотрены крепёжные отверстия, позволяющие дополнительно позаботиться о судьбе и этой микросхемы.

Сомнительная экономия на радиаторах коснулась не только микросхем чипсета. Лишён какого бы то ни было охлаждения и конвертер питания процессора, который на ASUS P5N-E SLI выполнен по классической трёхканальной схеме. В данном случае эта схема не содержит ни цифровой обратной связи, ни SMT конденсаторов, что совершенно неудивительно, учитывая невысокую стоимость платы. В преобразователе напряжения использованы обычные электролитические конденсаторы производства United Chemi-Con, претензий к надёжности которых обычно не возникало.

Элементы конвертера питания процессора, включая конденсаторы, расположены на печатной плате далеко не самым удачным образом – непосредственно вокруг процессорного гнезда. В результате, они способны затруднить установку на ASUS P5N-E SLI систем охлаждения с массивным основанием, которым, кстати, может помешать и радиатор северного моста.

Ещё одна проблема может возникнуть при подключении к плате дополнительного 12-вольтового кабеля питания. Дело в том, что плата оборудована 4-контактным разъёмом, более современный 8-контактный штепсель в который влезает с большим трудом из-за неосмотрительно установленного рядом джампера.

Надо сказать, что дизайн ASUS P5N-E SLI не обделён и некоторыми другими недостатками, многие из которых можно увидеть на приведённой схеме.

Сильное расстройство вызывает местонахождение разъёма для подключения FDD, который прячется за последним слотом PCI. Также оставляет желать лучшего и размещение SATA портов, воспользоваться которыми при наличии в системе двух видеокарт может быть не очень просто.

Все проблемы с неудачным выбором места для размещения тех или иных разъёмов на плате могут объясняться уменьшенной (c целью экономии) площадью PCB, и это даёт инженерам ASUS некоторое оправдание. За что же прощать конструкторов совсем не хочется – так это за наличие на P5N-E SLI всего трёх разъёмов для подключения вентиляторов. Для платы такого уровня, несущей на себе сильно греющиеся элементы, этого, вне всяких сомнений, недостаточно.

Задняя панель платы выглядит несколько пустоватой. Здесь присутствуют PS/2 порты для подключения мыши и клавиатуры, четыре порта USB, порт IEEE1394, сетевой разъём RJ45 с диагностическими светодиодами, порт eSATA, три аналоговых аудио-разъёма, коаксиальный SPDIF выход и параллельный порт.

На PCB при этом имеется pin-коннекторы для подключения четырёх дополнительных портов USB, порта IEEE1394 и последовательного COM порта.

BIOS

Разгонные возможности материнской платы во многом определяются её BIOS. Учитывая, что в основе ASUS P5N-E SLI лежит тот же самый северный мост, который служит базисом ASUS Striker Extreme, мы ожидали, что BIOS Setup этой платы предложит нам похожие возможности для разгона процессоров и памяти. Однако не тут-то было. Инженеры ASUS существенно ограничили число настроек BIOS Setup своей недорогой платы, построенной на наборе логики NVIDIA nForce 650i SLI. Остаётся только надеяться, что на оверклокерском потенциале платы это скажется не столь сильно.

Все возможности BIOS Setup, посвящённые конфигурированию памяти и процессора и их разгону, находятся в меню Advanced. Основная часть интересующих оверклокеров параметров вынесена в раздел JumperFree Configuration.

Здесь можно выключить технологии EPP, а также попасть на отдельные страницы Setup, с функциями для управления напряжениями и частотами.

Подраздел System Clocks содержит единственную опцию для задания частоты шины PCI Express, которая изменяется в пределах от 100 до 131 МГц с шагом в 1 МГц.

В подразделе Voltage Control открывается доступ к управлению тремя величинами:

В подразделе FSB & Memory Config задаётся частота шины FSB и шины памяти.

Заметим, что установка частоты фронтальной шины происходит в несколько непривычном "учетверённом" формате. В пересчёте же на привычные значения, FSB может тактоваться в пределах частот от 133 до 750 МГц. Частота памяти выставляется либо связанно с FSB, используя делители FSB:DRAM равные 1:2, 5:8, 3:4 и 1:1, либо псевдоасинхронно. Имейте в виду, NVIDIA nForce 650i SLI не имеет полностью асинхронного отдельного тактового генератора для формирования частоты шины памяти. После установки желаемого значения в BIOS Setup плата подберёт наиболее подходящий делитель (их в распоряжении чипсета – более чем достаточно) и укажет фактическую частоту памяти. В большинстве случаев эта частота отличается от желаемой не более чем на 10-20 МГц в меньшую сторону. Диапазон же частот памяти, который даёт выбрать ASUS P5N-E SLI в псевдоасинхронном режиме лежит от 400 до 2600 МГц.

Раздел CPU Configuration открывает доступ к манипулированию коэффициентом умножения процессора (для процессоров, позволяющих смену множителя) и к управлению различными процессорными технологиями.

Все настройки памяти вынесены в подраздел Memory Timings Settings раздела Chipset.

Как видим, плата открывает доступ ко всем основным задержкам подсистемы памяти, в том числе позволяет управлять и параметром Command Rate.

Необходимо отметить, что практически все перечисленные напряжения, а также параметры процессора и памяти, могут быть выставлены в значение Auto, что несколько упрощает настройку BIOS Setup.

Помимо возможностей, нацеленных непосредственно на оверклокинг, BIOS Setup ASUS P5N-E SLI располагает и парой других любопытных возможностей. Во-первых, он позволяет сохранять профили настроек в энергонезависимой памяти и даже в файлах. Во-вторых, в нём встроена утилита EZ Flash 2, основной функцией которой выступает обновление прошивок, не выходя из BIOS. Эта утилита способна брать файлы с новыми версиями BIOS c Floppy, CD и жёстких дисков, размеченных под FAT, а также с USB Flash дисков.

Аппаратный мониторинг, реализованный на ASUS P5N-E SLI, позволяет отслеживать скорость вращения трёх вентиляторов и температуры процессора и платы.

В BIOS реализована и традиционная технология Q-Fan, позволяющая управлять скоростями вентиляторов в зависимости от температур узлов системы.

Разгон

Из описания BIOS Setup следует, что ASUS P5N-E SLI не столь богата настройками, как многие другие материнские платы для энтузиастов. В то же время все основные параметры эта плата изменять позволяет, и это даёт надежду на её применимость в качестве оверклокерской платформы.

Более того, последние рассмотренные нами платы для продвинутых пользователей имели чрезвычайно сложный BIOS Setup, за правильным подбором настроек в котором можно было бы провести немало времени. ASUS P5N-E SLI в этом ключе выглядит очень привлекательно: две частоты и три напряжения – весь инструментарий, который способен пригодиться при разгоне CPU. Другое дело, что результаты такого разгона могут оказаться не столь ошеломляющими. Собственно, проверить все эти умозрительные заключения при помощи тестов мы и взялись.

Для экспериментов мы собрали систему, основанную на рассматриваемой плате с установленным процессором Intel Core 2 Extreme X6800. Кроме этого, в тестовой платформе использовалось 2 Гбайта DDR2 оперативной памяти Corsair TWIN2X2048-8500C5D, видеокарта PowerColor X1900 XTX 512MB и жёсткий диск Western Digital Raptor WD1500AHFD. Благодаря тому, что набор логики NVIDIA nForce 650i SLI позволяет псевдоасинхронное тактование памяти, во время испытаний DDR2 SDRAM всегда работала на частоте, равной или чуть меньшей 800 МГц с таймингами 4-4-4-12-1T. Для охлаждения процессора использовался кулер Zalman CNPS9500 LED, а, кроме того, мы устанавливали на радиатор северного моста дополнительный 60 мм вентилятор. Стабильность работы указанной системы при разгоне проверялась при помощи хорошо зарекомендовавшей себя утилиты ORTHOS, основанной на коде Prime95.

Максимальная частота шины FSB, при которой плата сохраняет способность к стабильному функционированию, была найдена нами очень быстро. Также как и при испытаниях ASUS Striker Extreme, она составила 490 МГц.

При достижении этого результата нам пришлось лишь повысить напряжение на северном мосту набора логики до 1.563 В и на процессоре до 1.475 В. Казалось бы, всё просто? Не тут-то было. ASUS уже давно не выпускал материнских плат, на которых все оверклокерские функции работают сразу, без применения "системы сдержек и противовесов".

Во-первых, столь высокого результата при повышении частоты FSB нам удалось достичь только благодаря дополнительному вентилятору, который мы установили на радиатор северного моста. При удалении этого вентилятора плата неизменно зависала при прохождении POST даже при снижении частоты FSB до 450 МГц.

Во-вторых, как показали тесты, в столь высоких частотах FSB на ASUS P5N-E SLI, как и на ASUS Striker Extreme, смысла немного. Из-за переключения FSB Strap где-то в районе 400-450 МГц при прохождении этой границы катастрофически падает производительность подсистемы памяти, что, порой, не компенсируется даже существенным приростом тактовой частоты процессора.

И в-третьих, при испытаниях ASUS P5N-E SLI мы столкнулись с ещё одной неприятной проблемой, называемой оверклокерами FSB Hole. Рассматриваемая нами плата продемонстрировала свою полную неработоспособность при установке частот FSB из диапазона от 400 до 450 МГц.

К этому необходимо добавить, что от P5N-E SLI было бы глупо ожидать отсутствия традиционного для плат ASUS несоответствия напряжений. В частности, реальное напряжение на процессоре оказывается ниже установленного в BIOS Setup примерно на 0.05 В. Ещё примерно на 0.05 В оно "проседает" при высокой нагрузке на CPU, что, в принципе, находится в рамках интеловских спецификаций, но, тем не менее, сильно раздражает многих оверклокеров.

Псевдоасинхронное тактование памяти чипсетом nForce 650i SLI делает возможным на рассматриваемой плате и разгон DDR2 SDRAM, который может выполняться совершенно независимо от разгона частоты FSB. На пробу мы решили узнать, до какого предела сможет увеличить эта плата частоту для наших тестовых модулей памяти TWIN2X2048-8500C5D при напряжении 2.4 В. Здесь нас постигло некоторое разочарование: ASUS P5N-E SLI, как оказалось, разгоняет DDR2 SDRAM хуже, чем Striker Extreme. Максимальная достигнутая нами частота на шине памяти составила 550 МГц.

Напомним, на материнской плате ASUS Striker Extreme эти же модули без проблем работали на частоте 587 МГц. Впрочем, существует надежда на то, что разгон памяти в перспективе улучшится с выходом последующих версий BIOS. Так, использовавшаяся нами в тестах прошивка 0401 в этом смысле уже значительно превосходит предыдущие версии, а значит, инженеры ASUS ведут работу в этом направлении.

Тестирование производительности

Так как рассматриваемая в рамках данного обзора материнская плата ASUS P5N-E SLI основывается на наборе логики NVIDIA nForce 650i SLI, с которым ранее мы не сталкивались, интерес вызывает и обычная производительность этой платы. Поэтому мы решили сравнить скорость работы ASUS P5N-E SLI с быстродействием других популярных материнских плат, в основе которых лежат распространённые на рынке чипсеты от AMD, Intel и NVIDIA.

В составе тестовых систем нами был использован следующий набор оборудования:

  • Процессор: Intel Core 2 Extreme X6800 (LGA775, 2.93GHz, 4MB L2).
  • Материнские платы:
    • DFI LANParty UT ICFX3200-T2R/G (AMD Crossfire Xpress 3200);
    • DFI Infinity 975X/G (Intel 975X Express);
    • ASUS P5B Deluxe (Intel P965 Express);
    • ASUS P5N-E SLI (NVIDIA nForce 650i SLI);
    • ASUS Striker Extreme (NVIDIA nForce 680i SLI);
  • Память: 2 Гбайта DDR2-800 SDRAM (Corsair TWIN2X2048-8500C5D).
  • Графическая карта: PowerColor X1900 XTX 512MB (PCI-E x16).
  • Дисковая подсистема: Western Digital WD1500AHFD (SATA150).
  • Операционная система: Microsoft Windows XP SP2 с DirectX 9.0c.
Мы старались поставить тестируемые системы в примерно одинаковые условия, поэтому во всех платформах оперативная память работала на частоте 400 МГц с таймингами 4-4-4-12. Тем не менее, выбранные нами установки контроллеров памяти всё же различались в одном параметре. А именно, в Command Rate. Материнские платы, основанные на чипсетах Intel, как известно, не позволяют изменять эту настройку в силу ограничений набора логики. Поэтому, платформы на i975X и iP965 работали при 2T Command Rate.
ASUS P5B Deluxe ASUS P5N-E SLI ASUS Striker Extreme DFI Infinity 975X/G DFI LANParty UT ICFX3200-T2R/G
Sandra 2007, Memory Bandwidth, MB/s 5687 5993 5959 5701 5496
Sandra 2007, Memory Latency, ns 81 72 70 75 96
SuperPi 8M, sec 220.5 221.4 219.8 221.7 241.5
3DMark2001 SE 44882 44906 45184 45076 44704
3DMark06 6523 6531 6532 6518 6503
3DMark06, CPU 2628 2632 2640 2621 2599
PCMark05 7658 8134 7771 8150 7922
PCMark05, CPU 7533 7540 7550 7531 7500
PCMark05, Memory 6002 6202 6206 6027 5776
Far Cry, 1024x768 189.07 192.38 194.33 189.69 178.39
Half-Life 2, 1024x768 150.87 154.88 155.58 153.54 146.21
Quake 4, 1024x768 High Quality 135.32 136.66 136.72 135.54 130.44
CINEBENCH 9.5, Rendering 910 906 908 918 901
AutoGK 2.4/Xvid 1.2, fps 45.32 44.88 45.5 46.46 43.96
WinRAR 3.70 1360 1461 1467 1468 1235

Как показывают проведённые тесты, производительность ASUS P5N-E SLI оказывается лишь незначительно ниже быстродействия материнской платы более высокого класса, ASUS Striker Extreme. Иными словами, претензий к скорости работы рассматриваемой платы у нас нет никаких.

Впрочем, нельзя забывать о том, что режим SLI реализуется на ASUS P5N-E SLI в несколько урезанном варианте, с использованием шин PCI Express x8. Соответственно, при установке в систему на базе этой платы пары видеокарт, она будет показывать ощутимо более низкую производительность, чем ASUS Striker Extreme, поддерживающая "полноценный" SLI. Уровень отставания в этом случае достигает 20% в наиболее современных игровых приложениях.

Выводы

ASUS P5N-E SLI не лишена недостатков, некоторые из которых отнюдь не пустяковые. Однако благодаря этой плате мы можем сказать с полной уверенностью, что набор логики NVIDIA nForce 650i SLI, на котором она основывается, может стать прекрасной основой для Core 2 систем среднего уровня.

Что же касается непосредственно материнской платы, то, суммируя всё вышесказанное, можно говорить о том, что ASUS P5N-E SLI способна стать альтернативой популярным продуктам, основанным на чипсете iP965. В своей ценовой категории ($120-$140) эта плата обеспечивает неплохую функциональность, хорошую производительность и вполне приемлемые возможности для разгона процессора. Более того, эта плата позволяет эксплуатировать видеокарты на чипах NVIDIA в режиме SLI, хотя и с некоторой потерей в быстродействии по сравнению с более дорогими платами, основанными на nForce 680i SLI, но с выигрышем в скорости по сравнению с использованием одиночной видеокарты.

Впрочем, мы не склонны идеализировать рассмотренную плату. Пока что мы не видели продуктов других производителей, основанных на nForce 650i SLI, на фоне которых плата ASUS, возможно, будет выглядеть не столь выигрышно. Тем более что недостатков у неё немало.

  • Хороший уровень производительности;
  • Возможность разгона шины FSB почти до 500 МГц;
  • Независимый разгон оперативной памяти;
  • Привлекательная цена.
  • Отсутствие качественного охлаждения чипсета и конвертера питания CPU;
  • FSB Hole от 400 до 450 МГц;
  • Неудачный дизайн печатной платы;
  • Шестиканальный интегрированный звук.

Смотрите в этой статье:

Видеокарты на базе NVIDIA GeForce RTX 2070, которым посвящен данный материал, являются младшими моделями из уже представленных на данных момент графических адаптеров нового поколения с архитектурой NVIDIA Turing.

Если не брать во внимание очень специфическую NVIDIA Titan RTX стоимостью $2500, то пользовательские видеокарты с архитектурой NVIDIA Turing представлены семейством NVIDIA GeForce RTX 2080 Ti, RTX 2080 и RTX 2070. Это видеокарты высокого класса, а через некоторое время планируется появление и более простых устройств типа RTX 2060.

Смотрим на характеристики

Графические процессоры для новых видеокарт Turing выполняются по более «тонкому» 12-нанометровому техпроцессу. Но, по слухам, этот техпроцесс не является чем-то принципиально новым, а представляет собой лишь чуть доработанную версию 16-нанометрового техпроцесса, который используется в предшественниках.

Для удобства сравнения характеристики новых GeForce RTX 2080 Ti, RTX 2080 и RTX 2070 и предшественников GeForce GTX 1080 Ti, GTX 1080 и GTX 1070 мы свели их в одну таблицу.

От поколения к поколению видеокарт NVIDIA можно наблюдать рост стоимости видеокарт. Но если ранее он был довольно плавным, то в данном случае адаптеры NVIDIA Turing значительно превзошли предшественников по цене.

За что платим?

Отчасти такое повышение можно объяснить увеличившейся сложностью новых GPU. Обратите внимание, что они имеют сильно возросшее количество транзисторов и значительно более высокую площадь кристалла. Соответственно, можно предположить, что себестоимость таких кристаллов оказывается выше.

Есть некоторые девиации по значениям частот GPU. Память теперь новая. Вместо GDDR5X и GDDR5 видеокарты RTX получили GDDR6.

Но примечательно, что объем памяти в новом поколение видеокарт остался на том же уровне, что и у предшественников.

Очень важно, что появились совершенно новые ядра RT и тензорные ядра. Именно этим обусловлен такой рост числа транзисторов и площади кристалла GPU.

Трассировка лучей

Поколение видеокарт RTX 2080 Ti, RTX 2080, RTX 2070 на базе архитектуры Turing сама NVIDIA называет революционной и связывает это с аппаратной поддержкой трассировки лучей в реальном времени.

Для этого внедрены упоминаемые выше RT-ядра. NVIDIA считает это настолько важным, что привычную приставку GTX в новых видеокартах даже заменили на RTX, где RT - Ray Tracing (трассировка лучей).

Данной технологии на презентации видеокарт нового поколения было уделено чуть ли не главное внимание.

Если упрощенно, то с Ray Tracing связаны новые эффекты отражений на объектах (в том числе взаимных), отражений света и прохождения лучей сквозь объекты. При этом лучи могут иметь реалистичное преломление, наложение и т. д. Ray Tracing также позволяет использовать более реалистичные смягченные тени и формировать правдоподобное освещение.

Это действительно очень важное нововведение для индустрии, но, как ни парадоксально, именно с технологией Ray Tracing и связывают довольно холодный прием новых видеокарт пользователями.

Новые RT-ядра сделали кристалл более крупным и дорогим, а что пользователи получают взамен?

На момент выхода видеокарт RTX не было ни единой игры, которая бы обладала поддержкой Ray Tracing. Сейчас ситуация меняется, но очень медленно.

К примеру, попробовать Ray Tracing вообще в какой-либо игре стало возможно совсем недавно с выходом Battlefield V.

Как оказалось, картинка в Battlefield V с эффектами меняется не так и кардинально. Улучшения есть, но совсем не скажешь, что получаешь принципиально новый уровень восприятия.

А вот вычислительные ресурсы Ray Tracing «подъедает» существенно. При активации трассировки лучей производительность может падаем более чем вдвое.

В результате, даже с дорогущей топовой NVIDIA GeForce RTX 2080 Ti, уровень FPS при Full HD-разрешении, максимальных настройках качества с использованием Ray Tracing не всегда сможет удовлетворить требовательного геймера.

А что тогда говорить о более простых RTX 2080, RTX 2070 и более высоких разрешениях?

Получается, что на данный момент игр с Ray Tracing практически нет, визуально разница в изображении с эффектами RT не такая кардинальная, а активация трассировки приводит к большому падению уровня FPS.

Для пользователей Ray Tracing в реальном времени пока является лишь потенциально перспективной технологией. Посмотрим, как будет развиваться ситуация.

DLSS-сглаживание, тензорные ядра и искусственный интеллект

Вдобавок к совершенно новым RT-ядрам в видеокартах RTX появились и тензорные ядра, предназначенные для рассчетов ИИ и нейросетей. Они работают в связке c RT-ядрами, но тензорные ядра могут использоваться и для других функций.

На базе их работы реализован новый метод сглаживания - DLSS (Deep Learning Super Sampling). Используется сниженное разрешение рендеринга, но за счет ИИ и тензорных ядер видеокарта преобразовывает изображение в более качественное, «додумывая» новые детали.

В зависимости от особенностей реализации за счет этого можно добиться увеличения производительности, повышения качества изображения или того и другого одновременно.

Опять-таки, как и в случае с Ray Tracing, для работы DLSS необходима поддержка со стороны игр. Указывается, что несколько десятков готовящихся к выходу игр будут поддерживать DLSS-сглаживание.

Одним из немногих тестов, где уже сейчас можно проверить DLSS, стал бенчмарк Final Fantasy XV Benchmark. Если в системе установлена видеокарта GeForce RTX, в настройках появляется соответствующий пункт, позволяющий активировать DLSS.

По нашим тестам, активация DLSS привела к существенному увеличению производительности.

Качество изображения с использованием DLSS и с обычным TAA-сглаживанием в данном приложении сопоставимо. Вы можете самостоятельно сравнить кадры с DLSS и с TAA.

DLSS
TAA

Что еще нового?

Продолжает совершенствоваться технология автоматического повышения частоты GPU. В видеокартах NVIDIA RTX используется уже четвертое поколение GPU Boost.

Добавлена возможность ручной корректировки алгоритма работы разгона. Но куда более интересно, что впервые появилась функция автоматического разгона.

Если ранее для определения предельной частоты GPU требовалось экспериментировать, запускать различные игры, приложения, то сейчас процесс может быть сильно упрощен.

В приложениях типа MSI AfterBurner доступен новый пункт Nvidia Scanner. Нажав всего одну кнопку, через минут 15 автоматических тестов вы получите измененную кривую частот/напряжений GPU, соответственно, с более высокими значениями частот.

В наших тестах для всех видеокарт RTX 2070 мы проверяли такой автоматический разгон. Конечно, для получения еще более высоких результатов оверклокинга придется все же проводить более сложный разгон «вручную».

К видеокартам RTX можно подключить сразу два монитора с разрешением 8K. Максимальная кадровая частота будет составлять 60 Гц у обоих устройств вывода изображения.

Порты DisplayPort теперь соответствуют версии DisplayPort 1.4a, а HDMI - HDMI 2.0b. Обратите также внимание на наличие разъема USB Type-C прямо на видеокарте. Он предназначен для новых VR-шлемов.

Впрочем, этот порт может использоваться для любых устройств с поддержкой USB Type-C.

Вполне ожидаемо, что была проведена работа с различными видеокодеками. Например, добавлена поддержка компрессии данных в формате H.265 (HEVC) в режиме разрешении , а также повышено качество кодирования. Учитывая, что сегодня видеокарты активно используются при видеомонтаже, это весьма актуально.

Возможность объединения нескольких видеокарт в одной системе теперь доступна только в видеокартах самого высокого класса. NVIDIA GeForce RTX 2070 такой функции лишены.

Участники теста

В одном тесте нам удалось собрать сразу четыре видеокарты на базе NVIDIA GeForce RTX 2070 от разных производителей.

Это модели ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G, Inno3D GeForce RTX 2070 Gaming OC X2 и MSI GeForce RTX 2070 GAMING Z 8G.

Все они имеют значительные отличия от референсных RTX 2070, получили повышенные частоты и используют фирменные системы охлаждения.

Сравнительная таблица характеристик

Кодовый идентификатор модели ROG-STRIX-RTX2070-O8G-GAMING GV-N2070AORUS X-8GC N20702-08D6X-2511683 -
Поставщик Представ-во ASUS Представ-во Gigabyte Представ-во Inno3D Представ-во MSI
Цена, $ 796 742 675 725
Результаты измерений
Производительность 87,49 87,73 86,21 87,93
100 96,91 98,54 98,79
Производитетльнось/Цена 86,7 93,26 100 95,66
Технические характеристики
Чипсет NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070
Техпроцесс чипсета, нм 12 12 12 12
Тип и объем памяти, ГБ GDDR6, 8 GDDR6, 8 GDDR6, 8 GDDR6, 8
Конструкция системы охлаждения фирменная фирменная фирменная фирменная
Количество вентиляторов системы охлаждения 3 3 2 2
Количество занимаемых слотов 3 3 2 3
Субъективная оценка шумности охлаждения Отлично Отлично Хорошо Отлично
Номинальная частота GPU 1410 1410 1410 1410
Boost-частота GPU 1815 1815 1755 1830
Результирующая частота памяти, МГц 14000 14142 14000 14000
Шина памяти, бит 256 256 256 256
Требует дополнительного питания? да да да да
Тип разъема доп. питания 6pin+8pin 6pin+8pin 6pin+8pin 6pin+8pin
Количество выходов HDMI/DisplayPort/USB Type-C 2/2/1 3/3/1 1/3/1 2/2/1

ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING)

Представленная в тесте ASUS ROG Strix GeForce RTX 2070 OC edition на данный момент является самой мощной, в плане частоты GPU, и продвинутой среди всех видеокарт ASUS на базе RTX 2070 .

Она имеет традиционный для ASUS ROG Strix дизайн, который практически не изменился со времен прошлого поколения.

Устройство получилось довольно крупным и в системе займет три слота расширения.

Тут используется модифицированная плата с конфигурацией фаз питания 10+2 и фирменная система охлаждения с тремя вентиляторами.

Как заявляется, вентиляторы имеют специальную конструкцию, а внутренности защищены от пыли. Кстати, направление вращения всех вентиляторов одинаковое.

Массивный радиатор СО пронизан шестью тепловыми трубками. Подошва теплоприемника имеет особую обработку, которую ASUS называет технологией MaxContact.

При осмотре ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING) со всех сторон обнаруживаются любопытные детали.

На плате установлены сразу две микросхемы BIOS с немного измененными режимами работы платы. Один из них (Performance) предусматривает повышенную эффективность охлаждения, что достигается более высокими скоростями работы вентиляторов, а второй (Quiet) рассчитан на более тихую эксплуатацию. Выбор BIOS осуществляется специальным переключателем.

Кстати, полная остановка вентиляторов при малой нагрузке становится доступна только при использовании варианта BIOS с режимом Quiet.

На торце выведена специальная кнопка для быстрого отключения/включения подсветки. Это неплохое решение, когда надо погасить свечение без использования фирменного ПО.

Также на плате предусмотрена площадка для ручного измерения напряжения RAM, GPU, PLL и набор контактов для подключения светодиодной ленты и корпусных вентиляторов. Скорость вращения этих вентиляторов можно связать с температурой GPU. Это классная функция.

На одной из сторон ASUS ROG Strix GeForce RTX 2070 OC edition можно заметить контакты для подключения светодиодной ленты и корпусных вентиляторов

Частота памяти в данной модели соответствует референсной, а вот Boost-частота GPU повышена очень значительно - с 1620 до 1815 МГц.

В результате ASUS ROG Strix GeForce RTX 2070 OC edition находится среди лидеров теста по производительности. Превзойти Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G по скорости не удалось, так как все три модели, включая ASUS, имеют похожие рабочие частоты. Уж очень сильные видеокарты участвуют в тесте.

Мониторинг работы ASUS ROG Strix GeForce RTX 2070 OC edition в приложении MSI Afterburner

При работе под нагрузкой в наших условиях температура GPU составила всего 57 ° C . Для всех тестов производительности и замера температуры использовался BIOS с режимом Performance.

Учитывая довольно высокое энергопотребление видеокарты, это просто великолепный результат. К слову, это самое низкое значение температуры среди всех тестируемых видеокарт на базе RTX 2070 в этом тесте.

Скорость вращения вентиляторов составила около 1600 об/мин. При работе видеокарта не будет создавать шумовой дискомфорт.

При использовании автоматического разгона с изначальными настройками максимальная частота GPU почти достигла отметки 2100 МГц.

ASUS ROG Strix GeForce RTX 2070 OC edition позволяет увеличить предел энергопотребления до 125%. Это самое высокое значение в тесте.

Система подсветки состоит из нескольких элементов с RGB-подсветкой на передней панели, светящимся логотипом ASUS ROG по боку и еще одним крупным логотипом, выведенным на заднюю пластину.

Работой подсветки, разумеется, можно управлять. Доступны ряд эффектов, а также возможность смены цвета в зависимости от температуры GPU.

Особенность: цвет свечения может меняться, но одновременно все элементы подсветки имеют один и тот же цвет.

Весьма неплохо, но сегодня уже есть и более продвинутые решения, в том числе и среди участников теста. Подсветка видеокарт Gigabyte AORUS и MSI оказалась еще более крутой.

Фирменное ПО ASUS по возможностям примерно представляет собой объединение MSI Afterburner и GPU-Z

ASUS ROG Strix GeForce RTX 2070 OC edition - это очень мощная видеокарта на базе RTX 2070 с просто-таки отличной по эффективности системой охлаждения.

Она находится среди лидеров по производительности, имеет ряд любопытных дополнительных функций в виде двух микросхем BIOS, контактов для вентиляторов корпуса и светодиодной ленты.

Но при всех своих достоинствах, ASUS ROG Strix GeForce RTX 2070 OC edition обладает и самой высокой стоимости среди других участников теста на базе RTX 2070.

Оценка ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING):

Отличная система охлаждения

Предел энергопотребления выше чем у других участников

Двойной BIOS

Контакты для подключения RGB светодиодных лент и вентиляторов корпуса

— самая высокая стоимость

— большие габариты

— сравнительно скромная комплектация

Если видеокарты ASUS ROG Strix в новом поколении выглядят почти также, как и в предыдущем, то MSI свою серию GAMING видоизменила существенно .

Узнаваемый дизайн с преобладанием красного цвета и вставками, напоминающими когти дракона, решили больше не использовать.

Модель хоть и не такая длинная, но широкая и в системе займет место трех слотов расширения.

MSI GeForce RTX 2070 GAMING Z 8 G (внимание на приставку Z в названии) выделяется более высокими частотами по сравнению с близнецами MSI GeForce RTX 2070 GAMING X 8 G и MSI GeForce RTX 2070 GAMING 8 G и является самой быстрой RTX 2070 у компании MSI на данный момент.

Плата типично для серии GAMING переработанная. Распаяна конфигурация фаз питания 8+2. СО состоит из двух вентиляторов и мощного радиатора с шестью тепловыми трубками.

Если присмотреться, то в каждом вентиляторе чередуются лопасти двух видов. Технология носит название TORX FAN 3.0. В сочетании с новым дизайном рассеивающих пластин радиатора это, по информации производителя, будет способствовать лучшей эффективности.

Система охлаждения и вправду оказалась очень эффективной.

Зафиксированная температура под нагрузкой - 66 °C. Но удивило другое. Данная температура держится при скорости вращения вентилятора всего 1100 об./мин.

В результате видеокарта работает очень тихо . По эффективности охлаждения MSI превзошла других участников кроме, пожалуй, ASUS ROG Strix GeForce RTX 2070 OC edition. Но с СО ASUS сравнивать сложно. С одной стороны, у конкурента более низкая температура, а с другой - это достигается при заметно более высоких оборотах вентиляторов.

Boost-частоте GPU видеокарты MSI GeForce RTX 2070 GAMING Z 8G составляет 1830 МГц. Это самое высокое значение среди всех участников теста. Но превосходство над ASUS ROG Strix GeForce RTX 2070 OC edition и Gigabyte AORUS GeForce RTX 2070 XTREME 8G совсем мизерное. У этих видеокарт данное значение составляет 1815 МГц.

Частота памяти, при этом, стандартная. Логично, что RTX 2070 GAMING Z 8G оказалась среди лидеров по производительности. При автоматическом разгоне максимальная частота доходит до отметки 2100 МГц.

Кривые зависимости частоты и напряжения графического процессора Характеристики MSI GeForce RTX 2070 GAMING Z 8G (данные приложения GPU-Z) со стандартными настройками (сверху) и после автоматического разгона

Доступный лимит энергопотребления - 111%.

Очень порадовала новая система подсветки данной видеокарты . Светящимися участками по периметру окружили вентиляторы. Подсвечивается и логотип на боку.

Все дело в том, как тут реализованы динамические эффекты. В некоторых режимах это, своего рода, цветовое шоу. Хотя тут и нет светящегося элемента на задней пластине данная подсветка MSI понравилась больше, чем решение у ASUS.

В комплекте с видеокартой поставляется дополнительная планка для более надежного крепежа видеокарты в корпусе. Видеокарта действительно увесистая, но, на наш взгляд, большой необходимости в такой планке нет. Вероятно, она не помешает, при транспортировке корпуса.

Планка прикручивается в корпусе компьютера ниже видеокарты после чего устройство опирается на эту планку через мягкие прокрадки

MSI GeForce RTX 2070 GAMING Z 8G отличается и высоким заводским разгоном, и отличной по эффективности системой охлаждения, и интересной новой подсветкой. Хорошая получилась модель.

Оценка MSI GeForce RTX 2070 GAMING Z 8G:

Отличная система охлаждения

Отключение вентиляторов при низкой нагрузке

Значительно повышенные частоты GPU

Продвинутая система RGB-подсветки

Дополнительная планка крепления в комплекте

— большие габариты

Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

Даже по сравнению с другими крупными видеокартами в тесте Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказывается еще массивнее.

Gigabyte AORUS GeForce RTX 2070 XTREME 8G слева

Но основной вклад в толщину устройства вносит не радиатор СО, а довольно любопытное размещение вентиляторов.

Они расположены немного внахлест. За счет этого, при умеренной длине, удалось разместить сразу три 100-миллиметровых вентилятора .

Gigabyte AORUS GeForce RTX 2070 XTREME 8 G является самой быстрой RTX 2070 у Gigabyte .

Boost частота составляет 1815 МГц, что, впрочем, сравнимо с тестируемыми ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G.

Любопытно, что заводской разгон получила и память. Во всех остальных видеокартах RTX 2070 данного теста частоты памяти соотвествуют референсным.

Но прибавка по памяти в случае с AORUS GeForce RTX 2070 XTREME 8G чисто номинальная и мало влияет на итоговую производительность. Частоту подняли со стандартной 14 000 до 14 140.

Производительность Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалась на уровне видеокарт MSI и ASUS.

Используя автоматический разгон максимальное значение частоты GPU составило около 2100. Что примерно повторяет результаты MSI и ASUS.

Кривые зависимости частоты и напряжения графического процессора Gigabyte AORUS GeForce RTX 2070 XTREME 8G со стандартными настройками (сверху) и после автоматического разгона

Доступный для изменения максимальный лимит энергопотребления - 109%.

Конфигурация фаз системы питания - 10+2.

В отличие от других участников, в конструкции системы охлаждения вместо полированной пластины или испарительной камеры используется вариант, когда сами тепловые трубки касаются GPU.

Всего тепловых трубок пять.

Производитель обращает отдельное внимание, что центральный вентилятор имеет другое направление вращения по сравнению с крайними. Указано, что это позволяет избежать турбулентности и увеличивает эффективность СО.

Умеет модель и останавливать вентиляторы при низкой нагрузке. На боковой панели, традиционно для Gigabyte, даже выведена подсвечиваемая надпись “Fan Stop”, которая загорается, когда вентиляторы бездействуют.

Как такая СО показала себя в деле?

Зафиксированные значения температуры и оборотов вентиляторов под нагрузкой составили 67 °C при 1700 об./мин. Очень неплохо, но, получается, что эффективность СО участвующих в тесте ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G немного выше.

Система подсветки в Gigabyte AORUS GeForce RTX 2070 XTREME 8G устроена очень необычно.

На краю одной из лопастей каждого вентилятора размещен RGB-диод. Этот диод может менять цвет в зависимости от того, в каком секторе круга он находится при вращении вентилятора . Получаемые эффекты впечатляют.

Видеокарта действительно способна привлечь немало внимания.

Дополнительно подсвечиваются логотипы, размещенные на лицевой, обратной сторонах и на боку видеокарты.

Из-за того, что подсветка AORUS GeForce RTX 2070 XTREME 8G связана с вращением вентиляторов обнаружились и не очень приятные особенности. Во-первых, эффекты с кольцами работают только при работающих вентиляторах. Во-вторых, заметно небольшое мерцание. Второй недостаток, впрочем, выражен не так существенно. Если видеокарта не находится постоянно в вашем поле зрения, неудобств не будет.

У видеокарты Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалось самое большое количество видеовыходов вреди других видеокарт на базе RTX 2070 в этом обзоре

В комплекте обнаружилась ножка для надежной фиксации видеокарты в корпусе. Да, видеокарта увесистая, но острой необходимости в такой дополнительной поддержке, на наш взгляд, нет.

К слову, уровень материалов и обработки у этой ножки просто изумительные.

Неужели такого рода аксессуары становится трендом для видеокарт высокого класса?

Резюмируя, можно сказать, что Gigabyte AORUS GeForce RTX 2070 XTREME 8G выделяется не только значительным заводским разгоном, но и довольно смелым дизайном в сочетании с любопытной системой подсветки.

Это очень достойный соперник для других мощнейших участников данного теста.

Оценка Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC):

Эффективная система охлаждения

Отключение вентиляторов при низкой нагрузке

Значительно повышенные частоты GPU

Эффектная система RGB-подсветки

Дополнительная ножка крепления в комплекте

— большие габариты

— Эффекты системы подсветки зависят от того, вращаются вентиляторы или нет

Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683)

Inno3D GeForce RTX 2070 Gaming OC X2 - это далеко не рядовая модель. Тут и заводской разгон GPU, и фирменная система охлаждения, и подсветка с RGB-элементами.

Но на фоне других видеокарт GeForce RTX 2070 из данного теста, а это оказались очень продвинутые модели, она выглядит скромнее.

Видеокарта от Inno3 D единственная в тесте занимает не три, а два слота расширения.

Радиатор содержит четыре тепловые трубки и обдувается парой вентиляторов.

Учитывая более скромный класс устройства, по эффективности охлаждения Inno3D GeForce RTX 2070 Gaming OC X2 ожидаемо уступила другим участникам теста.

Мониторинг работы Inno3D GeForce RTX 2070 Gaming OC X2 в приложении MSI Afterburner

Под нагрузкой температура составила 66 °C. Это более чем комфортный уровень, но обороты вентиляторов при этом оказались на уровне 2050 об/мин, что заметно выше, чем у представленных видеокарт ASUS, Gigabyte, MSI.

Соответственно, Inno3D GeForce RTX 2070 Gaming OC X2 работает не так тихо, но уровень ее шума большого дискомфорта создавать не должен.

Видеокарта умеет останавливать вентиляторы при низкой нагрузке, но делает это несколько своеобразно. Перед окончательной остановкой вентиляторы еще пару десятков раз раскручиваются от 0 до, примерно, 600 об./мин. Вполне возможно, что этот «баг» может быть решен в новой версии прошивки, хотя и сейчас существенной проблемой это не является.

На гистограмме видно, как вентиляторы перед полной остановкой некоторое время «пульсирует» со скоростью от 0 до 600 об/мин.

Boost-частота GPU повышена со стандартных 1620 до 1755 МГц. Это неплохой заводской разгон, но, опять-таки, конкуренты оказались уж слишком мощными и у них этот параметр еще выше.

Как результат, Inno3D GeForce RTX 2070 Gaming OC X2 немного уступила соперникам по производительности.

Если проанализировать полученную кривую частоты GPU/напряжения при автоматическом разгоне, то можно увидеть, что максимальная частота GPU примерно на 50 МГц ниже чем у других видеокарт RTX 2070 в тесте при заданных значениях напряжений.

Кривые зависимости частоты и напряжения графического процессора Inno3D GeForce RTX 2070 Gaming OC X2 со стандартными настройками (сверху) и после автоматического разгона

Подсветкой в Inno3D GeForce RTX 2070 Gaming OC X2 оснащены несколько элементов. На лицевой панели логотип Inno3D подсвечивается белым цветом. Зажигаются также и желтые вставки рядом с этим логотипом. А вот логотип Inno3D на боку может светиться уже любым цветом (RGB-подсветка).

Доступно управление подсветкой при помощи приложения.

Да, Inno3D GeForce RTX 2070 Gaming OC X2 несколько уступила соперникам в скорости и в эффективности системы охлаждения. Но для многих это все может быть запросто нивелировано тем, что Inno3 D GeForce RTX 2070 Gaming OC X2 отличается заметно более доступной стоимостью и по соотношению производительности и цены она переигрывает всех других участников данного теста .

А еще у Inno3D GeForce RTX 2070 Gaming OC X2 весьма продвинутая комплектация. Модель поставляется с игровым ковриком и ключами для тестов VRMark, 3DMark.

Оценка Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683):

Наилучший баланс стоимости и производительности среди всех видеокарт на базе RTX 2070 в тесте

Отключение вентиляторов при низкой нагрузке

Заводской разгон GPU

Интересная комплектация

— сравнительно скромная подсветка

— странное поведение вентиляторов при переходе в режим остановки

Как мы тестировали видеокарты

Видеокарты работали с использованием изначальных настроек драйверов, оптимизированные игровые профили не применялись.

Видеокарты тестировались без разгона и без использования фирменных профилей (OC, Gaming, Silence и т. д.), которые иногда доступны при установке фирменного программного обеспечения.

Тестируемые видеокарты на базе RTX 20170 мы сравнивали с видеоадаптерами прошлого поколения на базе GTX 1080 и GTX 1080 Ti, в роли которых выступили MSI GeForce GTX 1080 GAMING X 8G и Gigabyte GeForce GTX 1080 Ti Gaming OC 11G.

В качестве тестовых приложений для определения производительности видеокарт мы использовали современные игры с поддержкой DirectX 11 и DirectX 12, которые имеют встроенные бенчмарки. Также в программу вошли популярные синтетические тесты 3DMark.

В каждой игре применялись максимальные или близкие к максимальным настройки графики. В играх мы использовали разрешение 2560×1440 и 3840×2160 пикс. (4K-разрешение). В 3DMark 11 видеокарты тестировались с предустановкой Extreme, а в 3DMark (2013) использовались тесты Fire Strike Extreme, Fire Strike Ultra и DirectX 12-тест Time Spy.

Отслеживание максимальной температуры GPU и энергопотребления системы (без монитора) производилось в игре Metro: Last Light. Именно в этой игре видеокарты, по наблюдениям, нагревались наиболее интенсивно и происходило максимальное энергопотребление.

Сама система эксплуатировалась вне корпуса ПК (открытый стенд) при температуре в помещении около 21 °C. Уровень шума, создаваемый работой систем охлаждения видеокарт, оценивался субъективно.

Итоговая оценка в категории «Производительность» определялась на базе всех тестов с равнозначным вкладом каждого теста. При этом, если говорить об играх, для уменьшения влияния зависимости от процессора, при подсчете общей производительности (категория «Производительность») учитывались только результаты с разрешением 3840×2160 пикс. (4 K ) .

Результаты с разрешением 2560×1440 пикс. приведены для ознакомления.

Гистограммы нормированы в процентах с сортировкой моделей по результатам тестов. Конкретные результаты в виде баллов и FPS также указаны.

Стоимость видеокарт указана на базе данных крупных интернет-магазинов (на момент публикации) с сайта Hotline.

В отдельном тесте Final Fantasy XV benchmark проводились эксперименты с технологией DLSS (см. гистограмму выше).

Конфигурация тестовой платформы:

Процессор: Intel Core i7-3770K, разогнанный до 4,4 МГц

Материнская плата: Biostar Hi-Fi Z77X

Объем оперативной памяти: 4×4 ГБ DDR3 1600

Накопители: SSD (система), HDD

Операционная система: Windows 10 Pro 64 бит

Монитор: Philips 272P7VPTKEB с разрешением 4K

Используемый драйвер NVIDIA для всех видеокарт: GeForce 416.94

Результаты тестов

Выводы

Как видно по результатам тестов, если сравнивать с решениями прошлого поколения, производительность новых видеокарт на базе RTX 2070 находится между NVIDIA GeForce GTX 1080 и GTX 1080 Ti ближе к GTX 1080.

Тройка ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G - это очень «навороченные» видеокарты. Они имеют продвинутые системы подсветки, значительно повышенные частоты GPU.

Разницу в скорости между ними без специальных тестов вы точно не заметите. По эффективности систем охлаждения в этой тройке лидируют модели от ASUS и MSI.

ASUS позволяет сильнее других увеличить лимит энергопотребления. Эта же модель, кстати, выделяется и самой высокой стоимостью среди всех участников теста.

По впечатлениям от работы подсветки Gigabyte AORUS и MSI можно поставить несколько выше, чем ASUS. Inno3D тут в аутсайдерах.

Представленная в тесте Inno3D GeForce RTX 2070 Gaming OC X2 скромнее на фоне тройки ASUS, Gigabyte AORUS и MSI, хотя тоже далеко не рядовая модель. Она имеет более низкие частоты GPU, не такую продвинутую систему охлаждения и уступит по возможностям подсветки и разгона.

Но, зато, данная модель от Inno3D и самая доступная по цене. По соотношению производительности и стоимости она превосходит других участников теста.

Разница в скорости между Inno3D и тройкой ASUS, Gigabyte AORUS, MSI есть, но она не такая и существенная. Если есть желание сэкономить - это очень достойный вариант.

С самими участниками теста полный порядок. Любая видеокарта из теста - это качественное устройство с высокой производительностью, эффективным охлаждением без каких-то существенных недостатков.

Но новое поколение видеокарт RTX в целом оставляет целый ряд поводов для раздумий, хотя именно переход к RTX производитель называет революционным.

Если не «копать» сильно далеко в прошлое и взять во внимание переходы от поколения GTX 700 к GTX 900 (серия 800 в десктопных видеокартах была пропущена) и от GTX 900 к GTX 1000, то всегда новое поколение видеокарт отличалось сильно возросшей производительностью с одновременным значительным улучшением энергопотребления. При этом большого скачка стоимости равнозначных моделей не происходило.

А что же мы видим сейчас с выходом поколения NVIDIA GeForce RTX?

Да, рост производительности есть, но он не такой заметный, как это было ранее с новым поколением видеокарт.

По энергоэффективности новинки лучше моделей GTX 1000, но совсем незначительно.

А еще вы заметили, что в поколении RTX не произошло роста объема видеопамяти?

Но главное, что новые видеокарты оказались намного дороже своих предшественников .

Причем, ожидать значительного снижения стоимости видеокарт NVIDIA RTX довольно сложно. Они получили намного более сложные и дорогие в производстве графические процессоры.

Проблема в том, что значительная часть усложнений в новых GPU пошла на используемые впервые RT -ядра (аппаратная поддержка трассировки лучей), которые пока мало где можно задействовать . Кстати, на момент выхода видеокарт RTX игр с аппаратной поддержкой трассировки не было вовсе!

И тут еще большой вопрос, стоят ли те изменения в изображении, которые привносит трассировка лучей, очень серьезного падения производительности, происходящего при активации этой функции.

Получается, что на данный момент по соотношению производительности и стоимости новинки RTX 2000 уступают видеокартам-предшественникам серии GTX 1000 (прошлое поколение на архитектуре Pascal).

Да, потенциально RTX 2000 могут наращивать свою привлекательность со временем, с появлением большего количества игр, поддерживающих трассировку лучей и DLSS-сглаживание, но пока об этом говорить рано.

Благодарим компанию Philips за предоставленный 4K-монитор Philips 272P7VPTKEB

Современные видеокарты на чипсетах компании NVIDIA

Алексей Шобанов

реди тех, кто хоть как-то связан с использованием ПК в повседневной жизни, вряд ли найдется сегодня хоть один человек, которому не знакома аббревиатура «NVIDIA». Название этой компании уже давно стало своего рода синонимом понятия «видеокарта», а также символом высочайшей производительности. Однако серьезная конкуренция в этом секторе ИТ-рынка никогда не позволяет NVIDIA почивать на лаврах, а в последнее время борьба за лидерство обострилась на столько, что говорить о ее безоговорочном лидерстве было бы уже не совсем корректно. Тем не менее компания NVIDIA была, есть и, надеемся, будет и впредь одним из лидеров индустрии кремниевой логики для графических карт. Компания NVIDIA предлагает свои решения для всего спектра графики, начиная от чипсетов для недорогих видеокарт так называемого low-end-сектора (здесь уместно упомянуть и о наборах микросхем системной логики с интегрированным графическим ядром серий nForce, nForce 2 и nForce 3, которое также можно причислить к бюджетным решениям видеоподсистемы) и заканчивая наборами микросхем для hi-end-графики и профессиональных видеокарт.

Темой же данного обзора станут современные чипсеты NVIDIA поколения DirectX 9 с интерфейсом AGP. Хотя эти наборы микросхем значительно отличаются по производительности, цене, и в той или иной мере, по своей технической реализации, их объединяет то, что все они поддерживают работу API DirectX 9, а это, в свою очередь, обусловливает обязательное наличие поддержки пиксельных и вершинных шейдеров версии 2.0. К числу таких чипсетов следует отнести наборы микросхем серии GeForce FX, основанные на графическом ядре NV30 (GeForce FX 5800 и GeForce FX 5800 Ultra), на пришедшем ему на смену NV35 (GeForce FX 5900, GeForce FX 5900 Ultra и GeForce FX 5900 FX), на NV38 (GeForce FX 5950 Ultra), на NV31 (GeForce FX 5600 и GeForce FX 5600 Ultra), наследником которого стало ядро NV36 (GeForce FX 5700 и GeForce FX 5700 Ultra), а также на ядре NV34 (GeForce FX 5200, GeForce FX 5200 Ultra и GeForce FX 5500). C некоторой оговоркой к этому же поколению можно отнести и последние чипсеты серии GeForce 6, появление которых стало новым этапом в развитии компьютерной графики, поскольку, помимо прочего, графическое ядро NV40, положенное в основу чипов этой серии, стало первым решением, поддерживающим пиксельные и вершинные шейдеры версии 3.0. Таким образом, отбросив уже покидающие «большую сцену» чипы на ядре NV30 и NV31, в этом обзоре мы решили рассмотреть возможности следующих графических чипсетов компании NVIDIA: GeForce FX 5500, GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra.

Начнем наш обзор с краткой спецификации современных графических чипсетов NVIDIA, которая наглядно иллюстрирует их возможности, и, опираясь на эти данные, попробуем указать на достоинства и недостатки этих решений (табл. 1).

Таблица 1. Технические характеристики современных графических чипсетов NVIDIA

Представленные в таблице чипсеты, выпускаемые сегодня компанией NVIDIA, практически полностью охватывают все ценовые сегменты рынка ПК - от решений для геймеров и энтузиастов (GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra) до рынка бюджетных ПК (GeForce FX 5500, а также GeForce FX 5200 и GeForce FX 5200 Ultra, не вошедшие в данный обзор). Маркетологи NVIDIA проводят более общее деление этих продуктов - например графические чипы серии GeForce FX они условно разбивают на две группы: perfomance (GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra) и mainstream (GeForce FX 5500, GeForce FX 5200 и GeForce FX 5200 Ultra). Основой для подобной классификации служат не только показатели производительности и цены чипов, но и реализованные в них технологии (табл. 2).

Пожалуй, следует сказать несколько слов о том, что скрывается за звучными названиями этих технологий.

Начнем с CineFX. В общем понимании CineFX - это архитектура графического ядра, которая позволяет чипам NVIDIA воссоздавать различные эффекты кинематографического качества для игра и других прикладных задач в реальном времени. Наиболее емко характеризуют данную архитектуру такие возможности, как гибкость, адаптивность и программируемость. Так, для архитектуры CineFX отсутствует понятие пиксельного конвейера в классическом смысле этого термина. Здесь уже нет набора независимых, логически завершенных параллельно работающих функциональных единиц - в данном случае речь идет о некоем наборе вычислительных блоков (ALU) и блоков выборки текстур. На основе поставленных задач этот массив элементов образует цепи, являющиеся по своей сути теми самыми пиксельными конвейерами, при этом адаптивно пытаясь воссоздать наиболее производительную архитектуру за счет варьирования числа блоков выборки текстур, связанных в образуемый конвейер. Еще одной неотъемлемой частью архитектуры CineFX является расширенная поддержка пиксельных и вершинных шейдеров DirectX 9, что особо подчеркивается компанией NVIDIA: даже в спецификациях чипов обозначается номер версии шейдеров - 2.0+. Что же означает этот плюс? А то, что в отношении пиксельных шейдеров план перевыполнен по всем показателям: максимальная длина пиксельного шейдера для графического ядра с архитектурой CineFX практически неограниченна (до 2048 инструкций при требуемых 96), а кроме того, намного увеличено количество заранее заданных констант и временных регистров. Реализация поддержки вершинных шейдеров также честно заслужила свой значок, поскольку архитектура CineFX предусматривает значительное увеличение числа используемых регистров.

Логическим продолжением архитектуры CineFX стали ее последующие версии - CineFX 2.0 (графическое ядро NV35 и NV36/38) и CineFX 3.0 (графическое ядро NV 40) - которые характеризуются скорее эволюционными, нежели революционными изменениями. Так, к примеру, в архитектуре CineFX 2.0 была вдвое повышена производительность блоков работы с числами с плавающей запятой, которые используются при исполнении пиксельных шейдеров.

Теперь рассмотрим технологию Intellisample HCT (High-resolution Compression Technology), сущнсть которой в полной мере отражена в ее названии: HCT - это совокупность алгоритмов компрессии текстур, буфера кадра и Z-буфера, позволяющих значительно увеличить производительность при работе в больших разрешениях. Так на официальном сайте NVIDIA указывается, что при работе с максимальными настройками качества изображения и разрешении 1600Ѕ1200 и выше производительность увеличивается до 50%. Поэтому вполне естественным кажется то, что в картах, позиционируемых компанией как mainstream-решения, то есть в картах нижнего middle-end-уровня, подобная технология отсутствует.

Технология UltraShadow — еще один способ снизить вычислительную нагрузку на графическое ядро. На этот раз хитрость заключается в том, что при расчете теней можно задавать граничные координаты, до и после которых построение теней выполняться не будет.

nView — это поддерживаемая ПО NVIDIA ForceWare технология, которая обеспечивает возможность многоэкранной работы. Подключив к видеокарте два монитора (сегодня это позволяют делать все построенные на перечисленных графических чипах видеокарты), пользователь получает возможность с помощью NVIDIA nView сконфигурировать вдвое большее виртуальное рабочее пространство. К примеру, имея один компьютер, можно на одном мониторе просматривать презентацию, а на другом — работать, предположим, с документом Word.

Все вышеописанные классификации и технологии относятся к чипам серии NVIDIA GeForce FX, а решения поколения GeForce 6 при этом оказались в стороне. И это не случайно: сегодня графические карты на графическом ядре NV40 - это топовое решение вне классификаций. Чипсеты на его основе сложно вписать в рамки, по которым ранжируют графику семейства GeForce FX, - это будет выглядеть так же нелепо, как попытка найти великану подобающее место в строю карликов. Ведь даже самый скромный из чипов GeForce 6 - GeForce 6800, позиционируемый в своем классе как решение для широкого круга пользователей (mainstream), по своим возможностям не идет ни в какое сравнение даже с самым производительным решением из серии GeForce FX. Поэтому отдельно остановимся на тех наработках и технологиях, которые специалисты компании NVIDIA реализовали в графическом ядре NV40.

При создании этого графического ядра нового поколения применялся как экстенсивный так и интенсивный подход. Первый нашел свое выражение в увеличении числа пиксельных конвейеров (хотя говорить о конвейере в привычном понимании здесь нельзя), которые теперь могут обрабатывать до 16 пикселов за такт. Количество вершинных конвейров было увеличено до 6. Качественные же изменения коснулись реализации поддержки пиксельных и вершинных шейдеров. В отношении графического ядра NV40 речь идет уже не о расширенных возможностях шейдеров в версии 2.0, а о полноценной реализации шейдеров версии 3.0, что подразумевает использование в вершинных и пиксельных программах-шейдерах динамических ветвлений и циклов. Данные нововведения свидетельствуют о том, что ядро NV40 построено на основе нового поколения архитектуры CineFX - CineFX 3.0, позволяющей добиться еще более реалистичного изображения, что стало очередным шагом на пути к реализации компьютерной графики кинематографического качества. В чипах серии GeForce 6 была усовершенствована и описанная выше технология UltraShadow, которая теперь носит название UltraShadow II. В ней, как и прежде, отрисовка теней происходит только в заданном диапазоне, но на этот раз скорость расчетов увеличилась, чему в не малой степени способствует тот факт, что при работе с Z-буфером и буфером шаблонов пиксельные конвейеры графического ядра NV40 способны удвоить скорость и обрабатывать не 16, а 32 пиксела за такт. Еще одним новшеством, с помощью которого повышается реалистичность компьютерного изображения, стала технология NVIDIA HPDR (High-Precision Dynamic Range). Применение данной технологии позволяет строить сцены с высоким динамическим диапазоном освещенности за счет реализации полноценной поддержки вычислений с плавающей запятой при выполнении операций фильтрации, текстурирования, смешения и сглаживания; при этом используется формат представления данных OpenEXR. И наконец, в графическом ядре NV40 реализован программируемый видеопроцессор, что позволило значительно снизить загрузку центрального процессора и улучшить качество при просмотре видео в форматах MPEG-1/2/4 и WMV9, а также HDTV. Это стало возможным благодаря реализации аппаратной поддержки кодирования и декодирования перечисленных форматов представления видеопотока.

В заключение несколько затянувшейся теоретической части стоит, пожалуй, рассказать о «генеалогическом древе» описываемых графических чипсетов, поскольку определение «родственных» связей позволит более точно позиционировать чипсет, опираясь на понимание их архитектуры и заложенных в них функциональных возможностей. Начнем с семейства GeForce FX.

Родоначальником GeForce FX можно считать графическое ядро NV30, которое легло в основу графических чипсетов GeForce FX 5800/5800 Ultra. Нельзя сказать, что это графическое ядро стало крупной удачей компании NVIDIA, основной причиной чему стало, наверное, не самое удачное решение в организации работы с видеопамятью - 128-битный контроллер, энергоемкая «горячая» память GDDR2, как следствие, дополнительные проблемы по организации ее охлаждения. Прямыми наследниками архитектуры NV30 стали графические ядра NV31 (GeForce 5600/5600 Ultra) и NV34 (GeForce 5200/5200 Ultra и GeForce 5500), которые, по сути, являются урезанными версиями NV30, хотя и имеют свои особенности, например возвращение к графической памяти GDDR.

Учтя недостатки первенца серии GeForce FX - графического ядра NV30 - по прошествию довольно небольшого времени компания NVIDIA выпустила на рынок новое поколение графических чипов GeForce 5900, построенных на основе нового топового графического ядра - NV35. При создании этого ядра был использован 256-битный контроллер видеопамяти, в качестве которой использовались модули GDDR. Пожалуй, можно даже говорить о том, что ревизии и доработке была подвергнута вся архитектура CineFX, легшая в основу создания графического ядра NV30, - теперь она стала именоваться CineFX 2.0. В чем заключаются эти изменения - уже было описано выше. Кроме того, в графическом ядре NV35 впервые была реализована технология UltraShadow, а усовершенствованные алгоритмы компрессии текстур, буфера кадра и Z-буфера были объединены под эгидой технологии Intellisample HCT (High-Resolution Compression Technology). Судьба чипсетов на ядре NV35 оказалась куда более удачной, нежели его предшественника - чипы GeForce FX 5900XT/5900/5900 Ultra, в основу которого легло именно это графическое ядро, и стали предметом нашего рассмотрения. Но венцом серии GeForce FX стало графическое ядро NV38 и основанный на нем чипсет GeForce FX 5950 Ultra. Хотя по своей сути это графическое ядро является разогнанной версией NV35, тем не менее и здесь не обошлось без инноваций. Так, была изменена конструкция системы охлаждения, а кроме того, чипы на графическом ядре NV38 имеют два режима работы - 2D и 3D, с автоматическим переключением между ними. Это позволяет снизить тепловыделение графического чипа, а также уменьшить скорость вращения (и соответственно снизить шум) вентилятора охлаждения графической карты, что становится возможным благодаря снижению тактовой частоты графического ядра при работе с нересурсоемкими 2D-графическими приложениями. Как и в случае с NV30, для охвата большего спектра рынка видеокарт компания NVIDIA выпустила и бюджетные решения, в основу которых были положены наработки, реализованные в графическом ядре NV35. На этот раз в роли младших братьев выступили графические чипы GeForce FX 5700/5700 Ultra (ядро NV36). Хотя в данном случае правильнее говорить о том, что NV36 - это все же упрощенный вариант ядра NV38, а не NV35. Основанием для подобного утверждения послужил тот факт, что, как и GeForce FX 5950 Ultra, графические чипы NVIDIA GeForce FX 5700/5700 Ultra имеют два режима работы - для 2D- и 3D-графики. При этом, как в случае с NV38, графическое ядро NV36 в 2D-режиме работает на частоте 300 МГц.

Говоря о появлении облегченных вариантов типовых моделей графических чипов с целью расширить спектр выпускаемых графических решений, нужно обратить внимание и еще на на один подход, широко применяемый сегодня ведущими производителями. Его суть сводится к тому, что на основе одного графического ядра выпускаются несколько вариантов чипов, различающихся лишь тактовой частотой работы ядра и видиопамяти. Обычно модельный ряд таких решений включает базовый чип и его «ускоренную» (Ultra) и «замедленную» (XT) версии.

О построении «родового дерева» семейства GeForce 6 говорить пока не приходится, хотя ядро NV40 уже дало первый побег - NV43. Это первое графическое ядро от NVIDIA, имеющее родной интерфейс PCI Express 16x. Хотя рассмотрение графики с этим интерфейсом выходит за рамки данного обзора, однако, коль скоро речь зашла о видеокартах с интерфейсом PCI Express, стоит сказать, что до появления графического ядра NV43 все ранее выпускаемые компанией NVIDIA чипсеты для этого интерфейса были всего лишь тандемом графического AGP-процессора и моста AGP-PCI Express. К примеру, под именем GeForce PCX 5750 скрывается хорошо знакомый нам чип GeForce FX 5700.

После пространных теоретических выкладок пришло время перейти к практической части нашего обзора. Мы попытаемся оценить возможности видеокарт, построенных на основе рассматриваемых графических чипсетов NVIDIA, при работе с современными ресурсоемкими приложениями. Для этой цели нами было проведено тестирование следующих видеокарт: WinFast A400 Ultra TDH (GeForce 6800 Ultra), WinFast A400 GT TDH (GeForce 6800 GT), Chaintech Apogee AA6800 и ASUS V9999GE (GeForce 6800), Gigabyte GV-N595U256GT (GeForce FX 5950 Ultra), ASUS V9950 Ultra (GeForce FX 5900 Ultra), Point of view FX-5900 (GeForce FX 5900), Point of view FX-5900XT (GeForce FX 5900XT), MSI FX5700 Ultra-TD128 (GeForce FX 5700 Ultra), MSI FX5700-TD128 (GeForce FX 5700), Point of view FX-5500 GeForce FX 5500) и Albatron PCX5750 (GeForce PCX 5750). Последняя из перечисленных видеокарт была взята для того, чтобы на практике оценить влияние смены интерфейса на производительность графического чипа (напомним, что, как указано выше, графический чипсет GeForce PCX 5750 представляет собой чип GeForce FX 5700, взаимодействующий с PCI Express-интерфейсом посредством дополнительного чипа-моста AGP-PCI Express 16x).

Основной упор при проведении тестирования делался на оценку производительности в современных 3D-играх, для чего были использованы тестовые сцены из таких популярных компьютерных игр, как FarCry, Tomb Raider: The Angel of Darkness, Unreal Tournament 2004, Serious Sam: Second Encounter и, конечно же, DOOM III. В качестве синтетических тестов, позволяющих определить производительность графических карт при работе с 3D- и 2D-приложениями, были использованы тестовые пакеты FutureMark 3DMark 2003 (build 340) и FutureMark PCMark 2004 соответственно. Кроме того, мы попытались оценить возможности тестируемых видеокарт при работе с профессиональными графическими OpenGL-приложениями (для чего воспользовались тестовой утилитой SPEC Viewperf 8.0.1), а также при работе с популярным пакетом Discreet 3d studio max 6.0 (тест SPECapc_3dsmax_rev1_1). Для проведения тестирования были собраны два стенда следующей конфигурации:

Для карт с AGP-интерфейсом:

Центральный процессор — Intel Pentium 4 3,4 ГГц,

Системная память — 2Ѕ512 DDR400 (PC3200),

Материнская плата — Intel D875PBZ,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня;

Для карт с интерфейсом PCI Express 16x:

Процессор — Intel Pentium 4 550 (3,4 ГГц),

Память — 2Ѕ512 DDR2 533,

Материнская плата — Intel D925XCV,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня.

Тестирование проводилось под управлением операционной системы Windows XP SP1 с установленной версией API DirectX 9.0с. Для обеспечения работы испытываемых видеокарт использовались видеодрайверы ForceWare 61.77. Внесем некоторую ясность относительно усиленногов тестировании внимания графических карт на чипах NVIDIA GeForce 6800. Дело в том, что модели Chaintech Apogee AA6800 и ASUS V9999GE изначально выполнены с несколько увеличенной тактовой частотой работы графического ядра и памяти. По этой причине мы решили и показать возможности как доработанных решений, и протестировать одну из этих карт в штатных частотах, определяемых спецификациями чипа GeForce 6800.

Полученные в ходе тестирования результаты не принесли никаких неожиданностей (табл. 3 и ): по уровню демонстрируемой производительности видеокарты расположились строго в соответствии с рангом графических чипов, лежащих в их основе. Отметим лишь три момента. Во-первых, при анализе результатов тестирования становится очевидным преимущество видеокарт, построенных на основе графического ядра NV40, над картами семейства GeForce FX, причем это преимущество нарастает при увеличении нагрузки на видеоподсистему (при увеличении разрешения и улучшении настроек качества изображения). Обращает на себя внимание и лучшее качество «картинки» новых чипов поколения GeForce 6. Так, к примеру, значительно улучшилось качество полноэкранного сглаживания за счет использования мультисэмплинга на повернутой решетке. Во-вторых, при просмотре результатов, показанных тестируемыми картами в таких чрезвычайно требовательных к ресурсам играх, как FarCry, Tomb Raider: The Angel of Darkness, DOOM III, становится ясно, что комфортную игру с приемлемыми настройками качества способны обеспечить лишь графические карты начиная от GeForce 5900 и выше. А по-настоящему насладиться красотами подобной 3D-графики позволяют только графические карты семейства NVIDIA GeForce 6 - естественно при наличии соответствующей им по производительности всей компьютерной системы в целом. И в-третьих, PCI Express-карты, несмотря на все достоинства этого интерфейса, в своем нынешнем виде не дают никаких преимуществ в сравнении с их AGP-аналогами.

Но если по поводу производительности современных видеокарт, построенных на графических чипах NVIDIA, все было известно заранее и общий порядок полученных результатов мог предсказать любой знакомый с предметом человек, то вопрос оптимальности покупки наверняка вызовет споры. Тем не менее выскажем свое мнение по этому поводу: оптимальным соотношением «качество/цена» с позиции обычного домашнего пользователя, на наш взгляд, обладают видеокарты на чипах NVIDIA GeForce FX 5900XT, ну а заядлым геймерам мы бы порекомендовали видеокарты на основе графики NVIDIA GeForce 6800GT.

) за видеокарты MSI FX5700 Ultra-TD128 и MSI FX5700-TD128;

  • компании R&K (www.r-andk.com) за видеокарты Point of view FX-5900, Point of view FX-5900XT и Point of view FX-5500.
  • Loading...Loading...