Карты 280. Компьютерный ресурс У SM

Какой самый важный компонент в геймерском компьютере? Кто-то ответит, что процессор. Другие заявят, что оперативная память. Но прав будет тот, кто скажет, что видеокарта. Именно этот компонент отвечает за качественный вывод графической информации. И чем мощнее адаптер, тем больше вероятность увидеть все те "красивости", которые были задуманы создателем игры. GTX 280 отличается высочайшей производительностью и вполне может раскрыть весь потенциал игры. Но есть одно но: эта карта заточена под высокий FPS, а не под качество изображения. Однако геймерам она принесет только радость. Давайте подробно разберем сей интересный адаптер. Но сначала несколько слов о производителе.

Немного о компании

NVidia является одним из самых известных производителей графических ускорителей. Компания была основана в 1993 году. Изначально выпускались только чипы и наборы логических решений для компьютеров. Однако со временем компания освоила выпуск высокопроизводительных графических адаптеров. В самом начале своей жизни NVidia была чуть ли не единственной компанией, выпускающей продукцию такого плана. Всем известная AMD тогда занималась только процессорами. Видеокарты серии GeForce стали легендарными. Теперь каждый уважающий себя геймер мечтает о топовой видеокарте от NVidia. Но далеко не все могут себе это позволить. Впрочем, последнее заявление не относится к нашему сегодняшнему герою - GeForce GTX 280.

В настоящее время идет конкурентная борьба между адаптерами от NVidia и аналогичными продуктами от AMD. Последние явно проигрывают, ибо не обладают такой производительностью и энергоэффективностью. Однако цена их на порядок меньше. Тем не менее топовые видеокарты от NVidia пользуются заслуженной популярностью среди профессионалов и любителей игр. Только эти карты обеспечивают наилучшее качество картинки и наивысшее количество FPS. Успехи компании в выпуске видеокарт поистине феноменальны. Однако перейдем к обзору. Наш сегодняшний герой - 280. Отличная видеокарта для домашнего компьютера. Рассмотрим ее подробнее.

Лирическое отступление

Не стоит забывать, что 280 была выпущена в далеком 2008 году. Поэтому сравнивать ее с современными продуктами - верх безумия. Производительность будет несравнима. На данный момент этот адаптер интересен именно как недорогое и простое решение для домашнего компьютера, заточенного под работу. Да, карта запросто потянет Full HD-видео и не особо требовательные игры (даже из современных образцов). Но рассчитывать на запуск танков с максимальными настройками графики не стоит.

Конечно, при помощи разгона (карта поддерживает и эту опцию) и некоторых твиков можно заставить адаптер воспроизводить и современные шедевры игровой индустрии. Но стоит учесть, что без хорошей системы охлаждения это весьма рискованно. Да и изнашивается видеоадаптер быстрее, чем положено. Поэтому лучше пользоваться штатным режимом и не нагружать видеокарту сверх меры. Однако перейдем к техническим характеристикам устройства и попытаемся понять, что инновационного было в ней на момент выхода.

Технические характеристики

Видеокарта основана на чипе, выполненном по технологии 65 нм. Что это значит? Это значит, что на чипсете меньшей площади можно разместить в два раза больше кристаллов, чем при использовании технологии предыдущего поколения. Это помогло уменьшить видеокарту в размере и сделать ее намного более энергоэффективной. Также можно в положительном ключе решить проблему теплоотвода. Но это то, что касается физических параметров. А как насчет других характеристик? Тактовая частота графики составляет 602 мегагерца. Это весьма важный параметр. Многие считают, что "крутость" адаптера зависит от объема памяти, но это не так. На производительность влияет как раз рабочая частота. И здесь она довольно приличная. Ширина интерфейса памяти равна 512 бит. Этот параметр влияет также на глубину цвета. Пропускная способность шины составляет 141 гигабит в секунду. Это значит, что GeForce GTX 280 способна обрабатывать информацию в разы быстрее предшественников.

Теперь о том, на что обращают сугубое внимание неопытные пользователи, - объем памяти. Он равен 1 гигабайту. Это много или мало? Как уже говорилось, на производительность это влияет не так сильно, как рабочая частота. Однако нелишним будет иметь запас памяти. Но и гигабайта за глаза хватит для уверенной работы с обычными повседневными задачами. Помимо всего прочего, видеокарта поддерживает технологию SLI и подключается с помощью слота PCI Express 2.0. То есть она подойдет подавляющему большинству современных компьютеров. Даже несмотря на ее "раритетность". А теперь рассмотрим основные интерфейсы GeForce GTX 280.

Интерфейсы подключения

Итак, как подключить монитор к этой видеокарте? Стоит отметить, что VGA гнезда там нет и в помине. А посему старые мониторы, использующие эту технологию, могут подключаться к адаптеру только с помощью переходника. Видеокарта NVidia GeForce GTX 280 обладает только двумя разъемами формата DVI. Есть также возможность подключения по HDMI. Но поддерживается только весьма древняя версия этой технологии. Тем не менее даже такого скудного набора интерфейсов достаточно для подключения любого монитора. Еще одна особенность: есть в наличии разъем типа SLI, который позволяет объединить две аналогичные видеокарты в одно целое при помощи технологии CrossFire. Как раз эта "фишка" в 2008 году была уникальной. Такое объединение двух адаптеров помогает здорово увеличить производительность.

Многие пользователи сетуют на то, что в этой карте поддерживаемая технология HDMI крайне старой версии. Но не стоит забывать и о том, что данный адаптер был выпущен в 2008 году. Тогда просто не существовало нынешних технологий. Для своих лет адаптер укомплектован весьма неплохим набором интерфейсов и разъемов. А если нужно подключить еще что-нибудь, то можно использовать переходники и разветвители. Этого никто не запрещает. Да и конструкция видеокарты позволяет. А теперь немного о различных модификациях данной видеокарты.

Аналоги от MSI

MSI GeForce GTX 280 отличается от "оригинала" лишь тем, что она немного разогнана. Так, эффективная рабочая частота шины увеличена до 1500 мегагерц. Это позволило добиться большей производительности. Также была полностью переработана система охлаждения. Теплоотвод стал более эффективным. А еще заметны изменения по части дизайна. Теперь карта облачена в современный пластиковый корпус с фирменными цветами MSI. О принадлежности к "Нвидии" теперь говорит только небольшой шильдик с названием компании.

К слову, карты от МСИ отличаются долговечностью. Чего не скажешь об адаптерах от других производителей. По мнению пользователей, именно эти видеокарты живут дольше. Даже при том условии, что их разгоняли. А любителей этого дела в наших широтах полно. Что касается цены, то эти адаптеры относятся к среднему ценовому сегменту.

Аналоги от Zotac

Эта компания известна тем, что делает из проходных версий видеокарт настоящие произведения искусства и здорово увеличивает их производительность. Так, Zotac GeForce GTX 280 может дать фору даже современным видеокартам начального уровня. Конструкторы из "Зотак" умудрились не только увеличить частоту шины до запредельного уровня, но и расширить объем встроенной памяти. Естественно, такие изменения потребовали кардинальной переработки системы охлаждения. И она здесь действительно эффективна.

"Зотак" выпускает топовые видеокарты. Но в них также есть возможность разгона. Поэтому на данный момент они еще актуальны, особенно разогнанные экземпляры. Прелесть этих адаптеров заключается в том, что система охлаждения их позволяет баловаться с разгоном, не заботясь о возможных последствиях. Это настоящая находка для гиков и геймеров. Цена на эти модели видеокарт, конечно, соответствующая. Купить их за копейки точно не получится. Но зато пользователь точно знает, за что он платит.

Аналоги от Palit

Эта контора берет адаптер от известного производителя, навешивает на него немного фирменных "плюшек" и продает как свое изделие. Хотя ничего особенного в Palit GeForce GTX 280 нет. Производительность осталась на том же уровне, объем встроенной памяти тоже. Единственное нововведение - система охлаждения. Но сие не так важно. Также заметны изменения в дизайне. Это, пожалуй, единственное, над чем компания потрудилась на славу. В общем, "Палит" - та же "Нвидия" с другими цветами.

Карты от "Палит" самые дешевые в нашем обзоре. Похвальных отзывов у них хватает. Но примерно такое же количество и отрицательных. Большинство пользователей жалуются на крайне низкую "живучесть". Это наименее надежные адаптеры из всех существующих. Поэтому, естественно, и цена соответствующая. Однако многие выбирают именно этот вариант как раз по причине приемлемой стоимости.

Какие игры пойдут на этом адаптере?

Ответить на этот вопрос одним предложением невозможно. Все зависит от настроек графики. Конечно, современные игрушки никак не пойдут на ультранастройках. Да даже на средние можно не рассчитывать. А вот низкие настройки графики GeForce GTX 280 1GB все еще по силам. Так, к примеру, всем известные танки показывают на этой карте стабильные 50 кадров в секунду на минимальных настройках графики. Не так уж и плохо. При более тонкой настройке возможно даже добиться комфортных 60 FPS. "Варкрафт" версии "Туманы Пандарии" легко выдает и 70, и 120 кадров в секунду. Естественно, при минимальных настройках графики. Однако лучшие результаты могут быть достигнуты с играми того же года, что и видеокарта: 2008. Если в рекомендуемых системных требованиях игрушки в графе "Видеокарта" есть строка типа NVidia GeForce GTX 280 series or higher, то можно смело запускать ее на максимальных настройках графики. Красивая картинка и отличная производительность гарантированы.

Инструкция пользователя

Обычно эта "бумажка" идет в комплекте с видеоадаптером. Она находится в коробке. Вместе с самой картой. Если используется модификация от другого производителя (Palit GeForce GTX 280), инструкция может находиться на диске с драйверами и необходимым программным обеспечением. В ней по полочкам разложена вся информация о карте. Также даны исчерпывающие разъяснения о том, что куда подключать. И вся эта информация на русском языке с адекватным переводом. Это знак того, что компания дорожит своей репутацией и по-человечески относится к клиентам. И не имеет значения, из какой они страны.

Конечно, бумажная инструкция предпочтительнее. Ведь не всегда есть возможность запустить диск. Но и без инструкции понятно, как подключать видеокарту. С этим справится даже ребенок. Однако на диске инструкция более полная. Также она снабжена довольно обширным мультимедийным материалом, в котором все разложено по полочкам. И если у пользователя есть ноутбук или второй компьютер, то лучше изучить всю необходимую информацию непосредственно с диска.

Предыдущее изображение Следующее изображение

Видеокарта с довольно высокой производительностью на базе графического ядра NVIDIA восьмого поколения, поддерживающая большинство современных технологий. Подойдёт для домашних компьютеров и игровых станций.

Графический процессор обеспечивает высокую производительность для большинства современных компьютерных игр, а поддержка PhysX позволяет получить дополнительные спецэффекты в играх без заметных потерь в производительности.

Хорошая поддержка универсальных вычислений CUDA / OpenCL / DirectX позволяет значительно повысить продуктивность в задачах кодирования видео и видеомонтажа.

Достоинства

Хорошая производительность для игр Видеокарта позволяет играть во все современные компьютерные игры с хорошим качеством изображения. Поддержка SLI Возможность объединения в группу с одной или двумя такими же картами (при использовании SLI -совместимой материнской платы) для дополнительного повышения быстродействия игр. Готовность к 3D Vision Stereo Карта обладает достаточным «запасом прочности» для полноценного стереоорежима в играх при использовании комплекта NVIDIA 3D Vision (требуется совместимый монитор). Поддержка ускорения PhysX Графический процессор обладает достаточной мощностью для одновременного расчёта трёхмерной графики и дополнительных спецэффектов в поддерживающих PhysX играх.

Недостатки

Неполное ускорение для видео в формате VC-1 Воспроизведение некоторых дисков Blu-ray и видео из Интернет будет зависеть от мощности центрального процессора компьютера. Разъем HDMI опционален В большинстве видеокарт данной модели для цифрового подключения телевизора/видеотехники требуется использовать отдельный переходник и соединять видеокарту со звуковым адаптером проводом. Шум и электропотребление Видеокарта требует наличия мощного и качественного блока питания компьютера. Шум охлаждающей системы под нагрузкой может превышать комфортный. Отсутствие поддержки DirectX 11 Новейшие спецэффекты в компьютерных играх будут недоступны, производительность в Windows 7 ограничена.
Чипсет GeForce GTX 280

Архитектура GPU

Кодовое название микроархитектуры графического процессора

Так уж сложилось, что в последнее время на рынке 3D-ускорителей «балом правит» компания NVIDIA. Именно она выпускает самые быстрые современные видеокарты, порождая множество споров об их целесообразности, так как пользователям давно уже приходится мириться с тем, что "быстро" одновременно означает "очень горячо" и "очень дорого".

Объекты данного материала самые яркие представители этой категории. Мы познакомим вас с абсолютно новым High-End видеоадаптером GeForce GTX 280, и его предшественником в лице GeForce 9800 GX2. Обе эти карты сейчас самые дорогие на рынке, но при этом и самые быстрые. Старая карта демонстрирует такую мощь благодаря двум графическим чипам G92, а в основе новой - GPU последнего поколения GT200. Но обе отличаются огромными габаритами, "горячим нравом" и высоким энергопотреблением. Кто же быстрее и мощнее из этих двух монстров, мы и выясним ниже.

Особенности архитектуры GT200

После G80 NVIDIA не торопилась с кардинальными изменениями в архитектуре своих графических процессоров. Популярный G92 практически повторял предшественника, лишь ROP и текстурные блоки были немного улучшены. Новый же чип представляет собой следующее поколение универсальной шейдерной архитектуры, хотя, на самом деле, в основе его все так же лежит базовая архитектура G80.


Ядро GT200 состоит из десяти больших кластеров TPC (Texture Processing Clusters), что на два кластера больше, чем у представителей прошлого поколения. Строение этих вычислительных блоков аналогично предшественникам, но потоковых процессоров (SP) стало больше. На каждый TPC приходится по три потоковых мультипроцессорных юнита (SM), каждый из которых состоит из трех стрим-процессоров. Итого, в общем, получаем 240 универсальных потоковых процессоров. Для каждого SM-юнита выделена своя память объемом 16 КБ.


Основные изменения в шейдерных блоках коснулись модернизации локального регистрового файла, что дало прирост производительности при выполнении сложных программ-шейдеров. Также новый чип обладает возможностью выполнения двух инструкций за такт в одном шейдере. Точность вычислений с плавающей запятой увеличено до 64 бит.

Блоки TMU и ROP остались такими же, как и G92, но их количество было увеличено: до 80 текстурных блоков (по восемь на каждый TPC) и до 32 блоков растеризации, по восемь на каждый широкий ROP. Благодаря улучшениям текстурных блоков, NVIDIA говорит о 22% превосходстве в текстурировании относительно предшественника. Эффективность блоков ROP увеличена в возможности вывода до 32 пикселей с блендингом за такт, тогда как тот же G80 мог выводить только 24 пикселя и 12 с блендингом. Все вышесказанное касается старшего представителя на базе GT200 - GeForce GTX 280. Более доступное решение GeForce GTX 260 отличается чуть меньших числом функциональных блоков.

Но не только возможности по обработке графических задач были улучшены в новом чипе. Благодаря технологии CUDA, GT200 теперь может похвастаться поддержкой и других вычислительных задач. В таком режиме он работает как мультипроцессор с 240 вычислительными ядрами. Это позволит использовать эти видеокарты в специализированных расчетах. Справедливости ради, стоит отметить, что акселераторы Radeon уже давно обладают такой возможностью.

Большие вычислительные возможности чипа подтолкнули компанию на организацию расчетов физики в играх силами GPU. Эта технология является развитием технологии PhysX компании Ageia, которую недавно купила NVIDIA. Хотя тот факт, что энтузиастам удалось "взломать" драйверы NVIDIA и ввести поддержку аппаратного расчета физической модели в видеокарты Radeon, говорит о том, что PhysX не относится к каким-либо аппаратным особенностям графического чипа GT200, а является лишь соответствующей адаптацией программного API PhysX под универсальную щейдерную архитектуру.

Теперь, что касается еще одного нововведения. Шина памяти 512 бит (восемь 64-битных контроллеров памяти) при использовании GDDR3 позволила достичь пропускной способности в 141,67 Гб/с, и по этому критерию решение NVIDIA является лидером на рынке графических акселераторов. Но тут стоит отметить, что AMD пошла другим путем, и в своем новой графическом чипе RV770 ввела поддержку сверхбыстрой памяти GDDR5. Возможно, с выпуском новых GPU калифорнийцы также перейдут на использование прогрессивного типа памяти. Объем памяти у видеокарт GeForce GTX 280 составляет 1 ГБ, что для Hi-end решений становится уже нормой, учитывая аппетиты современных игровых приложений при выборе качественной графики. GeForce GTX 260 довольствуется лишь 896 мегабайтами памяти, при этом шина памяти составляет 448 бит.

GT200 выполняется по нормам 65-нм техпроцесса. В этом плане AMD пока лидирует - их новые чипы выполнены по 55-нм техпроцессу. Обладая огромных количеством транзисторов (1,4 млрд.) новый чип NVIDIA имеет громадную площадь в 576 кв. мм., а ширина кристалла достигает 2,4 см! С таким огромным ядром добиться выхода большого процента исправных чипов довольно тяжело, поэтому производство GT200 достаточно дорогое, что выливается в высокую окончательную стоимость готового продукта. Ниже приведено фото кристалла со схемой размещения его главных вычислительных блоков.


При таких размерах остро встает вопрос отведения тепла от кристалла. Да и энергопотребление у GT200 самое большое среди всех существующих чипов. Плата на базе GT200 в 3D потребляет до 236 Вт, а в 2D около 25 Вт: в зависимости от загрузки драйвер изменяет рабочую частоту чипа в большую или меньшую сторону. Опять же, подобные технологии уже давно прижились в продуктах ATI/AMD.

Также большой размер кристалла вынудил вынести блоки, отвечающие за интерфейсы (два RAMDAC, два Dual DVI, HDMI, DisplayPort, HDTV) в отдельный чип NVIO, что когда-то уже было с картами на базе G80. Из остальных интерфейсов отметим поддержку PCI Express 2.0 и двух разъемов для объединений видеокарт в режиме SLI и 3-way SLI.

Поддерживается технология HybridPower. При использовании материнской платы с данной технологией и встроенной видеокартой, внешняя в простое может быть отключена, а функции вывода изображения ложатся на плечи интегрированного графического ядра.

Никуда не делись возможности по аппаратному ускорению видео высокого разрешения, но и изменений нет. Все тот же PureVideo HD второго поколения, как и в предыдущих продуктах. Поддерживается вывод изображения через HDMI и DisplayPort.

А вот чего действительно не хватает в новом продукте, так это поддержки DirectX 10.1 и ShaderModel 4.1 - остался лишь "старый" DirectX 10.0. Конечно, программные преимущества обновленного API пока еще не используются разработчиками игр, но пора бы уже ввести поддержку соответствующих инструкций, тем более в новый топовый чип.

Подводя общие итоги по архитектуре, стоит отметить, что ничего кардинально со времен G92/G80 не поменялось, а все вычислительные блоки в среднем были увеличены в два раза. Остальные изменения коснулись лишь доработки функциональности этих самых блоков.

В таблицу, представленную ниже, занесены данные всех основных одночиповых решений различных поколений.

Видеокарта GeForce GTX 280 GeForce GTX 260 GeForce 9800 GTX GeForce 8800 GTS GeForce 8800 GTX
Ядро GT200 GT200 G92 G92 G80
Число транзисторов, млн. 1400 1400 754 754 681
Техпроцесс, нм 65 65 65 65 90
Число процессоров 240 192 128 128 128
Число TMU 80 64 64 64 32
Число ROP 32 28 16 16 24
Частота ядра, МГц 602 576 675 650 575
Частота процессоров, МГц 1296 1242 1688 1625 1350
Частота памяти, МГц 2214 2000 2200 1940 1800
Шина памяти, бит 512 448 256 256 384
Тип памяти GDDR3 GDDR3 GDDR3 GDDR3 GDDR3
Объем памяти, МБ 1024 896 512 512 768
Пропускная способность памяти, ГБ/с 142 112 70,4 62 86,4
Интерфейс PCI Express 2.0 PCI Express 2.0 PCI Express 2.0 PCI Express 2.0 PCI Express 1.1
Поддерживаемая версия DirectX 10 10 10 10 10
Энергопотребление, Вт 236 182 168 140 177

XpertVision GeForce GTX 280

Новый видеоадаптер от NVIDIA мы рассмотрим на примере продукта компании XpertVision, хотя на самом деле все карты, выпускаемые на данный момент, являются референсными, производимыми на "одном заводе". Делая свой выбор в пользу того или иного бренда, вы платите лишь за имя и комплектацию.


Видеокарта, которая попала к нам, как раз и отличалась весьма скудной комплектацией, что для такого дорого продукта очень непривычно:
  • Переходник DVI/D-Sub;
  • Переходник DVI/ HDMI;
  • Диск с драйверами;
  • Инструкция по установке.
Модель от XpertVision в качестве отличительных знаков имеет лишь наклейку на вентиляторе. Строгий черный кожух двуслотового кулера с наклонным вентилятором закрывает всю плату размером 270x100 мм. Задняя сторона тоже полностью закрыта металлической пластиной, которая служит и радиатором для чипов памяти и усиливает жесткость конструкции, предотвращая изгиб.



Вся информация о видеокарте нанесена на боковую стенку. Кстати, наклейки со штрих-кодом нанесены на место стыка верхней и нижней части кулера, так что снятие его чревато повреждением их и, соответственно, потерей гарантии.


С внешней боковой стороны расположены два разъема питания (6-pin и 8-pin). Разъемы SLI и S/PDIF (для подключения звука) закрыты резиновыми заглушками.


Сняв систему охлаждения, вряд ли можно будет увидеть что-то новое. Кулер по конструкции полностью повторяет аналоги на картах GeForce 8800GTS/9800GTX: медный сердечник посредством тепловых трубок передает тепло от ядра к тонким алюминиевым ребрам, которые продуваются турбиной. После чего отработанный воздух выходит наружу системного блока.


Да и сам дизайн платы недалеко ушел от дизайна PCB карт на базе G80, только защитной рамки вокруг чипа нет:



Ядро GT200, в связи со своими размерами обзавелось теплораспределительной крышкой, позволяющей также избежать сколов кристалла.


В качестве памяти используются микросхемы Hynix со временем доступа 0,8 мс (H5RS5223CFR-N2C) с номинальной частотой 2200 МГц и общим объемом 1024 МБ.

Мониторинг и разгон

Чип работает на частоте 602 МГц, при этом шейдерные блоки на 1296 МГц. Память GDDR3 функционирует на эффективных 2214 МГц (1107 МГц физических). Но такие частоты включаются лишь при загрузке GPU. В простое эти значения составляют лишь 300/100/200 МГц (ядро/шейдерный домен/память). При увеличении нагрузки ядро может быть установлено на частоту 400 МГц, память 594 МГц. А вот шейдерные блоки, судя по наблюдению, принимают лишь два дискретных значения.


Так же есть инерционность при переключении из высокочастотного режима в низкочастотный. При уменьшении нагрузки изменение частот происходит с запазданием в несколько секунд, вначале принимая средние значения, а потом уже опускаясь до минимальных.

RivaTuner 2.09 работает с новыми видеокартами, но скорость оборотов вентилятора не определяет. Эти данные можно просмотреть в утилите GPU-Z. Хотя управлять оборотами из меню RivaTuner можно, причем здесь положение ползунка соответствует активному на данный момент скоростному режиму в процентах.


Для измерения температуры мы традиционно использовали 10-минутный тест ATITool. Стоит отметить, что если вначале карта не нагрелась выше 81°C, то после двухчасового тестирования в играх, "волосатый куб" ATITool уже легко разогревал ядро до 85°C. При этом обороты поднимались до 92% от номинала. Это практически предел возможностей кулера, что свидетельствует о его низкой эффективности для охлаждения такой горячей карты.


Отдельно стоит отметить шумовые характеристики. GeForce GTX 280 можно смело назвать чемпионом по создаваемому шуму. Гул турбины слышен даже при работе в 2D. В 3D-режиме уровень шума достигает и превышает все мыслимые комфортные пороги. Сидеть за компьютером, в котором работает такая карта, не только неприятно, но и искренне становится жаль того, кто это "чудо" себе купит. В общем если вам не по душе постоянный гул от компьютера как от пылесоса, то готовьтесь в придачу к такой видеокарте купить сразу мощный альтернативный кулер.

Что касается разгона, то он оказался минимальный. Судя по артефактам, все упирается в охлаждение. Также нет возможности гнать отдельно растровый и шейдерный домены. Эта возможность в RivaTuner включается, но пока не работает. Частоты все равно изменяются синхронно, или даже могут сброситься до минимального порога. Видеокарту удалось разогнать до 633/1350/2520 МГц. По ядру это лишь на 5% выше номинала (что и разгоном то не назовешь), по памяти - 13% выше номинала. Учитывая изначально высокую ПСП этой видеокарты, можно предположить, что разгон памяти роли на итоговой производительности не играет.


Для разгона обороты вентилятора были подняты до 100% что позволило добиться даже более низкой температуры чем та, до которой карта прогревалась при 92% оборотах.ZOTAC GeForce 9800GX2

Главным соперником новой видеокарты GeForce GTX 280 выступает мультичиповый GeForce 9800 GX2, основанный на двух ядрах G92-450. Эта видеокарта до выхода представителя нового поколения занимала место самого производительного продукта. Посмотрим, сможет ли ее победить новое одночиповое решение. Самое интересное, что суммарное количество вычислительных блоков GeForce 9800 GX2 одинаково с одночиповым GeForce GTX 280.

В отличие от компании AMD, которая видит будущее в таки мультиядерных решениях, NVIDIA продолжает концентрировать силы на разработке одночиповых карт. Выпуск GeForce 9800 GX2 был вынужденным ответом на Radeon HD3870 X2, так как новое поколение находилось в стадии разработки, а лавры лидера никто и никому не собирался отдавать. Учитывая, что одноядерная GeForce 8800GTS 512MB запросто превосходит Radeon HD 3870 по производительности, не мудрствуя лукаво, NVIDIA взяла да и объединила две платы в SLI в пределах одного корпуса. Изначально жизненный путь GeForce 9800 GX2 должен был быть очень коротким, но как мы увидим ниже, не стоит возлагать большие надежды на новое поколение и "старичок" еще очень даже успешно конкурирует с новым High-End-видеоадаптером.

В качестве представителя GeForce 9800 GX2 к нам на тестирование попала видеокарта от компании ZOTAC.


Но опять же, все High-End-акселераторы на базе чипов NVIDIA повторяют референс и отличаются лишь комплектацией.

Комплектация:

  • Два переходника DVI/D-Sub;
  • Переходник питания с "молекса" на 6-pin;
  • Переходник питания с "молекса" на 8-pin;
  • Кабель HDMI;
  • Аудиокабель для подключения звука;
  • Диск с драйверами;
  • Полная версия игры LOST: Via Domus ;
  • Инструкция по установке.
Внешний вид видеокарты не сильно отличается от GTX 280. Все такой же массивный «кирпич» закованный в металлический корпус. Вот только теперь не видно турбины.



Устройство этой карты вы можете оценить по нижеприведенному слайду из документации NVIDIA.


Карты расположены по бокам конструкции и повернуты чипами и памятью вовнутрь, а между ними расположена система охлаждения, турбина которой, захватывая воздух через отверстия в платах, прогоняет его между ребрами радиатора и выбрасывает часть за пределы корпуса, а часть воздуха, причем большую, - обратно в системный блок (как в GeForce 9600 GT).


Для циркуляции воздушного потока в кожухе есть вентиляционные отверстия.



Одна из плат является главной - без установки драйвера работает только она одна. Поэтому при подключении монитора его нужно воткнуть в нижний разъем DVI под номером 1.


Кроме разъемов DVI имеется также HDMI, так что, переходники при подключении цифрового приемника видеосигнала не понадобятся. Внешние разъемы и коннекторы питания подсвечиваются. Энергопотребление платы ниже GeForce GTX 280 и составляет 197 Вт в пике. NVIDIA каждую плату в составе GeForce 9800 GX2 наделила своей памятью объемом 512 МБ, которая в SLI, как мы помним не суммируется.

Мониторинг и разгон

В соответствии со спецификацией данная видеокарта работает на частотах - 602/1512 МГц (ядро), 1998 МГц (физические 999 МГц) память. У данного видеоадаптера скорость оборотов турбины-кулера не определяется ни одной утилитой. Но в разделе управления кулером в RivaTuner скорость отображается в процентном соотношении и имеется возможность регулировать обороты турбины. Стартует вентилятор с немного более высоких оборотов чем у GeForce GTX 280, но зато и температура чипов немного меньше. В тесте ATITool температура ядер держалась на уровне 83-84°C.


Температурные датчики есть не только в каждом чипе, но и на каждой плате.

По шумовым характеристикам система охлаждения соответствует таковой у GeForce GTX 280. То есть, так же сильно гудит, но зато со своей задачей справляется немного лучше.

Разгон у этой карты оказался не выдающийся, особенно, учитывая результаты разгона GeForce 8800GTS в нашем прошлом обзоре . Рассматриваемая же модель стабильно работала на частотах 702/1728/2130 МГц (ядро/стрим-процессоры/память). Более высокие значения приводили к зависанию системы в некоторых тестах. Обороты были подняты до максимума, но это не помогло улучшить разгон. Установленный на обдув 120-мм вентилятор тоже не изменил ситуацию, хотя еще на пару градусов температура снизилась. Зависания обычно являются признаком нехватки мощности, но используемого на тестовом стенде блока питания на 1 кВт должно было хватать с лихвой.

Сравнительная таблица характеристик видеокарт
Видеокарта XpertVision GeForce GTX 280 1GB ZOTAC GeForce 9800GX2 512MB
Кодовое имя процессора GT200 2 x G92-450
Техпроцесс, нм 65 65
Частота ядра, МГц 602 602
Частота унифицированных шейдерных блоков, МГц 1296 1512
Количество унифицированных шейдерных блоков 240 2 x 128
Количество текстурных блоков TMU 80 2 x 64
Блоков блендинга ROP 32 2 x 16
Частота памяти, МГц 2214 1998
Разрядность интерфейса памяти, бит 512 2 x 256

Тестовый стенд:

  • Процессор: Core 2 Duo E8400 3 ГГц (разогнанный до 4 ГГц, 445 МГц FSB);
  • Кулер: Thermalright Ultra-120 eXtreme;
  • Материнская плата: Gigabyte P35-S3;
  • Память: 2х2GB OCZ PC6400 (890 МГц при таймингах 5-5-5-15);
  • Жесткий диск: 320GB Hitachi T7K250;
  • Блок питания: Chieftec CFT-1000G-DF;
  • Операционная система: Windows XP SP2, Windows Vista Ultimate SP1;
  • Драйвера: ForceWare 177.41 для GTX 280, ForceWare 175.19 для 9800GX2;
Использовались 32-разрядные операционные системы, поэтому, несмотря на общий объем памяти в 4 ГБ, задействовано лишь 3,5 ГБ. Тесты проводились в разрешении 1280х1024 и 1600х1200. Тестирование с включением сглаживания использовалось лишь в тех играх, где оно поддерживается непосредственно самим приложением. Для видеокарт использовались последние официальные драйвера, доступные на сайте NVIDIA.

Для сравнения с предыдущим поколением, в графики были добавлены результаты ASUS GeForce 8800 GTS 512MB из прошлого тестирования. Для этой карты использовались чуть более старые драйвера версии ForceWare 175.16.

Результаты тестирования в DirectX 9


В этом синтетическом тесте лидирует GeForce 9800 GX2. Она на 33% процента быстрее GeForce 8800 GTS и на 8% быстрее GeForce GTX 280 на номинальных частотах.

S.T.A.L.K.E.R. (DX9)

Традиционно первым игровым тестом выступает этот популярный отечественный шутер .


Все настройки графики на максимум, анизотропная фильтрация включена. Тест проводился на первой локации "Кордон".


Ситуация в этой игре повторяет расстановку сил в предыдущем тесте. Опять на первом месте двухчиповая видеокарта. Новичок уступает ей 10-14%, но обгоняет видеокарту 8-й серии на 30-40%, которая, благодаря неплохому потенциалу, в разгоне сокращает этот разрыв.

TimeShift (DX9)


Настройки графики максимальные, включена фильтрация AF16x. Небольшой игровой эпизод переигрывался по три раза для более точного результата.


В низком разрешении наблюдается паритет между двумя главными соперниками, но лучший разгон позволяет двухчиповой модели опередить новичка. А вот в более тяжелом режиме изначально лидирует GeForce 9800 GX2.

Unreal Tournament 3 (DX9)

Популярный сетевой шутер. На движке этой игры создано множество других популярных проектов, так что производительность в этом приложении очень показательна.


Настройки графики максимальные. Тест проводился на уровне ShangriLa без ботов. Для каждого режима тест проводился по три раза.


И снова паритет между соперниками в низком разрешении, и безоговорочное лидерство GeForce 9800GX2 в высоком. Примечательно, что игра неплохо реагирует на мультичиповые решения, карта с двумя G92 на 75% быстрее одного G92.

Call of Duty 4 (DX9)

Одна из лучших игр прошлого года.


Тестирование проводилось на уровне WarPig. Данный игровой эпизод отличается множеством ботов, взрывов, дыма в кадре. Результаты построены по итогам пятикратного прогона данного игрового эпизода, чтобы уменьшить погрешность.


В общем-то, все видно на графиках, снова GeForce GTX 280 занимает почетное второе место. Учитывая цену на эту карту, хотелось бы наконец-то увидеть, чтобы она хоть где-то обогнала представителя прошлой серии.

Legend: Hand of God (DX9)

Diablo-клон с красивой графикой.


Все настройки графики максимальные. Графический движок игры не отличается оптимизацией, тем более интересно, какие результаты будут на столь мощных видеокартах.


Говорить об однозначной победе GeForce GTX 280 в этой игре нельзя. Производительность всех видеокарт без активации сглаживания примерно на одном уровне. Кстати, эта игра явно безразлична к SLI. GeForce 8800GTS умудряется даже слегка обогнать GeForce 9800GX2. А вот активация фильтрации и сглаживания сразу выводит на первое место новичка. Видно, что у GT200 все же есть порох в пороховницах.

Race Driver: GRID (DX9)

Отличный автосимулятор с красивой графикой на движке Colin McRae Rally DIRT.


Настройки графики максимальные. Результатов GeForce 8800GTS с MSAA 4х нет, поскольку эта карта в прошлый раз тестировалась в другом режиме сглаживания.


Для тестов использовался стандартный GPU-бенчмарк.


Уверенная победа нового флагмана, в низком разрешении он обгоняет соперника на 20%, в высоком на 12%. Правда, разгон второго позволяет ему немного сократить разрыв, но даже в разгоне он не может достигнуть показателей старшей модели.
Результаты тестирования в DirectX 10

Devil May Cry4 (DX10)

Первый тест под DirectX 10. Игра хоть и новая, но отличается невысокими системными требованиями.


Тестирование проходило следующим образом: совершалась прогулка по определенному маршруту, включая прогулку по крышам, переулкам и небольшой площади, насыщенной NCP. По троекратным испытаниям получены средние результаты. В высоком разрешении 1600х1200 (реальное игровое разрешение 1600х900) игра просто не позволяет включить сглаживание, поэтому этих результатов для данного разрешения на диаграмме нет.


Не триумф, но уверенная победа GeForce GTX 280 во всех тестируемых режимах. Даже более удачный разгон не позволяет сопернику обогнать модель на GT200.

Еще одна игра, где уверенно лидирует GeForce GTX 280, причем наибольший отрыв данной видеокарты в тяжелых режимах со сглаживанием. Судя по двум последним играм в DirectX 10 новичок проявляет себя лучше, чем в играх под DirectX 9.

Crysis (DX10)

Тесты под DirectX 10 проводились в пропатченной версии 1.2. Проверим, подтверждается ли наше предположение, что основной потенциал GeForce GTX 280 раскрывается в DirectX 10.


После довольно радостных для GeForce GTX 280 результатов в этой игре под старым API, мы видим, что сейчас уже она не может соперничать с GeForce 9800GX2. Конечно есть двукратное превосходство новичка в высоком разрешении со сглаживанием, но этим показателям далеко до играбельного FPS. Как видим, новые флагманы 3D-ускорителей наконец-то могут обеспечить комфортную производительность в Crysis под DirectX 10, но только лишь в разрешении 1280х1024.

Выводы

Если вы ждали сенсации и прорыва от новых видеоадаптеров NVIDIA, то можете ждать дальше. Прорыва подобного выходу G80, не случилось. Новый чип представляет собой в два раза увеличенный по мощности старый добрый чип G92 с небольшими улучшениями вычислительных блоков. На деле это выливается в то, что предыдущий флагман компании на двух G92 в большинстве игр обгоняет новичка. И это при том, что на GeForce 9800GX2 еще и цена меньше.

Конечно потенциал у новой видеокарты есть, шина 512 бит и большой объем памяти помогают ей иногда поддерживать лидерство в тяжелых режимах. Но проблема именно в этом "иногда". Добавьте к этому более высокое энергопотребление новой видеокарты и ее горячий нрав. Вывод напрашивается сам собой. Если есть более дешевая, часто более быстрая и немного более прохладная (все же температура ее чипов меньше) GeForce 9800 GX2, то зачем нам что-то другое и более дорогое?

Но есть и довольно веский аргумент в пользу новой модели. Многочиповые решения имеют определенные проблемы с программной оптимизацией. В нашем тестировании была лишь одна игра, где явно видно, что потенциал двух G92 не используется. В Legend: Hand of God GeForce 9800GX2 даже уступила пару процентов одночиповому предшественнику с более высокими чатсотами. В остальных же играх двухчиповый GeForce всегда обгонял GeForce 8800GTS, и иногда довольно существенно. Так что не так страшен SLI, как его рисуют. По крайней мере, так обстоят дела на 32-разрядных операционных системах. На x64, по отзывам, дела с оптимизацией обстоят похуже. Последние борцы за одночиповые решения могут вспомнить и характерные "лаги" у двухчиповых карт. Да, такое имеет место быть. Но из всех протестированных игр это явно было заметно лишь в Crysis. В остальных играх игровой процесс если не идеален, то кратковременные просадки производительности не заметны. Видеокарта мощная, и если даже будет просадка от 100 до 50 FPS, то 90% игроков этого просто не почувствуют.

На фоне таких приятных умозаключений напрашивается еще один вопрос. А зачем нам тогда и GeForce 9800GX2 нужен? Если за ее цену можно спокойно взять две GeForce 8800 GTS и поставить их в SLI. При этом карты будут лучше охлаждаться, что позволит даже больше их разогнать. Ведь GeForce 9800 GX2 практически ничем не отличается от того же SLI, который можно получить на материнской плате.

Если же сравнивать цены на рассмотренные сегодня продукты с их уровнем производительности, то становится ясно, что 50-100% прироста производительности над одной 8800GTS выливаются в 2-3 кратное увеличение цены. При этом вы получаете печку с невыносимым уровнем шума. Платить 500-700 у.е. за топовый акселератор, чтобы играть затыкая уши? Бред. Так что, сразу же приготовьтесь менять стандартную систему охлаждения, и желательно на СВО.

Положа руку на сердце, стоит сказать, что продукты подобные GeForce 9800 GX2 и GeForce GTX 280 в соотношении "цена/производительность" не самые привлекательные варианты. Но High-End всегда таким был. Мы переплачиваем за возможность купить уже сейчас, то, что через год будет стоить в два раза дешевле. Но все же хотелось бы за такие деньги получить готовый к "употреблению" продукт, а не конструктор для энтузиастов. Если вы не считаетесь с финансами и всегда мечтали собрать себе SLI из двух или трех мощнейших видеокарт, при этом в придачу организовать СВО, то рассмотренные модели как раз то, что надо. Мощнее и горячее их пока нет. :)

В одном из ближайших материалов мы постараемся познакомить вас с новыми мощными видеоадаптерами от AMD и NVIDIA меньшей ценовой категории. Сравним их с данными топовыми моделями и выясним, какая модель все же самая эффективная в соотношении "цена/производительность".

Благодарим следующие компании за предоставленное тестовое оборудование:

  • DC-Link , в частности Александра aka Punisher, за видеокарту GeForce GTX 280 и блок питания Chieftec CFT-1000G-DF;
  • PCshop Group за видеокарту GeForce 9800GX2;
  • Магазин STORM за процессор Core 2 Duo E8400 и память OCZ PC6400.

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

Предыстория

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA . Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» - конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты - неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

Технические подробности

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

  • кодовое имя чипа GT200;
  • технология 65 нм;
  • 1,4 миллиарда (!) транзисторов;
  • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
  • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
  • частота ядра 602 МГц (GeForce GTX 280);
  • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
  • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
  • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
  • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
  • запись результатов до 8 буферов кадра одновременно (MRT);
  • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

  • частота ядра 602 МГц;
  • частота универсальных процессоров 1296 МГц;
  • количество универсальных процессоров 240;
  • количество текстурных блоков – 80, блоков блендинга - 32;
  • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
  • тип памяти GDDR3;
  • объем памяти 1024 МБ;
  • пропускная способность памяти 141,7 ГБ/с;
  • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
  • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
  • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • двойной SLI разъем;
  • шина PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (опционально);
  • энергопотребление до 236 Вт;
  • двухслотовое исполнение;
  • изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

  • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
  • В 2,5 раза увеличено число одновременно исполняемых потоков.
  • Вдвое увеличена максимальная длина сложного шейдерного кода.
  • Вдвое увеличена точность расчетов с плавающей запятой.
  • Намного быстрее исполняются геометрические расчеты.
  • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
  • Увеличена скорость доступа к буферу памяти.
  • Улучшены внутренние связи чипа между различными блоками.
  • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
  • Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

NVIDIA PhysX

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

  • режим простоя или 2D (около 25 ватт);
  • режим просмотра HD/DVD видео (около 35 ватт);
  • полноценный 3D режим (до 236 ватт);
  • режим HybridPower (около 0 ватт);

Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта на NVIDIA GeForce GTX 280

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Производитель

Название

ENGTX280/HTDP/1G/A

Графическое ядро

NVIDIA GeForce GTX 280 (G200-300-A2)

Конвейера

240 унифицированных потоковых

Поддерживаемые API

DirectX 10.0 (Shader Model 4.0)
OpenGL 2.1

Частота ядра (шейдерного домена), МГц

Объем (тип) памяти, МБ

Частота (эффективная) памяти, МГц

Шина памяти

512-разрядная

Стандарт шины

PCI Express 2.0 x16

Максимальное разрешение

До 2560 x 1600 в режиме Dual-Link DVI
До 2048 х 1536 при 85 Гц по аналоговому VGA
До 1080i через HDTV-Out

2x DVI-I (2x VGA через переходники)
TV-Out (HDTV, S-Video и Composite)

Поддержка HDCP
Декодирование HD-видео

Есть
H.264, VC-1, MPEG2 и WMV9

Драйверы

Свежие драйверы можно скачать с:
- сайта поддержки;
- сайта производителя GPU .

Сайт производителя

Поставляется видеокарта в достаточно габаритной двойной картонной коробке. Но, в отличие от упаковки предыдущих топовых ускорителей, эта чуть меньше по размерам и лишена пластиковой ручки, видимо ASUS начала экономить картон.

Но одна из боковых сторон упаковки все же раскрывается в виде книжки, рассказывая покупателю об экстремальных возможностях графического ускорителя и фирменных технологий.

На обратной стороне упаковки, кроме перечисления общих возможностей видеокарты и фирменного программного обеспечения, заботливо указана информация о минимальных требованиях к система, в которую будет установлена ASUS ENGTX280/HTDP/1G/A. Наиболее интересной и критичной частью является рекомендация использовать минимум 550 Вт блок питания, который способен выдать до 40 А по линии 12V. Также БП должен обеспечить необходимое число выходов питания, к которым и будут подключаться переходники питания.

Рядом указана и верная схема подачи питания на видеокарту. Обращаем внимания, что для 8-контактного разъема используется переходник с двух 6-контактных PCI Express, а не с пары периферийных, как это можно было увидеть ранее при установке ускорителей AMD/ATI. Учитывая энергопотребление GeForce GTX 280, к питанию придется подойти более тщательно.

Внутри красочной и информативной обложки, т.е. внешней коробки, находится полностью черная внутренняя, которая в свою очередь поделена на еще несколько отдельных боксов и ниш, вмещающих всю комплектацию.

Комплект поставки является более чем достаточным для полноценного использования ускорителя и помимо самого видеоадаптера включает в себя:

    два диска с драйверами, утилитами и электронной версией руководства пользователя;

    бумажное руководство по быстрой установке видеокарты;

    фирменный «кожаный» коврик для мыши;

    фирменную папку для дисков;

    переходник с 2-x Molex (питания периферийных устройств) на 6-pin питание PCI-Express;

    переходник с 2-х 6-контактных PCI Express на 8-контактный разъем питания;

    удлинитель 8-контактного разъема питания;

    переходник с 8-контактного разъема на 6-контактный PCI Express;

    переходник c S-Video TV-Out на покомпонентный HDTV-Out;

  • переходник с DVI на VGA.

Видеокарта на GeForce GTX 280 имеет такие же габариты, как ускорители на NVIDIA GeForce 9800 GX2 , а с NVIDIA GeForce 9800 GTX она даже сходна внешне, при взгляде на фронтальную часть, которая полностью скрыта под «примелькавшейся» системой охлаждения. В общем, разработкой всех этих ускорителей и их кулеров занимались примерно одни и те же инженеры, поэтому внешнее сходство не удивительно.

Сразу же отметим, что совершенно не важно кто является конечным продавцом ускорителя, выпуском топовых видеокарт занимается непосредственно сама NVIDIA на производственных мощностях партнеров. Конечные реализаторы занимаются только упаковкой готовых ускорителей и вправе рассчитывать только на возможность прошить свой фирменный BIOS, немного разогнать видеокарту или заменить кулер на альтернативный.

Обратная сторона видеокарты теперь скрыта за металлической пластиной, которая, как выяснилось в процессе разборки, играет роль радиатора для чипов памяти, располагающихся теперь с обеих сторон печатной платы.

Сверху видеокарты, почти у самого края, находятся разъемы подключения дополнительного питания. Имея энергопотребление до 236 Вт, ускорителю необходимо надежное питания, которое обеспечивается одним 6-контактным разъемом PCI Express и одним 8-контактным, как и на двухчиповом GeForce 9800 GX2.

Рядом с разъемами питания под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании выхода HDMI.

С другой стороны тоже под заглушкой находится двойной разъем SLI, что обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с невероятно производительной видеосистемой.

За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле отверстий вывода нагретого воздуха, расположен индикатор питания видеокарты, отображающий его статус в данный момент.

Под системой охлаждения находится печатная плата, которая во многом напоминает предыдущие топовые решения на G80 (например GeForce 8800 Ultra), только теперь, вследствие доведения объема видеопамяти до 1 ГБ, чипы располагаются с обеих сторон печатной платы и не так плотно. Плюс усилена система питания, чтобы обеспечить работу столь мощного ускорителя.

Основным потребителем электроэнергии является чип NVIDIA G200-300 второй ревизии, который и именуют GeForce GTX 280. Именно он содержит 240 унифицированных потоковых процессоров, которые работают на тактовой частоте 1296 МГц при работе остального ядра на частоте 602 МГц. Обмен данными с видеопамятью производится по 512-битной шине. Этот графический процессор способен обеспечить невероятную производительность при обработке графических данных, но узлы работы с внешними интерфейсами в него не поместились.

За все входы и выходы отвечает отдельный чип NVIO2, причем расположение его «вдали» от основного процессора позволяет говорить об отсутствии различных наводок и помех, что должно обеспечить отличное изображение даже на аналоговых мониторах.

В качестве микросхем памяти используется продукция Hynix. Микросхемы при рабочем напряжении 2,05 В имеют время отклика 0,8 мс, т.е. обеспечивают работу видеопамяти на эффективной частоте до 2200 МГц. На этой же тактовой частоте микросхемы памяти и функционируют.

Отдельно расскажем о кулере. Система охлаждения имеет привычную для NVIDIA конструкцию и занимает соседний с видеокартой слот расширения, обеспечивая отвод нагретого воздуха за пределы корпуса.

Интересно отметить, что за отвод тепла отвечают не только алюминиевые пластины радиатора, но и весь корпус кулера, что хорошо видно по соединению тепловых трубок с ним. Поэтому проветривание видеокарты любым удобным способом может обеспечить заметное улучшение ее температурного режима. А мыслей об улучшении охлаждения мало кому из владельцев этого «горячего монстра» удастся избежать. Уже непродолжительная серьезная нагрузка на видеокарту заставляет турбину раскручиваться до максимальных 1500 об/мин, что заметно нарушает акустический комфорт. Но даже это не избавляет ускоритель от значительного нагрева.

В закрытом хорошо вентилируемом корпусе температура графического процессора перевалила за отметку 100°C, а воздух, выдуваемый системой охлаждения, навел на мысль, что зря NVIDIA представила этот графический процессор к лету – надо было к зиме, чтобы пользователь, купивший очень дорогой ускоритель, мог экономить на отоплении.

Чтобы видеокарта не перегрелась, пришлось открыть корпус и направить в его сторону бытовой вентилятор – это обеспечило снижение на 14 градусов температуры GPU и на 9 градусов всей видеокарты. Именно в таком положении производились все тесты и последующий разгон. Но при открытом корпусе штатный кулер показался еще немного громче.

А вот при отсутствии 3D нагрузки температура видеокарты значительно снижается, что достигается еще и дополнительным снижением рабочих частот и уменьшением напряжения – в режиме 2D видеокарта потребляет на 200 Вт меньше. Этот же факт позволяет медленнее вращаться и турбине кулера, что делает его практически беззвучным.

При тестировании использовался Стенд для тестирования Видеокарт №1
Выберите с чем хотите сравнить GeForce GTX280 1GB ASUS


Среди одночиповых ускорителей решение на NVIDIA GeForce GTX 280, несомненно, занимает лидирующее положение, но вот у двухчиповых ускорителей и multi-GPU конфигураций из карт предыдущего поколения ASUS ENGTX280/HTDP/1G/A выигрывает не всегда, особенно в условиях использования не самого производительного процессора.

2-ядерный процессор против 4-ядерного

А что даст использование более производительного процессора, например четырехъядерного? Именно такие процессоры сейчас часто советуют владельцам высокопроизводительных видеокарт.

Для того чтобы проверить на сколько четырехъядерный процессор окажется предпочтительнее, мы заменили Intel Core 2 Duo E6300 @2800 на Intel Core 2 Quad Q9450 @2800.

Тестовый пакет

Intel Core 2 Duo E6300 @2800

Intel Core 2 Quad Q9450 @2800

Прирост производительности, %

Как видите, прирост производительности на четырехъядерном процессоре действительно есть, и порою немалый, но именно в высоких разрешениях, для работы в которых и покупают дорогие видеокарты, ускорение наименьшее.

Intel Core 2 Quad против AMD Phenom X4

Еще одной часто озвучиваемой рекомендацией относительно комплектации производительной игровой системы является предпочтение процессорам Intel, как более быстрым. Что ж, попробуем проверить на практике, насколько игровая система на базе процессора AMD Phenom X4 окажется медленнее, если такой факт будет иметь место.

Для «забега» в равных условиях мы разогнали процессор AMD Phenom X4 9850 Black Edition до частоты 2,8 ГГц, что достаточно легко делается только изменением множителя, и провели серию тестов на новой платформе ASUS M3A32-MVP DELUXE/WIFI-AP . При этом оперативная память работала в режиме DDR2-800 с такими же таймингами, как и на системе с процессором Intel Core 2 Quad Q9450.

Тестовый пакет

AMD Phenom X4 9850 @2800

Intel Core 2 Quad Q9450 @2800

Разность производительности, %

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

Call Of Juarez, Maximum Quality, NO AA/AF, fps

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

Prey, Maximum Quality, AA4x/AF16x, fps

Crysis, Maximum Quality, NO AA/AF, fps

Crysis, Maximum Quality, AA4x/AF16x, fps

Итак, при работе на одинаковых тактовых частотах действительно система с процессором Intel Core 2 Quad оказывается немного быстрее аналогичной с процессором AMD Phenom X4. При этом, чем выше разрешение и больше требований к качеству изображения, тем меньше превосходство процессоров Intel. Конечно, используя самую дорогую и производительную видеокарту, маловероятно, что покупатель будет экономить на процессоре и материнской плате, но в других условиях мы бы не рекомендовали «однозначно Intel Core 2 Quad», а предложили бы хорошенько взвесить варианты систем с процессорами от AMD и Intel.

Разгон

Для разгона видеокарты мы использовали утилиту RivaTuner, при этом, как было отмечено выше, корпус был открыт, а дополнительный приток свежего воздуха к видеокарте обеспечивался бытовым вентилятором.

Частота растрового домена в результате разгона поднялась до отметки в 670 МГц, что на 70 МГц (+11,67%) выше значения по умолчанию. Разгон шейдерного домена оказался чуть лучше и частотные показатели, в отличие от значений по умолчанию, возросли на 162 МГц (+12,5%). А вот разгон памяти превзошёл все ожидания. Стабильная работа была отмечена на эффективной частоте почти 2650 МГц, что на 430 МГц (+19,5%) выше номинальной. Отмечаем отменный разгонный потенциал тестируемого ускорителя, особенно видеопамяти.

Теперь посмотрим, как разгон одиночной видеокарты сказывается на производительности:

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

Prey, Maximum Quality, AA4x/AF16x, fps

Crysis, Maximum Quality, AA4x/AF16x, fps

Только в наиболее тяжелых видеорежимах можно будет увидеть прирост производительности от разгона. Такой результат был достаточно предсказуем. При этом, вполне резонно будет заметить, что ограничивающим фактором почти во всех тестах стал процессор. Но настоятельно рекомендовать владельцам ускорителей на NVIDIA GeForce GTX 280 только самые быстрые процессоры мы не будем, т.к. даже с двухъядерным процессором, который работает на частоте 2,8 ГГц, а может и меньше, можно будет совершенно комфортно играть в практически любые игры на самых максимальных настройках в высоких разрешениях. В таких условиях можно будет увидеть даже прирост от разгона. Но, конечно же, при возможности, на процессоре экономить не стоит, раз не экономили на видеокарте и блоке питания.

Выводы

Вынуждены признать, что все видеокарты на основе GeForce GTX 280 сегодня являются самыми производительными одночиповыми графическими ускорителями, которые способны обеспечить достаточную производительность в любой современной игре. Но, с другой стороны, это и самые дорогие современные видеокарты и самые требовательные к энергообеспечению и, в общем-то, самые «прожорливые» и горячие. То есть GeForce GTX 280 получился во всех отношениях самый-самый, и в плохих и хороших.

Мы говорим обобщенно об ускорителях на GeForce GTX 280, хотя героем обзора является ASUS ENGTX280/HTDP/1G/A, поскольку большинство из них являются точно такими же референсными образцами, отличающимися друг от друга только наклейками, комплектацией и упаковкой. Поэтому выбирая GeForce GTX 280 от ASUS, покупатель получает расширенную комплектацию с парой фирменных бонусов и широкую сеть сервисных центров, а в остальном превосходства над предложениями конкурентов нет.

Достоинства:

  • очень высокая производительность в игровых приложениях;
  • поддержка DirectX 10.0 (Shader Model 4.0) и OpenGL 2.1;
  • поддержка технологий NVIDIA CUDA и NVIDIA PhysX;
  • поддержка технологии 3-Way SLI;
  • хороший разгонный потенциал.

Недостатки:

  • система охлаждения занимает 2 слота, не отличается высокой эффективностью и комфортной тишиной работы;
  • довольно высокая стоимость графического ускорителя.

Выражаем благодарность фирме ООО ПФ Сервис (г. Днепропетровск) за предоставленную для тестирования видеокарту.

При написании статьи были использованы материалы с сайта http://www.ixbt.com/ .

Статья прочитана 19856 раз(а)

Подписаться на наши каналы