Наверх
Меню
Новости
Статьи
twitter
Видеокарты
9 марта 2007
17524
  Руководство покупателя видеокарты. Версия 1.0  
 
1. Введение
2. Важность видеокарты для игрового ПК
3. Слоты расширения: AGP и PCI Express
4. Основные характеристики видеокарт
5. Разъемы для подключения устройств вывода
6. Выбор ценового диапазона
7. Выбор объема видеопамяти
8. Выбор видеочипа, модели и производителя видеокарты
9. Неявные особенности выбора

10. Практические рекомендации по выбору видеокарты

1. Введение

Компьютерная техника развивается очень быстро, большинство деталей обычного домашнего компьютера устаревает намного раньше, чем они выходят из строя физически. Через некоторое время в современных трехмерных играх начинает наблюдаться явная нехватка производительности: низкая частота кадров даже при не самых высоких графических настройках, отсутствие плавности и комфорта во время игры, долгое время загрузки игры и т.п. Каждый год выходят новые, всё более требовательные к мощности игровой системы трехмерные игры. И домашний компьютер, купленный всего год-полтора назад (многие люди просто не могут понять, что за такое время «железо» может устареть), на котором после покупки с играми не было никаких проблем, начинает тормозить, не позволяя комфортно поиграть в последние игры.

Именно игры больше всего нагружают домашние компьютеры, предъявляя все более серьезные требования к большинству деталей компьютера: к процессору, видеокарте, объему памяти, и даже объему накопителей на жестких дисках. Иногда, замена этих деталей тянет за собой и смену системной платы, блока питания и других комплектующих, казалось бы, напрямую не связанных с производительностью. Обычному человеку, далекому от «железок», не так просто определить то самое слабое звено, которое больше всего ограничивает производительность. Мало того, чаще всего пользователь примерно знает, какой у него стоит «Пентиум», и что установлена какая-то «Джифорс» видеокарта. И если он хочет сделать апгрейд, то ему приходится начинать потихоньку разбираться во всем этом.

При принятии решения о самостоятельной смене видеокарты, пользователь должен осознавать, что он меняет одну из важнейших комплектующих, которую необходимо уметь выбирать и настраивать. Пользователь должен понимать, что для получения наибольшей отдачи от новой видеокарты, ему придется учиться азам трехмерной графики. В противном случае, вместо самостоятельного апгрейда проще приобрести готовые системные блоки, предназначенные для игр, или даже игровые приставки.

В случае же самостоятельного выбора, самое главное — найти правильный баланс всех частей системного блока, собранного на основе деталей примерно одного ценового уровня (об уровнях подробнее во второй части статьи). Более-менее сбалансированными для современного игрового компьютера получаются компьютеры с ценой не менее $1000 за системный блок. Причем, не стоит думать, что его хватит на несколько лет, игры только сначала почти не тормозят и работают на высоких настройках, в дальнейшем появляются новые игры, которым не хватает мощности любого компьютера не самой последней свежести. Новые модели видеокарт выходят раз в полгода или год, каждая новая серия обычно и заметно быстрее предыдущей и поддерживает новые технологии, которые подхватываются разработчиками игр.

Видеокарты обычно являются так называемыми платами расширения, которые вставляются в специальные слоты на основной (системной или материнской) плате компьютера. Это сделано для упрощения модернизации, прежде всего. Самые дешевые графические решения могут быть встроены в чипсет системной платы, они обычно хоть и могут выполнять функции игровой 3D видеокарты, но делают это крайне медленно и подходят разве что для обычной офисной работы или двухмерных игр. Современные же игровые видеокарты предлагают массу новых технологий, в их описаниях и обзорах встречается масса непонятных многим терминов. Покупка или обновление видеокарты становится не таким уж простым действием. Чтобы упростить задачу для неопытных пользователей, мы решили помочь им, сделав руководство по покупке видеокарты для начинающих пользователей.

У пользователя есть возможность как покупки нового компьютера целиком, так и модернизации (или upgrade - апгрейда) старой конфигурации, с приобретением части новых и вероятной продажи (выбрасывания в мусор, откладывания на черный день или для сборки очередного ПК — на выбор) старых комплектующих. Заменив наиболее важные комплектующие, зачастую можно сравнительно небольшими средствами поднять производительность ПК для того, чтобы играть в современные игры с приемлемой производительностью.

Продажа старого и покупка нового ПК — выход выгодный только в том случае, если вам есть куда пристроить старое железо целиком за приемлемые деньги. И если время есть на замену компьютера целиком где-то раз в полтора года. Кроме того, появляются дополнительные заботы по продаже, переносу данных и возможному «безлошадному» времени между продажей старого ПК и покупкой нового. Во многих случаях лучшим выходом является частичная модернизация компьютера. Основной задачей в таком случае является нахождение слабого места (или нескольких мест) и их устранение путем замены соответствующей детали. Понятное дело, что апгрейд имеет смысл лишь тогда, когда его сроки не запущены, когда уровень производительности еще удастся подтянуть заменой одной или двух частей ПК. В случае очень старого ПК (два-три года и более), проще будет продать старый и купить новый.

В данном руководстве, ориентированном, прежде всего на неопытных пользователей, мы опишем основные вопросы, возникающие при выборе и покупке видеокарты, этот материал дает базовые знания по теме современных видеоадаптеров, но он предназначен всё же для читателей с определенным уровнем знаний.

2. Важность видеокарты для игрового ПК

Несмотря на то, что определение слабого звена для игрового компьютера не всегда является простой задачей, чаще всего в низкой производительности будет виновата именно видеокарта, а не процессор или малый объем памяти (если только её не совсем мало). Да, существуют игры, которые при определенных условиях будут ограничены процессором (они называются «процессорозависимыми»), игры, которые сильно страдают от недостатка оперативной памяти, но в первую очередь, производительность игры зависит от видеокарты. И чем более высокие графические настройки в играх вы хотите использовать, тем большая нагрузка ляжет на неё, и тем большая зависимость будет от её производительности. Особенно к этому относятся такие настройки, как разрешение экрана, уровень антиалиасинга и анизотропной фильтрации, которые нагружают исключительно видеокарту.

А иногда бывает так, что на старых видеокартах в современные игры играть можно, и даже довольно быстро, но с минимальным качеством, из-за отсутствия поддержки установленной видеоплатой последних графических технологий. Одна из таких игр — Tomb Raider: Legend. Оцените визуальную разницу между режимами для старых видеокарт и современных:

Руководство покупателя видеокарты. Версия 1.0 Руководство покупателя видеокарты. Версия 1.0

Это же просто разные игры! То есть, играть во многие современные игры с максимальным качеством картинки получится только при смене видеокарты. То же самое получится с видеокартами современными, но из нижнего ценового диапазона — они хотя и «умеют» всё, что от них требуется, но выполняют требуемое очень медленно для комфортной игры.

Мы еще не касаемся тех случаев, когда свежая игра вообще не запускается на компьютере, требуя поддержки некоторых возможностей, например — шейдеров последней версии. С такой проблемой в 2006 году столкнулись пользователи видеокарт ATI поколения R3x0/R4x0 (то есть, начиная с RADEON 9500 и заканчивая RADEON X850 XT), в нескольких современных играх, к которым относятся Splinter Cell: Double Agent и Rainbow Six: Vegas. Им было отказано даже в запуске этих игр, так как они в обязательном порядке требуют поддержки Shader Model 3.0. Единственным выходом тут также является апгрейд видеокарты.

В общем, основной мыслью этой части статьи является такое выражение: «Никогда не экономьте на видеокарте для домашнего и/или игрового компьютера, она является самой важной деталью вашего ПК, если речь идет о современных 3D играх!» При выборе видеокарты для домашнего ПК, нужно стараться отвести максимальный бюджет именно для видеокарты, если только в самом ближайшем будущем не планируется очередное денежное вливание и покупка более мощной видеокарты. В таком случае, если не хватает денег на хорошую видеокарту сразу, оправданной может быть покупка системы с интегрированной графикой, но обязательно с возможностью установки внешней видеокарты! Во всех остальных случаях нужно выбирать самую мощную и дорогую в рамках запланированного бюджета (а если больше его — то еще лучше). Мало того, видеокарта игрового компьютера должна стоить дороже центрального процессора системы (CPU).

Несмотря на то, что идеального сочетания процессора и видеокарты не существует (если только не считать таковыми наиболее мощные CPU и видеокарту из тех, что есть в продаже на данный момент времени), есть диапазон сбалансированных сочетаний. Причем, от игры к игре разница есть, и она может быть заметной — существуют более процессорозависимые игры (автосимуляторы, стратегии) и менее процессорозависимые (шутеры от первого лица, аркадные автогонки), в которых нагрузка на CPU и GPU очень сильно разнится.

Итак, продолжим мысль о том, что видеокарта для современных игр важнее, чем всё остальное. Лучше иметь процессор средней производительности и мощную видеокарту, чем мощный процессор и среднюю видеокарту. На начало 2007 года, приемлемым минимумом для большинства игр являются CPU уровня Pentium 4 2.8 ГГц, Athlon 64 2800+ и выше. Для таких процессоров в составе игровых компьютеров рекомендуются mid-end видеокарты, так как покупать новую low-end видеокарту для 3D игр неразумно, а приобретение дорогой high-end платы будет неоправданным. Это такие карты, как ATI RADEON X1650 XT и GeForce 7600 GT, ну или уровень GeForce 7900 GS, что еще лучше. Более мощные видеокарты будут оправданы только в высоких разрешениях, их мощность не будет раскрыта из-за низкой производительности CPU. Ну а видеокарты низшего ценового диапазона вообще малопригодны для современных игр, с учетом некоторого времени полноценной жизни игровой системы. В самом крайнем случае стоит приобрести GeForce 7600 GS или RADEON X1650 PRO, но не меньше.

Для более мощных двухъядерных процессоров уровня младших Intel Core 2 Duo и Athlon 64 X2, а также достаточно мощных одноядерных процессоров вроде Athlon 64 3700+/3800+, лучше всего подойдут видеокарты из верхнего mid-end или нижнего high-end (напоминаю - по ценовым диапазонам см. вторую часть статьи) секторов, минимум — RADEON X1950 PRO и GeForce 7900 GS, оптимально — GF 7900 GT, а максимум — GF 7950 GT и X1900 XT. Ну и логично, что для самых мощных CPU и видеокарты нужно брать самые быстрые. Верхнего предела тут нет, а нижний — GeForce 7950 GT и RADEON 1900 XT. Оптимально, на наш взгляд: GeForce 8800 GTS и RADEON X1950 XT.

Подводя краткий итог баланса между CPU и GPU, заметим, что видеокарта должна быть в 1.7-2.5 раза дороже, чем центральный процессор системы, для того, чтобы игровая система была сбалансирована. Оценка средняя и очень приблизительная, но прислушаться к совету стоит.

3. Слоты расширения: AGP и PCI Express

При смене одной только видеокарты обязательно нужно учитывать, что новые модели могут просто не подходить к вашей материнской плате, так как существует не просто несколько разных типов слотов расширения, но несколько их версий (применительно к AGP, и в скором времени — к PCI Express). Если вы не уверены в своих знаниях по этой теме, внимательно ознакомьтесь с разделом.

Как мы уже отметили выше, видеокарта вставляется в специальный разъем расширения на системной плате компьютера, через этот слот видеочип обменивается информацией с центральным процессором системы. На системных платах чаще всего есть слоты расширения одного-двух (реже трёх) разных типов, отличающихся пропускной способностью, параметрами электропитания и другими характеристиками, и не все из них подходят для установки видеокарт. Очень важно знать имеющиеся в системе разъемы и покупать только ту видеокарту, которая им соответствует. Разные разъемы расширения несовместимы физически и логически, и видеокарта, предназначенная для одного типа, в другой не вставится и работать не будет.

Мы не будем касаться ISA и VESA Local Bus слотов расширения и соответствующих им видеокарт, так как они безнадежно устарели, и не каждый специалист ныне знает о них что-то большее, чем их названия и то, что они когда-то существовали. Обойдем вниманием и слоты PCI, так как игровых видеокарт для них давно уж нет.

Современные графические процессоры используют один из двух типов интерфейса: AGP или PCI Express. Эти интерфейсы отличаются друг от друга в основном пропускной способностью, предоставляемыми возможностями для питания видеокарты, а также другими менее важными характеристиками. Теоретически, чем выше пропускная способность интерфейса, тем лучше. Но практически, разница в пропускной способности даже в несколько раз не слишком сильно влияет на производительность, и пропускная способность интерфейса крайне редко является узким местом, ограничивающим производительность.

Лишь очень малая часть современных системных плат не имеет слотов AGP или PCI Express, единственной возможностью расширения для них является интерфейс PCI, видеокарты для которого весьма редки и попросту не подходят для домашнего компьютера. Рассмотрим два современных интерфейса подробнее, именно эти слоты вам нужно искать на своих системных платах. Смотрите фотографии и сравнивайте.

AGP

Руководство покупателя видеокарты. Версия 1.0

Руководство покупателя видеокарты. Версия 1.0

AGP (Accelerated Graphics Port или Advanced Graphics Port) — это высокоскоростной интерфейс, основанный на спецификации PCI, но созданный специально для соединения видеокарт и системных плат. Шина AGP лучше подходит для видеоадаптеров по сравнению с PCI (не Express!) потому, что она предоставляет прямую связь между центральным процессором и видеочипом, а также некоторые другие возможности, увеличивающие производительность в некоторых случаях, например, GART — возможность чтения текстур напрямую из оперативной памяти, без их копирования в видеопамять; более высокую тактовую частоту, упрощенные протоколы передачи данных и др.

В отличие от универсальной шины PCI, AGP используется только для видеокарт. Интерфейс имеет несколько версий, последняя из них — AGP 8x с пропускной способностью 2.1 Гб/с, что в 8 раз больше начального стандарта AGP с параметрами 32-бит и 66 МГц. Новых системных плат с AGP уже не выпускают, они окончательно уступили рынок решениям с интерфейсом PCI Express, но AGP до сих пор имеет широкое распространение и дает достаточную пропускную способность даже для новых видеочипов.

Спецификации AGP появились в 1997 году, тогда Intel выпустил первую версию описания, включающую две скорости: 1x и 2x. Во второй версии (2.0) появился AGP 4x, а в 3.0 — 8x. Рассмотрим все варианты подробнее:
AGP 1x — это 32-битный канал, работающий на частоте 66 МГц, с пропускной способностью 266 Мбайт/с, что в два раза выше полосы PCI (133 Мбайт/с, 33 МГц и 32-бит).
AGP 2x — 32-битный канал, работающий с удвоенной пропускной способностью 533 Мбайт/с на той же частоте 66 МГц за счет передачи данных по двум фронтам, аналогично DDR памяти (только для направления "к видеокарте").
AGP 4x — такой же 32-битный канал, работающий на 66 МГц, но в результате дальнейших ухищрений была достигнута учетверенная "эффективная" частота 266 МГц, с максимальной пропускной способностью более 1 ГБ/с.
AGP 8x — дополнительные изменения в этой модификации позволили получить пропускную способность уже до 2.1 ГБ/с.

Видеокарты с интерфейсом AGP и соответствующие слоты на системных платах совместимы в определенных пределах. Видеокарты, рассчитанные на 1.5 В, не работают в 3.3 В слотах, и наоборот. Но существуют универсальные разъемы, которые поддерживают оба типа плат. Некоторые новые видеокарты из последних AGP серий, такие как NVIDIA GeForce 6 серии и ATI X800, имеют специальные ключи, не позволяющие установить их в старые системные платы без поддержки 1.5 В, а последние AGP карты с поддержкой 3.3 В — это NVIDIA GeForce FX 5x00 и часть из ATI RADEON 9x00, кроме основанных на R360.

При апгрейде старой AGP системы обязательно нужно учитывать возможную несовместимость разных версий слотов AGP. В двух словах можно дать такой совет: новые видеокарты в старые системные платы можно пробовать вставлять без особого риска, в крайнем случае, система просто не заработает, в отличие от попытки установки старых видеокарт на новую материнскую плату, что может иметь печальные последствия. Для установки новых видеоплат на устаревшую системную, имеющую разъема AGP 1.0, нужно, чтобы новая видеокарта имела универсальный разъем AGP 1.0/2.0:

Руководство покупателя видеокарты. Версия 1.0

Но если новая видеокарта имеет разъем AGP 2.0, то заставить ее работать на старой системе не получится.

Руководство покупателя видеокарты. Версия 1.0

AGP 3.0 видеокарты имеют такой же разъем, как показан выше, и их можно устанавливать на материнские платы со слотом AGP 2.0. Существуют и видеокарты AGP 3.0 с универсальным разъемом, которые можно устанавливать в том числе и на системную плату с портом AGP 1.0.

Несмотря на то, что версии AGP действительно сильно отличаются друг от друга по теоретическим показателям, таким, как пропускная способность, более старый и медленный интерфейс тормозить работу видеокарты будет не сильно, разница в производительности в играх при режимах AGP 4x и AGP 8x составляет лишь несколько процентов, а то и еще меньше.

Нужно отметить, что в переходный период смены слотов AGP на PCI Express выходили системные платы с гибридными решениями, предоставляющими так называемые слоты AGP Express. Эти слоты зачастую размещались совместно с PCI Express x16 слотом, но они не являются полноценными AGP слотами и работают на скорости обычных PCI слотов, что дает очень низкую скорость, позволяющую разве что переждать время перехода на полноценное PCI Express решение.

Руководство покупателя видеокарты. Версия 1.0

PCI Express

Руководство покупателя видеокарты. Версия 1.0

Руководство покупателя видеокарты. Версия 1.0

PCI Express (PCIe или PCI-E, не путать с PCI-X), ранее известная как Arapaho или 3GIO, отличается от PCI и AGP тем, что это последовательный, а не параллельный интерфейс, что позволило уменьшить число контактов и увеличить пропускную способность. PCIe — это лишь один из примеров перехода от параллельных шин к последовательным, вот другие примеры этого движения: HyperTransport, Serial ATA, USB и FireWire. Важное преимущество PCI Express в том, что он позволяет складывать несколько одиночных линий в один канал для увеличения пропускной способности. Многоканальность последовательного дизайна увеличивает гибкость, медленным устройствам можно выделять меньшее количество линий с малым числом контактов, а быстрым — большее.

Интерфейс PCIe пропускает данные на скорости 250 Мбайт/с на одну линию, что почти вдвое превышает возможности обычных слотов PCI. Максимально поддерживаемое слотами PCI Express количество линий — 32, что дает пропускную способность 8 ГБ/с. А PCIe слот с восемью рабочими линиями примерно сопоставим по этому параметру с быстрейшей из версий AGP —. Что еще больше впечатляет при учете возможности одновременной передачи в обоих направлениях на высокой скорости. Наиболее распространенные слоты PCI Express x1 дают пропускную способность одной линии (250 Мбайт/с) в каждом направлении, а PCI Express x16, который применяется для видеокарт, и в котором сочетается 16 линий, обеспечивает пропускную способность до 4 ГБ/с в каждом направлении.

Несмотря на то, что соединение между двумя PCIe устройствами иногда собирается из нескольких линий, все устройства поддерживают одиночную линию, как минимум, но опционально могут работать с большим их количеством. Физически, карты расширения PCIe входят и работают нормально в любых слотах с равным или большим количеством линий, так, PCI Express x1 карта будет спокойно работать в x4 и x16 разъемах. Также, слот физически большего размера может работать с логически меньшим количеством линий (например, на вид обычный x16 разъем, но разведены лишь 8 линий). В любом из приведенных вариантов, PCIe сам выберет максимально возможный режим, и будет нормально работать.

Чаще всего для видеоадаптеров используются разъемы x16, но есть платы и с x1 разъемами. А большая часть системных плат с двумя слотами PCI Express x16, работает в режиме x8 для создания SLI и CrossFire систем. Физически другие варианты слотов, такие как x4, для видеокарт не используются. Напоминаю, что всё это относится только к физическому уровню, попадаются и системные платы с физическими PCI-E x16 разъемами, но в реальности с разведенными 8, 4 или даже 1 каналами. И любые видеокарты, рассчитанные на 16 каналов, работать в таких слотах будут, но с меньшей производительностью. Кстати, на фотографии выше показаны слоты x16, x4 и x1, а для сравнения оставлен и PCI (снизу). Хотя разница в играх получается не такой уж и большой: при средних настройках почти незаметная, но в тяжелых режимах начинает увеличиваться. Примите это к сведению.

PCI Express отличается не только пропускной способностью, но и новыми возможностями по энергопотреблению. Эта необходимость возникла потому, что по слоту AGP 8x (версия 3.0) можно передать не более 40 с небольшим ватт суммарно, чего уже не хватало видеокартам последних поколений, рассчитанных для AGP, на которых устанавливали по одному или двух стандартным четырехконтактным разъемам питания (NVIDIA GeForce 6800 Ultra). По разъему PCI Express можно передавать до 75 Вт, а дополнительные 75 Вт получают по стандартному шестиконтактному разъему питания (см. последний раздел этой части). В последнее время появились видеокарты с двумя такими разъемами, что в сумме дает до 225 Вт.

PCI Express 2.0

Не так давно, группой PCI-SIG, которая занимается разработкой соответствующих стандартов, были представлены основные спецификации PCI Express 2.0. Вторая версия PCIe вдвое увеличивает стандартную пропускную способность, с 2.5 Гб/с до 5 Гб/с, так что разъем x16 позволяет передавать данные на скорости до 8 ГБ/с в каждом направлении. При этом PCIe 2.0 совместим с PCIe 1.1, старые карты расширения будут нормально работать в новых системных платах, появление которых ожидается уже в 2007 году.

Спецификация PCIe 2.0 поддерживает как 2.5 Гб/с, так и 5 Гб/с скорости передачи, это сделано для обеспечения обратной совместимости с существующими PCIe 1.0 и 1.1 решениями. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гб/с в 5.0 Гб/с слотах, которые просто будут работать на меньшей скорости. А устройство, разработанное по спецификациям версии 2.0, может поддерживать 2.5 Гб/с и/или 5 Гб/с скорости.

Основное нововведение в PCI Express 2.0 — это удвоенная до 5 Гб/с скорость, но это не единственное изменение, есть и другие нововведения для увеличения гибкости, новые механизмы для программного управления скоростью соединений и т.п. Нас больше всего интересуют изменения, связанные с электропитанием устройств, так как требования видеокарт к питанию неуклонно растут. В PCI-SIG разработали новую спецификацию для обеспечения увеличивающегося энергопотребления графических карт, она расширяет текущие возможности энергоснабжения до 225/300 Вт на видеокарту. Для поддержки этой спецификации используется новый 2x4-штырьковый разъем питания, предназначенный для обеспечения питанием будущие модели видеокарт.

PCI Express External

И уже в этом году, группа PCI-SIG, занимающаяся официальной стандартизацией решений PCI Express, объявила о принятии спецификации PCI Express External Cabling 1.0, описывающих стандарт передачи данных по внешнему интерфейсу PCI Express 1.1. Эта версия позволяет передавать данные со скоростью 2.5 Гб/с, а следующая должна увеличить пропускную способность до 5 Гб/с. В рамках стандарта представлены четыре внешних разъема: PCI Express x1, x4, x8 и x16. Старшие разъемы оснащены специальным язычком, облегчающим подключение.

Руководство покупателя видеокарты. Версия 1.0

Внешний вариант интерфейса PCI Express может использоваться не только для подключения внешних видеокарт, но и для внешних накопителей и других плат расширения. Максимальная рекомендованная длина кабеля при этом равна 10 метров, но её можно увеличить при помощи соединения кабелей через повторитель.

Чем это может быть полезно для видеокарт? Например, это точно может облегчить жизнь любителей ноутбуков, при работе от батарей будет использоваться маломощное встроенное видеоядро, а при подключении к настольному монитору — мощная внешняя видеокарта. Значительно облегчится апгрейд подобных видеокарт, не нужно будет вскрывать корпус ПК. Производители смогут делать совершенно новые системы охлаждения, не ограниченные особенностями карт расширения, да и с питанием должно быть меньше проблем — скорее всего, будут использоваться внешние блоки питания, рассчитанные специально на определенную видеокарту, их можно в один внешний корпус с видеокартой встроить, используя одну систему охлаждения. Должна облегчиться сборка систем на нескольких видеокартах (SLI/CrossFire). В общем, с учетом постоянного роста популярности мобильных решений, такие внешние PCI Express должны завоевать определенную популярность.

В статье мы не трогаем устаревшие интерфейсы, их характеристики действительно сильно влияли на производительность даже в старые времена. Затем производители перешли на производство видеокарт, рассчитанных на интерфейс AGP (Accelerated Graphics Port), но его первой спецификации оказалось недостаточно, AGP 1.0 в некоторых случаях мог ограничивать производительность. Поэтому в дальнейшем стандарт модифицировали, версии 2.0 (AGP 4x) и 3.0 (AGP 8x) уже достигли высоких значений пропускной способности, выше которых скорость просто не росла.

Абсолютное большинство современных видеоплат рассчитано на интерфейс PCI Express, поэтому при выборе видеокарты мы предлагаем серьезно рассматривать только его, все данные о AGP приведены для справки. Хотя производители видеокарт по своей инициативе делают карты среднего уровня для интерфейса AGP (ATI RADEON X1950 PRO, NVIDIA GeForce 7800 GS и 7600 GT) до сих пор, но все они используют специальный мост для трансляции вызовов PCI Express в AGP, а новых видеочипов с поддержкой AGP давно не существует.

Итак, новые платы используют интерфейс PCI Express x16, объединяющий скорость 16 линий PCI Express, что дает пропускную способность до 4 ГБ/с в каждом направлении, это примерно в два раза больше, по сравнению с той же характеристикой AGP 8x. Важное отличие состоит в том, что PCI Express работает с такой скоростью в каждом из направлений, поэтому в некоторых случаях PCI Express может дать преимущества по сравнению с AGP. Но чаще всего пропускной способности стандарта AGP 8x достаточно, и разницы с соответствующими картами для PCI Express просто нет, разные версии видеокарт работают примерно с одной скоростью, что на AGP, что на PCI Express. Например, RADEON 9600 XT и RADEON X600 XT, для AGP и PCI Express, соответственно.

Другое дело, что будущего у AGP давно нет, и этот интерфейс следует рассматривать только с точки зрения апгрейда, все новые системные платы поддерживают только PCI Express, наиболее производительные видеокарты с интерфейсом AGP не выпускаются, а те, что есть, труднее найти в продаже. Если речь о покупке новой платы или одновременной смене системной и видеоплаты, то просто необходимо покупать карты с интерфейсом PCI Express, он будет наиболее распространен еще несколько лет, а его следующая версия будет совместима с нынешней.

4. Основные характеристики видеокарт

Современные графические процессоры содержат множество функциональных блоков, от количества и характеристик которых зависит и итоговая скорость рендеринга, влияющая на комфортность игры. По сравнительному количеству этих блоков в разных видеочипах можно примерно оценить, насколько быстр тот или иной GPU. Характеристик у видеочипов довольно много, в этом разделе мы рассмотрим самые важные из них.

Тактовая частота видеочипа

Рабочая частота GPU измеряется в мегагерцах, в миллионах тактов в секунду. Эта характеристика прямо влияет на производительность видеочипа, чем она выше, тем больший объем работы чип может выполнить в единицу времени, обработать большее количество вершин и пикселей. Пример из реальной жизни: частота видеочипа, установленного на плате RADEON X1900 XTX равна 650 МГц, а точно такой же чип на RADEON X1900 XT работает на частоте в 625 МГц. Соответственно будут отличаться и все основные характеристики производительности. Но далеко не только рабочая частота чипа однозначно определяет производительность, на его скорость сильно влияет и архитектура: количество различных исполнительных блоков, их характеристики и т.п.

В последнее время участились случаи, когда тактовая частота для отдельных блоков GPU отличается от частоты работы всего остального чипа. То есть, разные части GPU работают на разных частотах, и сделано это для увеличения эффективности, ведь некоторые блоки способны работать на повышенных частотах, а другие — нет. Из последних примеров можно назвать семейство GeForce 8800 от NVIDIA, видеочип модели GTS работает на частоте 512 МГц, но универсальные шейдерные блоки тактуются на значительно более высокой частоте — 1200 МГц.

Скорость заполнения (филлрейт)

Скорость заполнения показывает, с какой скоростью видеочип способен отрисовывать пиксели. Различают два типа филлрейта: пиксельный (pixel fill rate) и текстурный (texel rate). Пиксельная скорость заполнения показывает скорость отрисовки пикселей на экране и зависит от рабочей частоты и количества блоков ROP (блоков операций растеризации и блендинга), а текстурная — это скорость выборки текстурных данных, которая зависит от частоты работы и количества текстурных блоков.

Например, пиксельный филлрейт у GeForce 7900 GTX равен 650 (частота чипа) * 16 (количество блоков ROP) = 10400 мегапикселей в секунду, а текстурный — 650 * 24 (кол-во блоков текстурирования) = 15600 мегатекселей/с. Чем больше первое число - тем быстрее видеокарта может отрисовывать готовые пиксели, а чем больше второе - тем быстрее производится выборка текстурных данных. Оба параметра важны для современных игр, но они должны быть сбалансированы. Именно поэтому количество блоков ROP в чипах семейства G7x, на которых построено семейство GeForce 7, меньше количества текстурных и пиксельных блоков.

Количество блоков пиксельных шейдеров (или пиксельных процессоров)

Пиксельные процессоры — это одни из главных блоков видеочипа, которые выполняют специальные программы, известные также как пиксельные шейдеры. По числу блоков пиксельных шейдеров и их частоте можно сравнивать шейдерную производительность разных видеокарт. Так как большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров, то количество этих блоков очень важно! Если одна модель видеокарты основана на GPU с 8 блоками пиксельных шейдеров, а другая из той же линейки — 16 блоками, то при прочих равных вторая будет вдвое быстрее обрабатывать пиксельные программы, и в целом будет производительнее. Но на основании одного лишь количества блоков делать однозначные выводы нельзя, обязательно нужно учесть и тактовую частоту и разную архитектуру блоков разных поколений и производителей чипов. Чисто по этим цифрам прямо можно сравнивать чипы только в пределах одной линейки одного производителя: AMD(ATI) или NVIDIA. В других же случаях нужно обращать внимание на тесты производительности в интересующих играх.

Количество блоков вершинных шейдеров (или вершинных процессоров)

Аналогично предыдущему пункту, эти блоки выполняют программы шейдеров, но уже вершинных. Данная характеристика важна для некоторых игр, но не так явно, как предыдущая, так как даже современными играми блоки вершинных шейдеров почти никогда не бывают загружены даже наполовину. И, так как производители балансируют количество разных блоков, не позволяя возникнуть большому перекосу в распределении сил, количеством вершинных процессоров при выборе видеокарты вполне можно пренебречь, учитывая их только при прочих равных характеристиках.

Количество унифицированных шейдерных блоков (или универсальных процессоров)

Унифицированные шейдерные блоки объединяют два типа перечисленных выше блоков, они могут исполнять как вершинные, так и пиксельные программы (а также геометрические, которые появились в DirectX 10). Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360, этот графический процессор был разработан компанией ATI. А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились не так давно, с появлением плат NVIDIA GeForce 8800. И, похоже, что все DirectX 10 совместимые видеочипы будут основаны на подобной унифицированной архитектуре. Унификация блоков шейдеров значит, что код разных шейдерных программ (вершинных, пиксельных и геометрических) универсален, и соответствующие унифицированные процессоры могут выполнить любые программы из вышеперечисленных. Соответственно, в новых архитектурах число пиксельных, вершинных и геометрических шейдерных блоков как бы сливается в одно число — количество универсальных процессоров.

Блоки текстурирования (TMU)

Эти блоки работают совместно с шейдерными процессорами всех указанных типов, ими осуществляется выборка и фильтрация текстурных данных, необходимых для построения сцены. Число текстурных блоков в видеочипе определяет текстурную производительность, скорость выборки из текстур. И хотя в последнее время большая часть расчетов осуществляется блоками шейдеров, нагрузка на блоки TMU до сих пор довольно велика, и с учетом упора некоторых игр в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность являются одними из важнейших параметров видеочипов. Особое влияние этот параметр оказывает на скорость при использовании трилинейной и анизотропной фильтраций, требующих дополнительных текстурных выборок.

Блоки операций растеризации (ROP)

Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времен. И хотя в последнее время её значение несколько снизилось, еще попадаются случаи, когда производительность приложений сильно зависит от скорости и количества блоков ROP (см. технологические обзоры игр). Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.

Нужно еще раз отметить, что современные видеочипы нельзя оценивать только числом разнообразных блоков и их частотой. Каждая серия GPU использует новую архитектуру, в которой исполнительные блоки сильно отличаются от старых, да и соотношение количества разных блоков может отличаться. Компания ATI первой применила архитектуру, в которой количество блоков пиксельных шейдеров было в разы больше числа блоков текстурирования. Это было сделано немного преждевременно, на наш взгляд, но в некоторых приложениях пиксельные блоки используются более активно, чем остальные и для таких приложений подобное решение будет неплохим вариантом, не говоря уже о будущем. Также, в предпоследней архитектуре AMD(ATI) нет отдельных пиксельных конвейеров, пиксельные процессоры не «привязаны» к блокам TMU. Впрочем, у NVIDIA в GeForce 8800 получилось еще сложнее...

Рассмотрим ситуацию на примере видеокарт GeForce 7900 GT и GeForce 7900 GS. Обе они имеют одинаковые рабочие частоты, интерфейс памяти и даже одинаковый видеочип. Но модификация 7900 GS использует GPU с 20 активными блоками пиксельных шейдеров и текстурных блоков, а видеокарта 7900 GT — по 24 блока каждого типа. Рассмотрим разницу в производительности этих двух решений в игре Prey:

Руководство покупателя видеокарты. Версия 1.0

Разница в количестве основных исполнительных блоков в 20% дала разный прирост скорости в тестовых разрешениях. Значение 20% оказалось недостижимо потому, что производительность в Prey не ограничена на этих видеокартах только скоростью блоков TMU и ROP. Разница в разрешении 1024x768 составила меньше 8%, а в более высоких достигла 12%, что ближе к теоретической разности в частотах.

Объем видеопамяти

Собственная память используется видеочипами для хранения необходимых данных: текстур, вершин, буферов и т.п. Казалось бы, что чем её больше — тем лучше. Но не всё так просто, оценка мощности видеокарты по объему видеопамяти — это наиболее распространенная ошибка! Значение объема памяти неопытные пользователи переоценивают чаще всего, используя его для сравнения разных моделей видеокарт. Оно и понятно — раз параметр, указываемый во всех источниках одним из первых, в два раза больше, то и скорость у решения должна быть в два раза выше, считают они. Реальность же от этого мифа отличается тем, что рост производительности растет до определенного объема и после его достижения попросту останавливается.

В каждой игре есть определенный объем видеопамяти, которого хватает для всех данных, и хоть 4 ГБ туда поставь — у нее не появится причин для ускорения рендеринга, скорость будут ограничивать исполнительные блоки, о которых речь шла выше. Именно поэтому почти во всех случаях видеокарта с 320 Мбайт видеопамяти будет работать с той же скоростью, что и карта с 640 Мбайт (при прочих равных условиях). Ситуации, когда больший объем памяти приводит к видимому увеличению производительности, существуют, это очень требовательные игры в высоких разрешениях и при максимальных настройках. Но такие случаи весьма редки, поэтому, объем памяти учитывать нужно, но не забывая о том, что выше определенного объема производительность просто не растет, есть более важные параметры, такие как ширина шины памяти и ее рабочая частота. Подробнее о выборе объема видеопамяти читайте во второй части статьи.

Ширина шины памяти

Ширина шины памяти является важнейшей характеристикой, влияющей на пропускную способность памяти (ПСП). Большая ширина позволяет передавать большее количество информации из видеопамяти в GPU и обратно в единицу времени, что положительно влияет на производительность в большинстве случаев. Теоретически, по 128-битной шине можно передать в два раза больше данных за такт, чем по 64-битной. На практике разница в скорости рендеринга хоть и не достигает двух раз, но весьма близка к этому во многих случаях с упором в пропускную способность видеопамяти.

Современные видеокарты используют разную ширину шины: от 64 до 512 бит, в зависимости от ценового диапазона и времени выпуска конкретной модели GPU. Для low-end видеокарт чаще всего используется 64- и (значительно реже) 128-бит, для среднего уровня 128-бит и иногда 256-бит, ну а high-end видеокарты используют шины от 256 до 512 бит шириной.

Частота видеопамяти

Еще одним параметром, влияющим на пропускную способность памяти, является её тактовая частота. А как мы поняли выше, повышение ПСП прямо влияет на производительность видеокарты в 3D приложениях. Частота шины памяти на современных видеокартах бывает от 500 МГц до 2000 МГц, то есть может отличаться в четыре раза. И так как ПСП зависит и от частоты памяти и от ширины ее шины, то память с 256-битной шиной, работающая на частоте 1000 МГц, будет иметь большую пропускную способность, по сравнению с 1400 МГц памятью с 128-битной шиной.

Рассмотрим относительную производительность видеокарт с разной пропускной способностью на примере видеокарт RADEON X1900 XTX и RADEON X1950 XTX, которые используют почти одинаковые GPU с одними характеристиками и частотой. Основные их отличия состоят в типе и частоте используемой памяти — GDDR3 на частоте 775(1550) МГц и GDDR4 на 1000(2000) МГц, соответственно.

Руководство покупателя видеокарты. Версия 1.0

Хорошо видно, как отстает карта с меньшей пропускной способностью памяти, хотя разница никогда не достигает теоретических 29%. Разница между достигнутой частотой кадров растет с увеличением разрешения, начинаясь с 8% в 1024x768 и достигая 12-13% в максимальных режимах. Но это сравнение видеокарт с небольшой разницей в ПСП, а особенное внимание на параметры ширины шины памяти и частоты ее работы следует уделять при покупке недорогих видеокарт, на многие из которых ставят лишь 64-битные интерфейсы, что сильно сказывается на их производительности. Вообще, покупка решений на базе 64-бит шины для игр вовсе не рекомендуется.

Типы памяти

На видеокарты устанавливают несколько различных типов памяти. Старую SDR память с одинарной скоростью передачи мы рассматривать не будем, её уже почти нигде не встретишь. Все современные типы памяти DDR и GDDR позволяют передавать в два раза большее количество данных на той же тактовой частоте за единицу времени, поэтому цифру её рабочей частоты зачастую указывают удвоенной (умножают на два). Так, если для DDR памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR память, чтобы обеспечить такую же пропускную способность.

Основное преимущество DDR2 памяти заключается в возможности работы на больших тактовых частотах, а соответственно — увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт. Первой платой, использующей DDR2 память, стала NVIDIA GeForce FX 5800 Ultra. По сути, на ней стояла GDDR2 память, которая не настоящая DDR2, а нечто среднее между технологиями DDR и DDR2. После применения GDDR2 в серии GeForce FX 5800, последующие видеокарты NVIDIA использовали DDR память, но эта память получила дальнейшее распространение в GeForce FX 5700 Ultra и в некоторых более поздних mid-end видеокартах. С тех пор технологии графической памяти продвинулись дальше, был разработан стандарт GDDR3, который близок к спецификациям DDR2, с некоторыми изменениями, сделанными специально для видеокарт.

GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшениями характеристик потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. И опять же, несмотря на то, что стандарт был разработан в ATI, первой видеокартой, ее использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.

Ну а GDDR4 — это последнее поколение "графической" памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей. Первыми видеокартами с чипами GDDR4 на борту стали RADEON X1950 XTX, а у компании NVIDIA продукты на базе этого типа памяти еще не вышли. Преимущества новых микросхем памяти перед GDDR3 в том, что энергопотребление модулей может быть примерно на треть ниже. Это достигается за счет более низкого номинального напряжения для GDDR4.

Итак, видеопамять самых современных типов: GDDR3 и GDDR4, отличается от DDR некоторыми деталями, но также работает с удвоенной передачей данных. В ней применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, GDDR2 память обычно работает на более высоких частотах, по сравнению с DDR, GDDR3 — на еще более высоких, ну а GDDR4 обеспечивает максимальную частоту и пропускную способность.

5. Разъемы для подключения устройств вывода

На выбор видеокарты может повлиять и имеющийся или предполагаемый к приобретению монитор. Так, для современных LCD мониторов с DVI входом очень желательно, чтобы на видеокарте был разъем DVI. К счастью, практически на всех современных решениях сейчас есть как минимум один порт DVI. Еще одна тонкость в том, что если требуется разрешение выше 1920х1200 по цифровому выходу DVI (такие мониторы редки и дороги, но они существуют), тогда нужно обязательно выбирать видеокарту с поддержкой Dual-Link DVI, такие модели есть в семействах ATI RADEON X1000 и NVIDIA GeForce 7 и выше. Рассмотрим основные разъемы, использующиеся для подключения устройств отображения информации.

Аналоговый D-Sub разъем (также известен как VGA выход или DB-15F)

Руководство покупателя видеокарты. Версия 1.0

Руководство покупателя видеокарты. Версия 1.0

Это давно известный нам и привычный 15-контактный разъем для подключения аналоговых мониторов. Сокращение VGA расшифровывается как video graphics array (массив пикселей) или video graphics adapter (видеоадаптер). Разъем предназначен для вывода аналогового сигнала, на качество которого может влиять множество разных факторов, таких, как качество RAMDAC и аналоговых цепей, поэтому качество получаемой картинки может отличаться на разных видеокартах. Современные видеокарты обычно используют качественные компоненты и дают четкую картинку на всех поддерживаемых разрешениях, а вот старые видеоплаты в высоких разрешениях могли давать некачественную картинку.

Разъемы D-Sub были фактически единственным стандартом до времени широкого распространения LCD мониторов. Такие выходы до сих пор чаще всего используются для подключения мониторов на электронно-лучевых трубках, да и на современных телевизорах и проекторах они встречаются и по сей день, даже игровая консоль последнего поколения от Microsoft предлагает именно такой метод подключения. Но для подключения LCD мониторов рекомендуется использовать цифровые интерфейсы, самый распространенный из которых DVI.

Разъем DVI (вариации: DVI-I и DVI-D)

Руководство покупателя видеокарты. Версия 1.0

Руководство покупателя видеокарты. Версия 1.0

DVI — это стандартный интерфейс, чаще всего использующийся для вывода цифрового видеосигнала на ЖК мониторы, начиная с 19" моделей, за исключением самых дешевых. На фотографии показана видеокарта с тремя разными разъемами: D-Sub, S-Video и DVI. Существует три типа DVI разъемов: DVI-D (цифровой), DVI-A (аналоговый) и DVI-I (integrated — комбинированный или универсальный):

DVI-D — исключительно цифровое подключение, позволяющее избежать потерь в качестве из-за двойной конвертации цифрового сигнала в аналоговый и из аналогового в цифровой. Этот тип подключения предоставляет максимально качественную картинку, он выводит сигнал только в цифровом виде, к нему могут быть подключены цифровые LCD мониторы с DVI входами или профессиональные ЭЛТ-мониторы с встроенным RAMDAC и входом DVI. От DVI-I этот разъем отличается физическим отсутствием части контактов, и переходник DVI-2-D-Sub, о котором речь пойдет далее, в него не воткнуть. Чаще всего этот тип DVI применяется в системных платах с интегрированным видеоядром, на видеокартах он встречается значительно реже.

DVI-A — это довольно редкий тип аналогового подключения по DVI, предназначенного для вывода аналогового изображения на ЭЛТ приемники. В этом случае сигнал ухудшается из-за двойного цифрово-аналогового и аналогово-цифрового преобразования, его качество соответствует качеству стандартного VGA подключения.

DVI-I — это комбинация двух вышеописанных вариантов, способная на передачу как аналогового сигнала, так и цифрового. Этот тип применяется в видеоплатах наиболее часто, он универсален и при помощи специальных переходников, идущих в комплекте поставки большинства видеокарт, к нему можно подключить и обычный аналоговый ЭЛТ-монитор с DB-15F входом. Вот как выглядят эти переходники:

Руководство покупателя видеокарты. Версия 1.0

Во всех современных видеокартах есть хотя бы один DVI выход, а чаще всего универсальных DVI-I разъема ставят по два, а D-Sub вообще отсутствуют (но их можно подключать при помощи переходников, см. выше). Для передачи цифровых данных используется или одноканальное решение DVI Single-Link, или двухканальное — Dual-Link. Формат передачи — Single-Link использует один 165 МГц TMDS передатчик, а Dual-Link — два, он удваивает пропускную способность и позволяет получать разрешения экрана выше, чем 1920x1080 и 1920x1200 на 60 Гц, поддерживая режимы очень высокого разрешения, вроде 2560x1600 и 2048x1536. Поэтому для самых крупных LCD мониторов с большим разрешением, таких, как 30" модели, обязательно нужна видеокарта с двухканальным DVI Dual-Link выходом.

Разъем HDMI

В последнее время широкое распространение получает еще более новый интерфейс — High Definition Multimedia Interface. Этот стандарт обеспечивает одновременную передачу визуальной и звуковой информации по одному кабелю, он разработан для телевидения и кино, но и пользователи ПК могут использовать его для вывода видеоданных при помощи HDMI разъема.

Руководство покупателя видеокарты. Версия 1.0

Руководство покупателя видеокарты. Версия 1.0

На фото слева - HDMI, справа - DVI-I. Хотя HDMI выходы на видеокартах встречаются пока довольно редко, в дальнейшем они могут стать более распространенными, особенно на видеокартах среднего уровня, предназначенных для создания медиацентров. Просмотр видеоданных высокого разрешения на компьютере в будущем может потребовать видеокарты и монитора, поддерживающих систему защиты содержимого HDCP, и соединенных кабелем HDMI или DVI. Видеокарты не обязательно должны нести разъем HDMI на борту, в некоторых случаях подключение HDMI кабеля осуществляется через переходник на DVI.

Руководство покупателя видеокарты. Версия 1.0

HDMI — это очередная попытка стандартизации универсального подключения для цифровых аудио- и видеоприложений. Оно сразу же получило мощную поддержку со стороны гигантов электронной индустрии (в группу компаний, занимающихся разработкой стандарта, входят такие компании, как Sony, Toshiba, Hitachi, Panasonic, Thomson, Philips и Silicon Image), и большинство современных устройств вывода высокого разрешения имеет хотя бы один такой разъем. HDMI позволяет передавать защищенные от копирования звук и изображение в цифровом формате по одному кабелю, стандарт первой версии основывается на пропускной способности 5 Гб/с, а HDMI 1.3 расширил этот предел до 10.2 Гб/с.

HDMI 1.3 — это последняя спецификация стандарта с увеличенной пропускной способностью интерфейса, увеличенной частотой синхронизации до 340 МГц, что позволяет подключать дисплеи высокого разрешения, поддерживающие большее количество цветов (форматы с глубиной цвета вплоть до 48-бит). Новой версией спецификации определяется и поддержка новых стандартов Dolby для передачи сжатого звука без потерь в качестве. Кроме этого, появились и другие нововведения, в спецификации 1.3 был описан новый разъем mini-HDMI, меньший по размеру по сравнению с оригинальным.

Руководство покупателя видеокарты. Версия 1.0

Также на современных видеокартах часто встречаются композитный и S-Video (S-VHS) разъемы с четырьмя или семью штырьками. Чаще всего они используются для вывода сигнала на телевизионные приемники, и даже на S-Video композитный сигнал зачастую получают смешиванием, что негативно влияет на качество картинки. S-Video лучше по качеству, чем композитный «тюльпан», но оба они уступают компонентному выходу YPbPr. Этот стандартный выход предусматривает три раздельных разъема типа «тюльпан» (Y, Pb и Pr), по которым передается разделенная цветовая информация. Такой разъем есть на многих мониторах и телевизорах высокого разрешения, и хотя сигнал по нему передается в аналоговой форме, по качеству он сравним с D-Sub интерфейсом. Для вывода некоторых разъемов из перечисленных в этом абзаце, производители видеокарт используют специальные переходники-разветвители.

6. Выбор ценового диапазона

В продолжение темы о необходимости приобретения мощной видеокарты для игрового компьютера, рассмотрим ценовые диапазоны, сложившиеся на рынке видеоплат. В новых линейках производители обычно выпускают по несколько моделей для разных ценовых уровней. Решения начального уровня стоят дешевле всего, они поддерживают почти все функции старших чипов, но являются самыми медленными. Медленными настолько, что всех их возможностей иногда хватает только на то, чтобы запустить современную игру, но не играть в неё комфортно, не говоря уже про высокие настройки качества и разрешение экрана. Приобретение таких плат разумно только в условиях очень сильно ограниченного бюджета и/или отсутствия желания играть в современные игры.

С другой стороны, верхние модели линеек всегда стоят слишком много с точки зрения среднего пользователя (цены в $600-700 уже давно никого не удивляют), и их выбор нужно делать, хорошо подумав. Ведь нет ничего хорошего в одновременном приобретении топовой видеокарты и недоедании из-за этого :). Самые производительные из видеокарт дадут возможность выставления максимальных настроек при сохранении высокой производительности во всех играх, и позволят отодвинуть сроки следующего апгрейда далеко вперёд, но стоимость их для большинства покупателей слишком высока.

Наиболее массовыми и чаще всего имеющими наилучшее соотношение цены и производительности, являются видеокарты среднего ценового диапазона. Они находятся посередине между решениями начального уровня и топовыми, обеспечивают приемлемую производительность и стоят не слишком дорого. Но для апгрейда или покупки новой видеокарты я бы все же советовал брать как минимум решения из так называемого верхнего mid-end диапазона (а то и нижнего high-end, если хватает денег), чтобы иметь хоть какой-то запас на будущее. Иначе захочется сменить видеокарту уже через год-полтора.

Кстати, при выходе новых линеек видеокарт не стоит навсегда забывать о старых. Так, решение из верхнего диапазона прошлой линейки может оказаться производительнее и выгоднее новой видеокарты среднего ценового диапазона. Даже с учетом того, что последняя имеет новые возможности, одинаковые для всей линейки, зачастую может оказаться так, что они вам просто не понадобятся. Но если отличия новой линейки значительны, в них появилась аппаратная поддержка более новых версий DirectX и версий шейдерных моделей, то в новый компьютер не стоит устанавливать устаревшую видеокарту, лучше будет поднапрячься и купить модель среднего диапазона из самой свежей линейки. В обратном случае, менять видеокарту, скорее всего, придется гораздо раньше, чем планировалось изначально.

Приведем свежий пример — в 2006 году владельцы видеокарт ATI RADEON X800 и X850 столкнулись с тем, что некоторые современные игры (Splinter Cell: Double Agent и Rainbow Six: Vegas) просто не работают на их, казалось бы, довольно производительных системах. А на менее производительных из низшего ценового диапазона конкурента — работают, хотя и медленно. Всё дело в том, что год-два назад у этих пользователей был выбор между решениями NVIDIA с поддержкой SM 3.0 и решениями ATI без таковой. Тогда казалось, что игры, требующие SM 3.0 в обязательном порядке, не появятся в обозримом времени, и они приобрели изделия на базе видеочипов ATI. В реальности получилось иначе. Отсюда урок — всегда обращайте внимание на поддерживаемые видеокартой возможности и версии DirectX, но не считайте эту поддержку главным свойством видеокарт, обращайте внимание и на производительность, оценивайте продукт комплексно!

Разделение видеокарт на ценовые диапазоны:

  • low-end с ценой менее $99 (GeForce 7300, RADEON X1300, RADEON X1550)
  • нижний mid-end — $100-199 (GeForce 7600, RADEON X1650)
  • верхний mid-end — $200-299 (GeForce 7900, RADEON X1950 PRO)
  • нижний high-end — $300-499 (GeForce 8800 GTS, RADEON X1950 XT/XTX)
  • верхний high-end — от $500 и выше (GeForce 8800 GTX)

    Примеры видеокарт по ценовым диапазонам приведены на момент написания статьи, в дальнейшем они будут корректироваться. За основные цены в данном случае взяты те, которые рекомендуются производителем для розницы, так называемые MSRP. Розничные цены на нашем рынке (в Москве) также будут приводиться в тексте, на них основана последняя часть путеводителя — практические рекомендации по покупке видеокарты для всех ценовых диапазонов.

    Несмотря на то, что low-end не имеет нижней границы, по сути, по цене ниже $50 уже нет достойных видеокарт, и если уж очень хочется приобрести видеокарту именно из этого диапазона (то есть, подразумевая, что покупатель не планирует запуска современных 3D игр на компьютере вообще), то имеет смысл обратить внимание на интегрированную в чипсеты графику. Она поддерживает многие из возможностей отдельных видеокарт, но не обладает достаточным 3D быстродействием, в точности как и самые медленные из отдельных.

    Ну а те видеоплаты, что продаются по ценам выше $500 — это решения для энтузиастов, которые могут себе позволить выложить за видеокарту не одну сотню в условных единицах. Отдельным примером тут являются системы SLI и CrossFire, которые позволяют объединять в одной системе две (в некоторых случаях даже и более) видеокарты одной модели.

    Ещё раз подчеркнем, что от выбора ценового диапазона видеокарты игрового компьютера зависит очень многое. Этот выбор определяет то, насколько комфортно вам будет играть, и какое качество изображения при этом будет. Для того чтобы вы лучше осознали разницу между игрой на видеокартах с разными возможностями и из разных ценовых диапазонов, я приведу несколько скриншотов, показывающих разницу в качестве при разных настройках.

    Call of Duty 2
    Руководство покупателя видеокарты. Версия 1.0 Руководство покупателя видеокарты. Версия 1.0

    Call of Juarez
    Руководство покупателя видеокарты. Версия 1.0 Руководство покупателя видеокарты. Версия 1.0

    Некоторые могут возразить и сказать, что нет большой разницы между показанными скриншотами. Подумаешь, нет теней, постобработки, освещение примитивное, отсутствует попиксельная обработка, текстуры похуже, играть ведь это не мешает... На что я могу лишь заметить, что из таких мелочей и собирается реалистичная картинка, когда отсутствие даже одной из приведенных составляющих может испортить всю картину.

    Мы же стремимся к реалистичности и максимальному качеству, а кто этого не хочет, тот вполне может довольствоваться и дешевыми видеокартами. В общем, каждый волен думать и выбирать сам. Но учтите, что эти скриншоты еще не показывают разницу в разных разрешениях экрана, уровнях антиалиасинга и сняты не на крайних минимальных и максимальных настройках. В реальности разница может оказаться еще большей. Например, такой:

    Gothic 3

    Руководство покупателя видеокарты. Версия 1.0 Руководство покупателя видеокарты. Версия 1.0

    Вот это уже экстремальный случай, со сравнением минимальных настроек и максимальных. Кстати, конкретно в Gothic 3 на интегрированном видео и на low-end видеокартах вы вряд ли поиграете даже с минимальными настройками, так как банально не хватит производительности. Кстати, относительную производительность решений разного ценового уровня можно легко оценить по следующему графику одного из 3DGiТогов:

    Руководство покупателя видеокарты. Версия 1.0

    Были взяты по две видеокарты ATI и NVIDIA разных ценовых диапазонов, чтобы никому обидно не было. Как видите, производительность видеокарт хорошо масштабируется в зависимости от их ценового уровня. На видеокарте за $100 можно поиграть только в самом низком разрешении, да еще и без особого комфорта (при том, что видеокарты самого низкого уровня мы в расчет вообще не брали!), верхний mid-end дает возможность комфортной игры в более высоком разрешении, ну а high-end модели предоставляют комфортную частоту кадров даже в самых высоких разрешениях, вплоть до 2560x1600. Всё это, конечно, при условии максимальных настроек качества.

    SLI и CrossFire

    Многие современные системные платы и платформы допускают одновременную установку двух видеокарт, что позволяет получить увеличенную производительность видеосистемы. Причем, сначала можно приобрести одну видеокарту, дополнив систему второй при дальнейшем апгрейде. Такой метод модернизации видеоподсистемы имеет как свои плюсы, так и минусы. Вопросы работы таких конфигураций непросты, существует несколько ограничений и нюансов.

    Использование нескольких игровых видеокарт в одной системе было впервые осуществлено компанией 3dfx в далеких 90-х. Еще тогда 3dfx вышла на рынок с видеокартами Voodoo 2, имеющими возможность парной работы над одной и той же сценой при помощи технологии SLI. После этого, технологии многочиповой работы игровых видеокарт широкого распространения не получили, хотя те же 3dfx и ATI выпускали подобные системы для профессиональных применений. На бытовой рынок технология вернулась с появлением NVIDIA SLI и ATI CrossFire. Первая вышла раньше и получила значительно большее распространение, в силу своего удобства (отсутствия необходимости в специальных моделях видеокарт, подобно CrossFire Edition) и более раннего выхода.

    По данным компании Valve, собранным при помощи сервиса Steam, из всех систем на базе двух и более видеокарт и видеочипов (двухчиповых видеокарт, вроде GeForce 7950 GX2), решения ATI занимают всего лишь 4%, а остальные 96% основаны на видеочипах NVIDIA. В этом «виноваты» еще и двухчиповые платы NVIDIA, на которые установлено по два комплекта GPU и микросхем памяти, вроде NVIDIA GeForce 7950 GX2.

    Решения с применением пары видеокарт или двухчиповые платы имеют плюсы и минусы. Из плюсов — повышение производительности и/или качества изображения, SLI/CF действительно помогают увеличить скорость, когда из одиночной карты выжато уже всё, а в некоторых случаях можно и улучшить качество картинки при помощи новых режимов антиалиасинга. Явные же минусы таких решений в их высокой стоимости (платить придется за две видеокарты, подбирать специальную системную плату, которая дороже стоит), во встречающихся проблемах совместимости (не во всех играх можно получить увеличение производительности или качественные улучшения), в два раза более высокий уровень энергопотребления и тепловыделения, который может привести к необходимости смены блока питания системы и улучшению схемы охлаждения ПК.

    Самый важный недостаток SLI и CF — отсутствие двукратного прироста производительности во всех приложениях. Две платы в совместной работе хотя и дают прирост производительности, но он чаще всего составляет 1.5-1.7 раза, а иногда и того меньше. В некоторых случаях прироста скорости нет вообще или он отрицательный, если в драйверах не сделана специальная оптимизация для конкретной игры. Именно поэтому конфигурации SLI и CrossFire на базе недорогих видеоплат оправдываются только в случае последующего «быстрого» апгрейда — покупки дополнительной видеокарты, соответствующей уже имеющейся. В случае же покупки новой системы, более дорогое одиночное решение будет всегда быстрее и удобнее пары дешевых плат. SLI и CrossFire имеют смысл только в тех случаях, когда производительность нужна любой ценой!

    Кроме того, для SLI нужны только специальные системные платы, основанные на чипсетах NVIDIA с поддержкой SLI, а для CrossFire подойдут только платы на соответствующих чипсетах ATI(AMD) и некоторых наборах логики производства компании Intel, имеющие на борту два физических PCI Express x16 слота. Эти платы чаще всего из верхнего ценового сегмента, и стоят соответствующе.

    В случае с большинством систем CrossFire дело дополнительно осложняется необходимостью применения специальной версии графической карты, имеющей специальный разъем — CrossFire Edition. У NVIDIA SLI таких проблем нет, для соединения двух обычных карт используется специальная плата, а также слоты PCI Express. Компания ATI сделала подобное решение лишь после выхода некоторых из современных моделей карт — RADEON X1950 PRO и RADEON X1650 XT, которые работают, обмениваясь данными по PCI Express (хотя режим с использованием карты CrossFire Edition обеспечивает более высокую производительность) и специальным мостикам. Планируется также, что все видеокарты новой серии RADEON X2900 будут поддерживать режим CrossFire без мастер-карты, подобно указанным выше решениям.

    Чтобы было понятно, что пользователь получает от CrossFire и SLI, рассмотрим диаграмму сравнительной производительности одной видеокарты NVIDIA GeForce 8800 GTX и связки двух таких карт в игре F.E.A.R., результаты взяты из одного из 3DGiТогов:

    Руководство покупателя видеокарты. Версия 1.0

    Хорошо видно, что прирост производительности составил от 62% в разрешении 1024x768 до 98-100% в наиболее высоких разрешениях. Но игра F.E.A.R. удобна для SLI/CrossFire, производительность в ней ограничена, прежде всего, филлрейтом и производительностью блоков пиксельных шейдеров, поэтому она и показывает двукратный прирост в тяжелых режимах. В большинстве же игр такого добиться намного сложнее, попадаются проекты, где и 50-60% считается хорошей цифрой, а 100% прирост не получится ни в каких условиях.

    7. Выбор объема видеопамяти

    Производительность видеокарты определяется не только мощностью GPU. Любому чипу нужны большой объем выделенной памяти и высокая пропускная способность при записи и чтении различных данных: текстур, вершин, содержимого буферов. Даже мощный видеочип можно «задушить» малым объемом видеопамяти с медленным доступом, поэтому её характеристики (а также характеристики видеочипов по работе с внешней памятью) являются одними из важнейших.

    Микросхемы памяти, количество которых на некоторых экземплярах достигает уже 12 штук, обычно располагаются на плате вокруг видеочипа. В некоторых случаях для них не используется даже пассивное охлаждение, но чаще всего применяется общий кулер, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce 8800 GTS со снятым устройством охлаждения:

    Руководство покупателя видеокарты. Версия 1.0

    Современные видеокарты оснащаются разным объемом локальной видеопамяти, обычно от 128 Мбайт до 1024 Мбайт (1 гигабайт). Чаще всего на low-end и mid-end видеокарты ставят 256 Мбайт памяти, а на high-end уже 512 Мбайт и выше, но есть и некоторые исключения. Чем больше памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) в ней можно хранить, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры.

    Для того чтобы было проще ориентироваться, приведем таблицу среднего использования видеопамяти некоторыми из современных 3D игр в режиме максимальных настроек, при разрешении 1024x768 и использовании антиалиасинга уровня 4x (там, где это возможно), информация взята из технологических обзоров игр:

    Руководство покупателя видеокарты. Версия 1.0

    Как вы видите, почти все современные игры требовательны к объемам видеопамяти, хотя среди рассмотренных игр есть и исключения, которым будет достаточно 128 Мбайт видеопамяти. Минимально необходимый объем локальной памяти для видеокарт, судя по этой таблице, составляет 256-320 Мбайт, 128 Мбайт будет недостаточно, а вот более 320 Мбайт редко где потребуется. Впрочем, в более высоких разрешениях и будущих играх требования изменятся, так что видеокарту лучше подбирать с запасом. Но что можно сказать точно, так это то, что более 512 Мбайт в ближайшие пару лет вряд ли понадобится.

    В некоторых случаях бывает так, что указанное на коробке количество видеопамяти не равно объему установленных на плату микросхем. Такое было ранее в случае low-end видеоплат, работающих с частью системной памяти при помощи технологий TurboCache от NVIDIA и HyperMemory от ATI. В характеристиках видеокарт с поддержкой этих технологий, в маркетинговых целях указывался объем памяти (в т.ч. и часть ОЗУ), который может использоваться видеочипом, равный 128 Мбайт, в то время как в реальности на них установлен меньший объем — 16-32 Мбайт. Нужно внимательно читать материалы нашего сайта, чтобы не попадаться на подобные ухищрения в будущем, если они будут. А пока что можно жить спокойно, сейчас в таких видеокартах уже никто не видит смысла, их нишу заняли интегрированные чипсеты.

    Ну хорошо, с имеющимися разновидностями видеокарт по объему локальной памяти мы разобрались. Но ведь объём памяти для видеокарт — это еще не всё, и даже зачастую не главное! Очень часто бывает так, что на дешевые видеокарты ставят большое количество памяти, чтобы нарисовать красивые цифры в ценниках и на коробках, с расчетом на то, чтобы они хорошо продавались. Но для слабых видеокарт в этом смысла нет, они все равно не смогут выдавать приемлемую частоту кадров на высоких настройках, в которых и используется большие объемы текстур и геометрии.

    Продавцы иногда используют объем видеопамяти в качестве основной характеристики видеокарт, и это часто вводит в заблуждение простых покупателей, плохо знакомых с реальным положением дел. Сравним производительность решений с разным количеством видеопамяти на примере двух одинаковых видеокарт NVIDIA GeForce 8800 GTS, с единственным отличием — на первой установлено 320 Мбайт памяти, а на второй — 640 Мбайт. Любой продавец вам скажет, что вторая видеокарта значительно быстрее первой, кроме случаев, когда в магазине есть модели с 320 Мбайт, а другие отсутствуют (редчайшие случаи честных и одновременно компетентных продавцов мы в расчет не берем). А что же на самом деле? Смотрим цифры, полученные в двух играх:

    Руководство покупателя видеокарты. Версия 1.0

    Руководство покупателя видеокарты. Версия 1.0

    Как видите, в большинстве режимов объем видеопамяти влияет на производительность незначительно, лишь в сверхвысоких разрешениях и с максимальными настройками качества появляются провалы, когда 320 Мбайт вариант заметно отстаёт от более дорогой карты. Но в целом можно считать, что объем памяти не слишком сильно сказывается на скорости, и сравнивать две видеокарты только по количеству памяти не стоит.

    Важное замечание! Речь идет об объемах памяти не менее 256 Мбайт! В этом случае, примеры, когда объем памяти сказываться на производительности, весьма редки, но если сравнивать 128 Мбайт и 256 Мбайт решения, то такие выводы не являются верными. Дело в том, что разработчики игровых приложений рассчитывают используемые в играх ресурсы так, чтобы они входили в локальную видеопамять наиболее распространенных на рынке видеокарт, он на данный момент как раз равен 256 Мбайт (в редких случаях чуть больше). И если видеопамяти меньше, то современные игры или будут тормозить, подгружая данные из оперативной памяти, или не дадут выставить максимальные настройки, а может быть, и то и другое вместе.

    Еще один момент — расчетный объем видеопамяти у игровых разработчиков постоянно растет, несколько лет назад было вполне достаточно 128 Мбайт, теперь появились проекты, в которых и 256 Мбайт недостаточно. Таких пока мало, но они уже появляются (см. таблицу). Поэтому, в случае небольшой разницы в цене между видеокартами с разными объемами памяти при прочих равных условиях (частота и ширина шины), следует покупать плату с большим объемом. Но без погони за цифрами — никакой low-end карте не помогут 512 Мбайт памяти. Равно как и объем в 1 ГБ на данный момент просто не нужен. В общем, можно сказать, что для low-end и mid-end оптимальным объемом является 256 Мбайт, для high-end — 512 Мбайт или, с небольшой натяжкой — 320 Мбайт. Больший объем пока что просто очень редко используется.

    Подробнее о пропускной способности памяти

    Еще одна важная характеристика, о которой мы уже говорили — пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные и геометрические данные, и чем быстрее записываются рассчитанные пиксели, тем выше будет производительность.

    Пиковая пропускная способность памяти рассчитывается просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce 8800 GTS с шиной 320-бит и частотой видеопамяти 800(1600) МГц, ПСП равна:

    800 МГц * 2 (передача по двум фронтам) * 40 байт (перевод ширины шины в байты) = 64000 Мбайт/с = 64 Гбайт/с

    Если с частотой памяти все понятно, ее обычно и на коробках пишут, и в характеристиках прописывают прямо, то с шиной сложнее, она не всегда явно указана производителем, поэтому на нее нужно обращать особое внимание. Большинство современных видеокарт используют 128-битную или 256-битную шину памяти, но некоторые недорогие платы оснащаются лишь 64-битной шиной, и это нигде широко не афишируется. Для производителя это и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. Две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, сможет обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины.

    Поэтому, при выборе между видеокартой с большим объемом видеопамяти и меньшим, нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя low-end решениями с 256 и 512 Мбайт памяти, нет смысла гнаться за вторым вариантом, видеокарта низкого уровня просто не получит большой прибавки в производительности от этого. Другой пример — видеокарты с разным объемом, но разными же частотами видеопамяти. Тут нужно выбирать, исходя из того, какого уровня видеокарта и насколько разные частоты, не забывая и про цену, естественно.

    Например, из high-end решения с 320 Мбайт и более высокими тактовыми частотами против такой же 640 Мбайт карты со стандартными частотами и более высокой ценой, на данный момент выгоднее будет первая видеокарта, так как она обеспечит большую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. В большинстве режимов разогнанные видеокарты обгоняют видеокарту с обычными частотами, но большим объемом памяти. И только в сверхвысоких разрешениях в два раза больший объем сказывается на их скорости. Конечно, необходимо учитывать растущие потребности игр в видеопамяти, вполне может сложиться так, что через год ситуация изменится на противоположную.

    8. Выбор видеочипа, модели и производителя видеокарты

    Основные производители видеочипов

    Выбор производителя графического процессора для игровой видеокарты в последнее время достаточно прост. По сути, на рынке дискретных видеочипов существует лишь два мощных производителя: компания NVIDIA и компания AMD, производящая соответствующие изделия под торговой маркой ATI. Именно эти две компании выпускают подавляющее большинство GPU для выделенных (не встроенных в чипсет) видеокарт и только на их продукцию и стоит ориентироваться при покупке игровой видеокарты.

    Руководство покупателя видеокарты. Версия 1.0 Руководство покупателя видеокарты. Версия 1.0

    Да, не так давно продавались и весьма редкие видеокарты на основе чипов других производителей, например от S3 Graphics, подразделения VIA Technologies. Никаких успехов на мировом рынке они не добились, продаваясь в основном на внутреннем китайском. Поэтому они могут рассматриваться лишь с музейной точки зрения, хотя производитель продолжает работу над созданием современных GPU и даже что-то анонсируют изредка (кстати, анонс чипов с поддержкой DirectX 10 планируется сделать этим летом). Может быть, в будущем на рынке и появится третий мощный игрок, но это вряд ли случится раньше того времени, когда (и если) CPU и GPU сольются в единое устройство.

    На момент написания статьи, наиболее интересными являются видеокарты, основанные на чипах серий ATI RADEON X1000 и NVIDIA GeForce 7 и 8. Карты GeForce 8-й серии с большим отрывом лидируют как по производительности, так и по возможностям, это первые видеокарты на рынке с поддержкой DirectX 10, но они пока что слишком дорогие и входят лишь в high-end ценовой диапазон, особенно на нашем рынке с вечно завышенными ценами.

    Выбор между ATI и NVIDIA непрост, в каждый момент времени в каждом из ценовых диапазонов есть свои лидеры, и однозначно указать лучшего производителя нельзя. Кроме того, у каждой серии видеокарт есть свои достоинства и недостатки, так, GeForce 7 не поддерживает мультисэмплинг для FP16 буферов (проще говоря — нет возможности включения антиалиасинга совместно с HDR рендерингом), а у ATI традиционно немного похуже дела с производительностью некоторых OpenGL приложений и нет поддержки выборки текстур из вершинных шейдеров, что хоть и очень редко, но всё же используется в играх, например, в авиасимуляторах. Зато у последних решений ATI из линейки X1000 явно больше мощи в блоках пиксельных шейдеров, что может положительно сказываться на производительности современных игр. А у GeForce 8 непревзойденное качество текстурной фильтрации и антиалиасинга. В общем, разница есть, хотя и не всегда явная, нужно выбирать в каждом конкретном случае, на основе обзоров видеокарт.

    Выбор модели видеокарты

    Если вы не хотите платить за производительность любую цену, а выступаете за разумные траты, то нет смысла в гонке за решениями верхнего уровня. В таком случае, лучшим выбором будут видеокарты среднего (или высокого среднего — верхнего mid-end) класса, которые дадут комфортную частоту кадров и качественную картинку во всех современных играх с приличными, пусть и не максимальными, настройками качества.

    Конкретную модель видеокарты из выбранного ценового диапазона можно подобрать, используя данные, например, из 3DGiТогов и справочных материалов по моделям видеокарт.

    Но в этих материалах приведены лишь теоретические характеристики всех существующих современных видеокарт, сделать окончательные выводы на их основе трудно. Очень удобно делать свой выбор, основываясь на периодическом исследовании производительности видеокарт в материалах сайта ixbt.com под названием 3DGiТоги. Там ежемесячно исследуется как производительность видеокарт в самых современных играх, так и их качественные характеристики, с приведением списка отмеченных проблем в играх и соответствующими скриншотами.

    Что еще важнее для нас с вами — там есть рейтинги видеокарт в виде наглядных таблиц, показывающих относительную производительность решений, в том числе и с учетом их цены. Из которых можно выбрать наиболее выгодное на данный момент решение, имеющее лучшее соотношение цены, возможностей и производительности. Конкретные рекомендации по выбору GPU и модели видеокарты на основе материалов из 3DGiТогов, даны в последней части путеводителя, они периодически обновляются, чтобы следовать тенденциям быстро изменяющегося рынка.

    Выбор конкретного производителя

    Сами фирмы AMD и NVIDIA не продают готовые видеокарты, это делают их партнеры, такие известные производители, как ASUS, Gigabyte, MSI, Sapphire, Foxconn, BFG, Gainward, Leadtek, Chaintech, Palit, XFX и многие другие. Все они, вместе со своими более мелкими конкурентами, производят и продают видеокарты на базе GPU от двух вышеуказанных компаний. И у отдельных решений иногда есть свои плюсы и минусы, важные и не очень. Давайте разберёмся, на что стоит обращать внимание, а о чем можно и не задумываться, уже имея в виду всю ту информацию о характеристиках видеокарт, которая была описана нами ранее.

    В прошлом, у видеоплат встречались недочёты, связанные с большим количеством производителей самого разного уровня, которые сами занимались разработкой дизайна плат и их выпуском. Иногда они допускали ошибки, и пользователи получали проблемы со стабильностью, качеством изображения, перегревом и т.п. Сейчас же, когда основная масса видеокарт производится на базе референсного дизайна, большинство этих проблем просто исчезло. В реальности теперь могут встретиться разве что плохо продуманные конструкции кулеров или установленная память с худшими характеристиками, но это обычно относится к low-end и нижнему mid-end секторам рынка, и очень редко бывает в верхних классах.

    Абсолютное большинство high-end видеокарт (RADEON X1900XT - X1950XTX, GeForce 7800 GTX - 8800 GTX) с определенного времени и по сей день, производятся на определенных заводах по заказу AMD и NVIDIA, их партнеры по выпуску готовых продуктов покупают у них эти уже изготовленные видеокарты и продают под своей торговой маркой, иногда меняя системы охлаждения, наклеивая свои наклейки, комплектуя играми и прочими завлекательными штуками. Даже кулеры на дорогих платах производители меняют редко, чаще всего у всех производителей карты абсолютно одинаковы, и отличаются наклейками, как максимум. Ну и тактовыми частотами иногда, если NVIDIA или AMD разрешили выпуск разогнанных решений.

    Руководство покупателя видеокарты. Версия 1.0

    Руководство покупателя видеокарты. Версия 1.0

    Хорошо видно, что отличия только в наклейках на кулере. Причем, это со всеми топовыми продуктами так! Были RADEON Х800 и GeForce 6800 верхними моделями линеек — их делали только по заказу ATI и NVIDIA, остальные покупали у них готовое. Стали топовыми RADEON X1800 и GeForce 7800 — с ними повторилось то же самое. И лишь когда решения переходят в нижние ценовые диапазоны, производители чипов начинают продавать отдельные GPU партнерам, для того, чтобы они уже сами производили платы полностью. Так происходит не со всеми решениями, конечно, некоторые просто исчезают из линеек (например, RADEON Х1800 XT и GeForce 6800 Ultra), заменяясь более новыми моделями, и уже никто из производителей их не делает сам.

    В общем, у high-end карт отличий практически нет, есть лишь малое количество моделей с отличающимися в лучшую сторону характеристиками, а вот для менее дорогих плат уже возможны варианты. Особенно внимательно нужно смотреть за low-end сектором и тем более, так называемыми OEM комплектациями (платы в антистатических пакетиках, без коробки), в этом случае желательно читать обзоры на сайте и обсуждения конкретных решений в конференциях. Особенно внимательно смотрите на установленную память, если она не закрыта радиаторами, именно на ней чаще всего стремятся сэкономить некоторые производители бюджетных решений. Впрочем, значительно реже встречаются и карты с более быстрой, чем необходимо, памятью.

    Несмотря на то, что все топовые видеокарты одинаковы и выпускаются на одних и тех же заводах под надзором производителей чипов из одних комплектующих, некоторые из них имеют повышенные частоты относительно номинальных. Такие продукты просто проходят тестирование в лабораториях производителей карт уже после приобретения их у чипмейкеров. Там проходит отбор плат, способных к работе на повышенных частотах, не прошедшие его карты идут на обычные продукты со стандартными частотами, а отобранные выпускаются под другим названием.

    Вообще же, совет по выбору определенного производителя дать невозможно, слишком многое тут зависит от конкретных моделей видеокарт. Можно лишь дать некоторые базовые рекомендации. Желательно покупать так называемые retail видеокарты — продающиеся в коробках и с определенным комплектом поставки, так как в виде ОЕМ решений можно купить продукт с отличающимися от ожидаемых характеристиками, пониженными частотами и т.п., что чаще встречается на видеокартах нижних ценовых диапазонов. Хотя слепо не доверять OEM решениям тоже неправильно, есть среди них и достойные видеокарты, с обычными характеристиками и более низкой ценой.

    Для того чтобы не брать первое, что попадется, весьма желательно перед покупкой найти и внимательно прочитать обзоры интересующих вас моделей видеокарт. Там есть фотографии коробок, самих плат и их комплектов поставок. При покупке видеокарты это даст определенную уверенность в характеристиках, если и карта и коробка будут точно такими же. И особенное внимание нужно уделить характеристикам, указанным на коробках, там часто пишут наименование модели, модификации, тактовые частоты и другие технические характеристики из рассмотренного нами ранее списка.

    Ну а среди видеокарт верхних ценовых диапазонов, верхнего mid-end и high-end, производимых на одном и том же заводе и почти не отличающихся друг от друга, предпочтительнее искать решения с нестандартными системами охлаждения, которые чаще всего обладают лучшими техническими характеристиками по эффективности охлаждения и шуму. В остальном, следует руководствоваться, прежде всего, ценой, комплектом поставки и гарантийным сроком.

    9. Неявные особенности выбора

    При выборе видеокарт следует учитывать и некоторые другие их особенности, на которые стоит обращать внимание, и которые мы сейчас вкратце рассмотрим. К таким особенностям относятся различные характеристики по электропитанию, тепловыделению и охлаждению, а также физические размеры видеокарт.

    Электропитание

    Большинству современных видеокарт верхнего уровня обычно не хватает электропитания, получаемого ими через PCI Express слот, и они требуют дополнительного питания. Для этого на краю платы устанавливаются специальные шестиштырьковые разъемы (см. фото). Такие же разъемы есть и на новых блоках питания, что позволяет подключать провода без переходников. Но если на существующем блоке питания нет таких разъемов, можно воспользоваться переходником (или переходниками), позволяющим подключить любой четырехштырьковый разъем типа Molex, входящим в комплект всех таких видеокарт.

    Руководство покупателя видеокарты. Версия 1.0

    Как видите, самые «прожорливые» модели видеоплат нуждаются сразу в двух разъемах питания, в дополнение к 75 Вт по PCI Express. И главное тут — чтобы блок питания мог обеспечить требуемое для видеокарты питание. Современные high-end видеокарты и видеокарты ближайшего будущего в одиночку потребляют до 150-200 Вт, и они одни нуждаются в 12-18 А по линии 12 В от БП только на видеокарту! Поэтому, подбирая блок питания для мощной системы, нужно обязательно учитывать, что кроме видеокарты, в ПК много других потребителей, и стоит обращать внимание на БП, дающие не менее 25-30 А по 12 В каналам. Видеокарты среднего уровня могут довольствоваться питанием по PCI Express, но им тоже нужны качественные блоки питания, не экономьте на этом.

    Системы охлаждения и физические размеры

    Второй важный момент — системы охлаждения. Так как видеокарты потребляют много энергии, они выделяют и большое количество тепла, его нужно отводить от них при помощи устройств охлаждения, так называемых кулеров. Без систем охлаждения или с их низкой эффективностью видеочип перегреется и выйдет из строя. Охлаждение на сравнительно медленных видеокартах может осуществляться при помощи пассивных систем (радиаторов), но чаще всего применяются активные, с радиатором (или радиаторами) и вентилятором (или вентиляторами).

    Чем больше поверхность радиатора, тем выше его эффективность (при прочих равных, например, материале). Часто сложно или невозможно установить радиатор необходимого размера для эффективного охлаждения, да и площадь чипов не позволяет сделать это, поэтому приходится применять системы на базе тепловых трубок, которые улучшают теплопередачу. Эти трубки позволяют использовать для охлаждения маленьких чипов большие системы охлаждения, обеспечивающие эффективный теплоотвод.

    Чаще всего кулер видеокарты является активным, он состоит из радиатора с вентилятором, продувающим воздух через радиатор. Такие кулеры бывают как однослотовыми (занимающими пространство одного слота расширения), так и двухслотовыми (соответственно, занимающими два слота). Однослотовый кулер не мешает установке карт расширения в соседний слот, а вот кулеры на high-end видеокартах часто имеют слишком большие размеры и не позволяют установить карту в соседний слот, расположенный ниже видеоплаты, поэтому они и называются двухслотовыми. Такие устройства обычно сделаны в виде турбины и выбрасывают горячий воздух наружу через заднюю панель, что улучшает общее охлаждение системы и снижает температуру воздуха в системном блоке.

    Руководство покупателя видеокарты. Версия 1.0

    Но не только толщина кулера видеокарты может являться препятствием к её установке. Некоторые из топовых моделей видеокарт обладают и слишком большой длиной печатной платы. Та же самая GeForce 8800 GTX настолько длинная (длина ее PCB — 270 мм, до этой модели производители делали карты длиной максимум 220 мм), что не входит в некоторые распространенные корпусы с несъемными корзинами для жестких дисков. А в тех, в которые она входит, между картой и деталями корпуса остается несколько миллиметров свободного пространства. Этот факт также необходимо учитывать при покупке видеокарты.

    Бесшумные системы охлаждения

    Еще одним важным вопросом для многих пользователей является вопрос шумности системы охлаждения. Некоторые из кулеров на видеокартах имеют высокооборотистые вентиляторы небольшого размера, которые слишком сильно шумят, особенно при повышении температуры видеочипа. Тут можно лишь посоветовать внимательно читать наши материалы по конкретным моделям видеокарт и выбирать для себя подходящую, так как они могут сильно отличаться друг от друга, если это только не копии референсной платы. Если вы хотите собрать совсем бесшумную систему, то стоит поискать модель видеокарты с пассивным охлаждением, без вентилятора вовсе. Но такие системы редко бывают из наиболее производительных моделей, чаще всего дело ограничивается моделями из среднего ценового диапазона.

    Руководство покупателя видеокарты. Версия 1.0

    Как видите, пассивное охлаждение тоже может быть настолько большого размера, что создаст неудобства при размещении комплектующих в корпусе. Такое решение может мешать другим компонентам системы и уж точно не будет способствовать понижению температуры в плохо вентилируемом корпусе. Если уж ставить такие модели, то охлаждение всего корпуса нужно продумывать очень тщательно.

    to be continue...


  •   Источник: ixbt.com
     



    Поделиться с друзьями:


    Другие новости по теме
     
    Вы не авторизованный пользователь. Чтобы воспользоваться всеми возможностями сайта, зарегистрируйтесь.
     

    Комментарии

    atantoni 10 марта 2007 00:11
    Хорошая статейка )


    --------------------
    Umbrella Inc.

    Intel Core 2 Extreme QX9650 - 3.0 ГГц, Кэш 12Мб (Cooler Thermaltake Big Typhoon VX)
    ASUS Maximus Formula
    SB Creative X-Fi XtremeGamer
    DDR2 800 Mhz Corsair 2Gb x 4
    ASUST 4870X2/HTDI
    HDD RAID 2x1 Tb
    Monitor LCD 24" BenQ FP241VW Silver-Black Wide 1920x1200 D-Sub DVI-D S-Video Component HDMI Hub USB2.0
    Bigtower Thermaltake Black Eureka E-ATX
    Thermaltake PurePower RX 600W (24+8+4+3x6пин)

    3DMark 06 (1920x1200, AA 8x=Quality 2, AF 8x -5780 Score, 1280x1024 Default - 15255 Score)

    -Ноутбук Samsung R560
     
     
     

    Otakon 11 марта 2007 20:58
    Alix Молодца побольше бы таких статеек. Как говорится готично, тьфу ты познавательно =)


    --------------------
    Да я такой
     
     
     
    Добавление комментария
    Ваше имя
    Ваш Email
    Код Включите эту картинку для отображения кода безопасности
    обновить код
    Введите код