Кто в системнике самый голодный? Продолжаем изучать электроаппетиты железа

В предыдущей части мы рассмотрели эволюцию аппетитов процессора. В нынешней же статье продолжим тему и поговорим о других потребителях блока питания.

Видеокарты – настоящая бездонная глотка современных компьютеров. Их энергопотребление стало заметным примерно с последних 3Dfx Voodoo (поскольку они были многочиповыми), GeForce FX и Radeon 9500-9800. Именно этим картам стало не хватать стандартной для разъема AGP мощности.

Своя розетка

Через AGP передается три основных напряжения в системе – 3,3 В, 5 В, 12 В. Согласно спецификации AGP 3.0, токи по этим линиям могут доходить до 6А, 2А и 1А соответственно. Стало быть, максимальная передаваемая через него мощность составляет порядка 41,8 Вт.
Тогда было придумано решение, прочно поселившееся в современных игровых системах, – дополнительное питание. Для этих целей был использован разъем, которым подключаются CD-ROM или жесткие диски IDE и некоторые SATA. Называется этот разъем Molex (в народе – «молекс»). Еще одним вариантом было использование разъема для трехдюймового дисковода. Розетка второго типа ставилась на карты Radeon 9500/9700. Некоторые видеокарты, например обе мои MSI GeForce Ti 4200 и GeForce 5200SE, обладают разводкой под такой разъем, но он не разведен, поскольку, видимо, установка не была признана целесообразной. Ведь производителям нужно чтобы они работали лишь в дефолте.
Второй же вариант, с молексами, был более распространен. Основная доля питания с них (если не все) приходилась на линию 12 В (в молексе присутствует два напряжения, 5 В – красный провод и 12 В – черный). Сам разъем молекс может выдержать от 110,5 до 170 Вт при потреблении по обеим линиям. Ввиду дисбаланса в сторону 12 В реальная мощность, конечно, меньше. Такими разъемами обладают карты Radeon 9800 Pro, 9800XT, GeForce 5700 Ultra и более поздние.

Поколение прожорливых

Среднее потребление у Radeon 9600 Pro составляло примерно 19 Вт, у ее “старшей сестры”, Radeon 9600XT – 23 Вт. Прямой конкурент этих плат – GeForce 5700 требовал больше. Потребление составляло порядка 25 Вт под нагрузкой, а у модификации GeForce 5700 Ultra и вовсе 47 Вт! Причина такой большой разницы заключается в использовании на последней памяти DDR2, которая отличается очень большим тепловыделением и энергопотреблением. Стоит признать, однако, что данный тип памяти весьма недолго использовался для решений верхнего уровня. Из самых известных моделей это были Radeon 9800 Pro 256 Мб и GeForce 5800 Ultra. Ныне же данный вид памяти используется в дешевых решениях, где экономят почти на всем. Часто для заманивания покупателей на такие карты ставят побольше памяти, от которой среднему видеочипу нет никакого толку. Принцип «чем больше памяти, тем лучше» работает лишь иногда, когда чип не ограничивает скорость обработки. А вот принцип «чем больше памяти, тем дороже», работает всегда. Просто не всегда причины низкой цены видны новичкам.
Старшими представителями семейств тех времен были карты Radeon 9800 Pro/XT и GeForce 5800/5900. Оба продукта обоих вечных конкурентов отличались только частотами и напряжением. Разве что GeForce 5800 был 128-битным, а ширина шины подсистемы памяти у GeForce 5900 была – 256 бит. Radeon 9800 Pro потребляла 47 Вт под нагрузкой, а старший представитель семейства, Radeon 9800XT, – 60 Вт. Связано это было, в первую очередь, с большим объемом памяти, нежели у Radeon 9800 Pro (256 Мб у XT против 128 Мб у Pro), а также большим напряжением чипа. Разница частот вносила свой вклад, но он был менее значительным. GeForce 5900 Ultra, работавшая на частотах 450/425 МГц с памятью DDR объемом 256 Мб, потребляла в под нагрузкой 60 Вт. Большая часть, 3,5 А потреблялась от дополнительного питания, от +12 В. GeForce 5950 Ultra, обладая частотами 475/475 МГц и большим напряжением, потребляла аж 74 Вт, загружая все линии (как дополнительное питание, так и линии питания AGP).

Второй рот?

Казалось бы, молекса должно было вполне хватать современным видеокартам, ведь он допускает весьма немалые токи. Но вскоре появились слухи, а затем и подтверждение, что новый флагман от NVIDIA, GeForce 6800 Ultra будет иметь аж два разъема такого типа! Все насторожились – сколько же эта карта должна потреблять, чтобы ей одного не хватало? Но все оказалось проще: второй разъем был добавлен для страховки и повышения стабильности, чтобы токи не приближались к критическим. GeForce 6800 GT осталась с одним разъемом. Итак, новое поколение было представлено, это были GeForce 6 от NVIDIA и Radeon X от ATI.
GeForce 6 наибольшую долю мощности брал с дополнительного питания типа молекс. Самая младшая карта серии GeForce 6800 с частотами 350/350 МГц потребляла 39 Вт, GeForce 6800GT с частотами 350/500 МГц – 55 Вт. Связано это с большим числом конвейеров (16 против 12 у GeForce 6800) и напряжением питания. Зато старшая, GeForce 6800 Ultra требовала аж 72 Вт, притом большую часть именно по линии 12 В от дополнительного питания. Ее частоты составляли 400/550 МГц. Именно в ней для подстраховки было использовано два молекса. А слухи про требование блока питания в 480 Вт оказались необоснованы. Вполне хватало хорошего блока на 400 Вт или действительно качественного (уровня Enermax) – на 350 Вт. Но именно эта карта с двумя молексами заложила фундамент будущего роста и усложнения дополнительного питания.
Radeon X800 потребляли чуть меньше, унаследовав расстановку сил с конкурентом в этом плане от предыдущего, девятитысячного поколения. Младшая, Radeon X800 Pro в нагрузке потребляла 48 Вт, а Radeon X800 XT Platinum Edition – 63 Вт. Первая обладала 12 конвеерами, что и обуславливало такую разницу в потреблении, при этом работала на частотах 475/450 МГц; вторая – имела 16 конвейеров и частоты 525/575 МГц.
Если с картами Geforce 4/Radeon 9500/9600 можно было обойтись средним блоком питания, не задумываясь о том, хватает его или нет, то уже с Radeon 9800XT/GeForce 5950 Ultra могли возникать нюансы. Но чаще всего их брали под новые компьютеры, где стояли неплохие блоки мощностью 370-400 Вт. Но по-настоящему, вопрос о нехватке блоков питания возник, начиная с GeForce 6. Тогда компьютеры, кормившиеся от китайских блоков на 250-350 Вт, уже начинали вести себя плохо – испытывали недомогания, синели от BSOD’ов, а также легко и непринужденно вешали или перезагружали систему в самый разгар игры. Их владельцы, по скупости или, чаще, в результате проворности менеджеров, купившие такой блок, очень нервничали и всячески поносили, а порой и физически наказывали ни в чем не повинную видеокарту. Раз взяли звереныша покрупнее (а почти каждая новая карта имеет в качестве своей эмблемы какое-либо чудо-юдо), то и кормить надо подобающе – на овсянке и брюкве с китайским рисом она уже не протянет. Иначе будет пухнуть и дохнуть. И это не красивый эпитет, а вполне реальный сценарий развития дальнейшей ситуации.

Поколение PCI-E

И вот, свершилось! Была разработана и внедрена новая шина – PCI-Express, призванная заменить другие шины для карт расширения, такие как PCI, AGP и PCI-X. Как можно понять, нам интересна смена AGP. Новая шина позволяла передавать до 75 Вт для питания устройств. Это дало возможность сделать версию GeForce 6600GT PCI-E – первую карту NVIDIA с родной поддержкой PCI-Express (до того все время использовался переходной мост HSI) – без разъема дополнительного питания. GeForce 6600GT для AGP делалась с разъемом молекс. Вдобавок, был разработан новый разъем, получивший название PCI-Express. Он представлял собой шесть контактов, 2х3, внешне похожих на ATX12V для питания процессора, но имевший другую разводку. Согласно стандарту, по нему можно было передавать 75 Вт также как и по PCI-E. Разъем имел три желтых контакта +12 В и три черных – землю. От использования 5 В было решено отказаться. Связано это со все растущим энергопотреблением железа. И если, скажем, для мощности в 150 Вт необходимо 12,5 А при напряжении 12 В, то для передачи такой же мощности с напряжением 5 В необходимо 30 А – это уже весьма немало. Нагрев проводов, согласно закону Джоуля-Ленца зависит от силы тока (мощность нагрева провода равна квадрату силы тока умноженному на сопротивление). Стало быть, использование напряжения 12 В вместо 5 В привело к снижению нагрева в 5,76 раз, а это очень много! Таким образом, значительно снизились затраты на обеспечение безопасности передачи тока (не нужны медные провода огромного сечения и специальные разъемы). Именно по этой причине процессоры, а вслед за ними и видеокарты, как самые прожорливые компоненты компьютера, перешли на питание от 12 В.
Все эти нововведения требовали очень мощной линии 12 В у блоков питания. Ведь не стоит забывать, что в те времена Intel производила чудо-процессоры Prescott, которые по энергопотреблению и тепловыделению было суждено переплюнуть только Smithfield’ам – двум таким ядерным реакторам под одной крышкой. Настоящее испытание на живучесть для блоков питания! К тому времени был принят стандарт ATX v2.0, согласно которому требования для линии 5 В были значительно ослаблены, а вот к 12 В заметно ужесточились. Двенадцать вольт были объявлены основным системным напряжением, в отличие от ATX 1.3 и более ранних версий стандарта, где основной упор делался на 5 В.
GeForce 6800 Ultra под PCI-E обладала лишь одним таким разъемом дополнительного питания. GeForce 6800GT также обладала подобным разъемом, а вот для GeForce 6800 он уже был лишним – ей хватало и питания, получаемого от PCI-E. Серия Radeon X800, вплоть до Radeon X800 XL, обладающей всеми 16 конвейерами, но с частотами, меньшими, чем у Radeon X800 XT, работала без разъемов дополнительного питания. Равно как и все младшие модели. Карты, начиная с Radeon X800 XT, работали с одним разъемом дополнительного питания PCI-E. Переход на универсальную шину PCI-Express и новый вид разъема, питающийся от одного напряжения, произвели своего рода унификацию. Казалось, была достигнута гармония, но прогресс не стоит на месте и, к сожалению, чаще всего этот прогресс приводит к выбиванию денег из карманов потребителей.

Семерки и десятки

Новые поколения, NVIDIA GeForce 7 и ATI Radeon X1000 слегка приподняли планку энергопотребления. Средние карты, GeForce 7600GS/GT и Radeon X1600 Pro/XT спокойно работали без разъема дополнительного питания, довольствуясь энергией, передаваемой по интерфейсу PCI-E. Старшие карты, начиная с Radeon X1800 XL и GeForce 7800GT, обладали одним разъемом для выделенного питания PCI-E и реальным потреблением в 57 Вт. Поскольку выпускаемое устройство должно иметь запас прочности, то использование разъема стало дополняющим фактором, но не необходимым. Такой уровень потребления стал возможен благодаря меньшему техпроцессу, что позволило снизить напряжение питания чипа. Флагманы этих линеек, Radeon X1800XT и GeForce 7800 GTX “ели” уже 103 и 80 Вт соответственно. Использование коннектора было полностью оправдано. Затем последовал respin (разгон чипов производителем, то есть выпуск тех же самых чипов, просто запущенных на более высоких частотах) со стороны NVIDIA и новая линейка, Radeon X1900 со стороны ATI. GeForce 7900 GTX лишь немного прибавила в потреблении, дойдя до уровня 84 Вт, а вот Radeon X1950 XTX ушла очень далеко – до 125Вт под нагрузкой. Это было связано, конечно, и с очень высокими частотами GPU, но в первую очередь – с памятью, работавшей на частоте 1000 МГц (2000DDR). Radeon X1950 Pro требовала 66 Вт, что значительно меньше потребления старших моделей.

Двухголовый троглодит

Если приход такого рода унификации можно ассоциировать со светом, дарованным Ньютоном (в виде теории всемирного тяготения), то вот реванш Сатаны, безусловно, можно отнести к SLI. Итак, как раз с появлением универсальной шины PCI-E, в отличие от специализированной AGP, которая была возможна в количестве одной штуки в системе, NVIDIA решила стряхнуть пыль с патентов купленной ею 3Dfx и лежавших на полках до поры до времени. SLI от 3Dfx (Scan Line Interleave) – это чередование строк развертки. То есть, каждая четная строка обрабатывается (рендерится – от слова rendering, представление, вывод) отдельной картой. NVIDIA же развила эту технологию, но вполне резонно не стала отказываться от очень раскрученного бренда, который был у всех на слуху, и создала другую расшифровку под свои нужды – Scalable Link Interface, масштабируемый интерфейс соединений. Суть сводилась к совместной работе нескольких видеокарт (слово “масштабируемый” не подразумевает конкретного ограничения по числу), хотя изначально она была ограничена именно двумя чипами.
Первоначально такая система требовала заметно более дорогой материнской платы на чипсете NVIDIA (хотя ограничение носило чисто маркетинговый, а не технический характер в виде блокировки в драйверах работы SLI на “неугодных” режимах). Поскольку нацелена технология была именно на энтузиастов, то предполагалось, что в этом режиме и карты будут работать топовые. И если один видеоадаптер старшего семейства блоки питания тянули нормально, то “накормить” две – уже задача посложнее, особенно с учетом все растущих аппетитов. Две GeForce 6800 Ultra в SLI требовали уже блока питания мощностью 480 Вт (официально).
ATI решила не отставать и через несколько месяцев представила технологию Crossfire, по сути, делающую то же – расчет сцены силами нескольких видеочипов. Карты Radeon X1800 XT в режиме Crossfire требовали уже блока питания мощностью от 550 Вт, равно как и семейство Radeon X1900/1950. Radeon X1950 Pro в силу меньших аппетитов могли довольствоваться в связке Crossfire блоком на 500-525 Вт. Карты GeForce 7900 обладали схожими требованиями – от 500 Вт для режима SLI.
Производители тем временем пробовали свои силы в создании двухчиповых карт, где два чипа связаны с помощью SLI или Crossfire на одной печатной плате, обладающей одним разъемом PCI-Ex. Но полный разгром карты GeForce 7900 GTX конкурентом в лице Radeon X1950 XTX заставил NVIDIA выпустить серийную карту такого рода – GeForce 7950 GX2. Это были две печатные платы, соединенные между собой мостом и подключаемые к одному разъему PCI-E (разъем был у одной платы, а вторая подключалась к первой). Это позволило назвать сие устройство самой быстрой одиночной картой. А компоновка плат одна над другой завоевала среди энтузиастов меткое прозвище “бутерброд”. Потребление карты уже приблизилось к критическому – ведь фактически это была связка из двух GeForce 7900 GTX, работающих на чуть меньшей частоте. Но две GeForce 7900 GTX имели суммарно два слота PCI-E и два разъема дополнительного питания, могущие отдать 300 Вт. А два чипа на GeForce 7950GX2 обладали лишь одним слотом и одним разъемом дополнительного питания, вплотную приближаясь к максимуму потребления. Скорее всего, именно по этой причине и были ограничены частоты, ведь удвоенные 84 Вт у GeForce 7900 GTX вылились бы в потребление, равное 168 Вт, что превысило бы допустимые значения. Стало быть, Quad SLI из двух GeForce 7950 GX2 уже потребовал бы мощности блока питания порядка 650 Вт.

Игры с разъемами

Возникла еще одна проблема, также связанная со SLI и Crossfire. Разъем PCI-E должен был передавать 75 Вт на одну карту. Две карты должны были получать 150 Вт. Но ведь все это должно сначала поступить на материнскую плату, а она питалась лишь от разъема ATX! Благо, процессор уже запитывался отдельно. Нюанс заключался еще и в том, что провод 12 В в 20-контактном ATX лишь один, а 3,3 В – три штуки. В 24-контактой вилке добавляется еще по одному каждого типа. Но поскольку питание идет только от 3,3 и 12 В, то при наличии лишь 20-контактного блока питания выходит нагрузка около восьми ампер на один проводник 12 В и 15 А на три проводника 3,3 В в режиме SLI.
Потому шина PCI-E упростила задачу доставки требуемого тока к видеокарте, лишив средние карты разъема дополнительного питания, но усложнила задачу для доводки этого тока до самого разъема. И производители стали применять различные коннекторы для дополнительного питания PCI-E, особенно критичного для многочиповых конфигураций. Так, платы Asus P5LD2 Deluxe обладали разъемом молекс на плате, для питания двухслотовых конфигураций. А платы DFI Lanparty LT X38-T2R, равно как и не отличимые от них DFI Lanparty LT X48-T2R, – двумя разъемами для флоппи-дисководов. Но и длинных разъемов PCI-E на них три, что в общем-то неважно, поскольку все контакты питания находятся в маленькой левой части разъема. То есть что PCI-E 1x, что PCI-E 16x – они могут получать одинаковое питание. Появлялись даже дополнительные блоки питания, главной целью которых было обеспечение питания видеокарт. С учетом все растущих их аппетитов, такая покупка, порой, была оправдана, хотя с нуля дешевле купить сразу мощный блок питания.

Атака проглотов

А затем был новый удар – выход GeForce 8 и Radeon HD 2000. Первая имела две модификации – GeForce 8800 GTS и старшую GeForce 8800 GTX. Потребление GTS остановилось на уровне 106 Вт, а GTX – 132Вт. Если первая обходилась спокойно одним разъемом PCI-E, то GTX уже требовала два. Вновь вернулись времена множества разъемов. Но больше всего удивляли слухи вокруг Radeon HD 2900 XT, которым суждено было сбыться. Карта обладала двумя разъемами, причем один из них был 8-штырьковый! Блоков питания под нее в те времена не было. Обусловлено это было переходом на PCI-E 2.0. Новый разъем допускал передаваемую мощность аж до 150 Вт, что вдвое больше старого. Сделано это было с целью унификации с грядущим стандартом. Карта в принципе работала с двумя 6-контактными PCI-E, но не позволяла разгонять себя через закладку в драйверах. При использовании сторонних программ никаких ограничений не возникало. Карта потребляла немало – примерно 160 Вт, но это все же меньше заявленных изначально 225 Вт. Видимо, таковым было потреблением ранних версий, к счастью, не ставших массовыми.
А вот сам PCI-E 2.0 принесет немало забот. То, что такие частоты не очень востребованы вторично. Но заявленная мощность в 150 Вт, которую можно передать по одному разъему, вселяет большие опасения: расчеты, приведенные выше, следует удвоить, дабы получить всю кошмарную картину. При наихудшем сценарии с двумя картами даже самый слабый ток в одном проводнике будет составлять примерно 10 А. А ведь процессор, потребляющий 125 Вт, получает такой ток по 4 силовым проводам! Это то же самое, как такой процессор использовать, оставив два провода – по одному черному и желтому. К счастью, инженеры DFI предусмотрели два разъема, как уже было сказано, ведь чипсет X38 как раз поддерживает PCI-E 2.0. А вот предусмотрели ли они защиту при использовании двух карт без дополнительных проводов и с 20-контактной вилкой – вопрос. Также неизвестно, могут ли реально карты потреблять столько от разъема. Судя по числу проводов, подключаемых к самой видеокарте, производители пытаются как можно меньше нагружать разъем.
Новое поколение карт на чипах RV670 (в основном, Radeon HD 3850 и HD 3870) и G92 (GeForce 8800 GT/8800 GTS 512/9800 GTX) позволили умерить аппетиты, главным образом, благодаря новому техпроцессу. Radeon HD 3870 “ест” на 100 с лишним Ватт меньше, чем Radeon HD 2900 XT. Это позволило обойтись обычным, 6-контактным разъемом PCI-E в количестве одной штуки. GeForce 8800 GT/GTS 512 также имеют один разъем.
Зато очередной виток игры мускулами породил двучиповые решения – Radeon HD 3870 X2, совмещающий два чипа RV670 на борту и GeForce 9800 GX2, с двумя G92. Обе оснащены одним 6-контактным и одним 8-контактным разъемами. Причем, если Radeon HD 3870 X2 может работать от двух 6-контактных коннекторов, то на GeForce 9800 GX2 кожух сделан таким образом, что второй 6-контактный разъем просто не запихнуть. Пиковое потребление Radeon HD 3870 X2 – 196 Вт, а GeForce 9800 GX2 официально потребляет 197 Вт. Для одной такой карты официально необходимо примерно 550-580 Вт, для двух – порядка 850 Вт. Недостающие 70 Вт видимо съедают маркетологи NVIDIA. Хотя дело, скорее всего, в том, что блоков выше 750 Вт и меньше 850 Вт – в продаже очень мало, а в официальном пресс-релизе NVIDIA публикует список SLI-совместимых блоков питания. Для GeForce 9800 GTX в количестве одной штуки необходимо 450 Вт, для SLI – 750 Вт, для 3-way SLI уже 1000 Вт. Это при том, что карта потребляет 168 Вт. Снова налицо нелинейная зависимость. Да и разница в потреблении между GeForce 9800 GTX и GeForce 9800 GX2 в 17%, несмотря на различные частоты, вызывает искренние сомнения.

Что готовит грядущее?

Таким образом, видно, что видеокарты окончательно и бесповоротно отбили пальму первенства по прожорливости у процессоров, которые вернулись на путь истинный и провозгласили борьбу за низкое тепловыделение и энергопотребление.
Пока еще для хорошего игрового компьютера достаточно блока питания на 500-550 Вт. Но если система берется с заделом на будущее, или же планируется видеосистема с большим, нежели два числом GPU, да еще и с разгоном, то необходимо задуматься о блоках мощностью 600-650 Вт для AMD и под 750-850 Вт для NVIDIA. Но ни в коем разе не «китайских»! Там от этих ватт – только наклейка.
Что же готовит нам день грядущий? Новое поколение Radeon HD 4850/4870 будет выпускаться по 55 нм техпроцессу, потребляя при этом 114 Вт (Radeon HD 4850) и 157 Вт (Radeon HD 4870). Одиночной карте хватит блока питания в 450 Вт, а для двух в Crossfire будет хватать 550 Вт. Таким образом, энергопотребление останется приблизительно на уровне Radeon HD 3870 и ниже Radeon HD 2900 XT. Потребление GeForce GTX 260 составит 182 Вт, а GeForce GTX 280 – 236 Вт! Это в полтора раза больше, нежели у GeForce 9800 GTX. Что ж, время покажет, что позволит завоевать сердца покупателей, при этом не опустошив их кошельки – мощность NVIDIA или экономичность AMD.

Примечания

  • 3Dfx – это компания, которая изобрела первый в мире 3D-акселератор (ускоритель трехмерной графики). Изначально это были отдельные платы, ставившиеся вместе с обычными 2D-видеокартами и помогавшие процессору рассчитывать сцены. Также именно 3Dfx изобрела технологию SLI. На закате своей жизни компания была куплена NVIDIA, которая получила доступ ко всем наработкам 3Dfx.
  • Blue Screen Of Death, синий экран смерти – экран, появляющийся при серьезной системной ошибке. Говорит о наличии неисправностей в системе или же о некорректном действии над ней.
  • Graphic Processing Unit – графический процессор.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *