Легендарный флагман 8000-й серии видеокарт Nvidia, GeForce 8800 Ultra, занял своё почетное место в коллекции.
GeForce 8800 Ultra была выпущена 2 мая 2007 года и по изначальной задумке должна была составить конкуренцию готовящейся к релизу Radeon 2900 XT (она появилась 14 числа того же месяца). Однако первый графический продукт ATI в стане AMD разочаровал: производительности чипа R600 оказалось достаточно только лишь для противостояния упрощенной модели GeForce 8800 GTS 320. Получилось так, что Ultra создала внутреннюю конкуренцию в линейке, сместив с места лидера прежнего флагмана – GeForce 8800 GTX.
Официальный анонс GeForce 8800 Ultra состоялся 2 мая 2007 года. Изначально компания Nvidia намеревалась выпустить GeForce 8800 Ultra для упреждающего удара по AMD с её новым чипом R600, но поскольку последний в своей максимальной конфигурации оказался в состоянии конкурировать только с GeForce 8800 GTS, новоиспечённая Ultra просто стала ускоренной версией 8800 GTX, заняв верхнюю строчку в линейке видеокарт компании. Рекомендованная цена GeForce 8800 Ultra на старте продаж превысила $830! Сегодня на волне тотального дефицита видеокарт такая цена за флагман выглядит смешно, но тогда это был абсолютный антирекорд, заткнувший за пояс GeForce 6800 Ultra 512.
Поскольку конкурент в лице AMD ничем не угрожал лидерству 8800 Ultra, частоту её ядра было решено снизить с планируемых 650 МГц до 612 МГц. Благодаря новой ревизии чипа G80 A3, подъём частоты относительно 8800 GTX оказался безболезненным, ведь энергопотребление A3 по сравнению с A2 снизилось на 2 Вт, а разгонный потенциал увеличился. Также было решено понизить напряжение на памяти, чтобы ещё сильнее уменьшить общее энергопотребление видеокарты. Итоговое значение TDP составило 193 Вт, а «выигрыш» по сравнению с 8800 GTX достиг 5 Вт. По всем остальным аппаратным характеристикам чип G80 A3 повторял спецификации предыдущей модели A2.
По конструкции и распайке печатной платы 8800 Ultra ничем не отличается от 8800 GTX. В данном случае текстолит покрыт глянцевой защитной маской чёрного цвета, хотя существовали ещё и варианты с коричневыми платами. А в фирменных рабочих станциях Dell можно было встретить модификации 8800 Ultra с защитной торцевой планкой и системой охлаждения от 8800 GTX:
Центральное место занимает огромный чип G80, закрытый массивной теплораспределительной крышкой. Его опоясывает металлическая защитная рама, которая препятствует изгибу платы и не позволяет перекосить кулер при его установке.
На задней панели расположились два порта Dual-Link DVI под управлением чипа Nvidia NVIO. Из-за высокой архитектурной сложности графического ядра G80 и его высокого нагрева компании даже пришлось вынести контроллер дисплея в отдельную микросхему. NVIO поддерживает технологии TMDS и HDCP, однако для работы последней вам понадобятся специальные крипто-ключи. Причем Nvidia разрешила своим партнёрам самостоятельно принимать решение – стоит ли зашивать эти ключи в ROM или нет.
Четыре фазы питания графического процессора управляются специализированным цифровым мультифазным контроллером Primarion PX3540BDSG, поддерживающим функции контроля и мониторинга питания по шине I2C. В каждой фазе используются два быстрых N-канальных мосфета Infineon 32N03S (Vds=30В, Id=100А) из серии OptiMOS 2. Они характеризуются высокой теплостойкостью и низким сопротивлением Rds. Роль ключей в фазах памяти играют два N-канальных мосфета Alpha & Omega Semiconductor AO4422 (Vds=30В, Id=11А) и один мосфет AOL1432 (Vds=25В, Id=44А). С обратной стороны платы находится неизвестный ШИМ-контроллер с маркировкой AT-9K 407.
Сразу под транзисторами памяти виден пьезоэлектрический динамик – спикер. Он сигнализирует об ошибках видеокарты при запуске. В частности, он запищит, если пользователь забудет подать на карту дополнительное питание через два стандартных 6-контактных разъёма.
Гордость GeForce 8800 Ultra – это её память. Объём в 768 МБ не изменился относительно 8800 GTX, но зато здесь производитель не поскупился на 12 самых быстрых в своём классе микросхем GDDR3. Чипы произведены компанией Samsung и упакованы в корпуса 136-Ball FBGA. Маркировка K4J52324QC-BJ08 указывает на время выборки 0,8 нс и штатную частоту 1100 (2200) МГц при напряжении питания 1,8 В.
Выпуская замену собственному флагману, Nvidia решила не только поднять производительность, но и модернизировать систему охлаждения. Так появилась отличительная особенность 8800 Ultra – вынесенный за пределы печатной платы вентилятор. Теперь он мог забирать воздух не только снизу, но и сверху через отверстия в раме системы охлаждения. А кожух был продлён на всю длину платы и плавно огибал вентилятор.
Радиатор практически не изменился по сравнению с таковым у видеокарт 8800 GTS/GTX, но в задней части литой алюминиево-магниевой рамы появилось своего рода «ушко» для установки вентилятора. Как и прежде, рама обеспечивает отвод тепла от памяти, силовых элементов и контроллера дисплеев. Сверху к ней припаян основной радиатор ГП с медным основанием. Тело радиатора составляют 38 алюминиевых рёбер, пронизанных двумя тепловыми трубками. Радиальный вентилятор (т.н. «турбина») здесь точно такой же, как и на GeForce 8800 GTS/GTX. Это модель Delta BFB1012L мощностью 5,8 Вт. Вентилятор прогоняет воздушный поток через рёбра и выбрасывает его частично внутрь корпуса ПК, а частично за его пределы.
В качестве термоинтерфейса изначально использовались белые «марлевые» термопрокладки, но при обслуживании кулера они были заменены на голубые прокладки от Arctic. По результатам тестов эти штатные белые прокладки показали очень высокую эффективность, поэтому не стоит их менять, если они у вас в хорошем состоянии.
В простое (на рабочем столе) температура большого и горячего ядра G80 со свежей термопастой составляет 51°C. В играх она может подниматься до 80°C и даже выше – в зависимости от атмосферы внутри системного блока.
Результаты получены на процессоре Intel Core i7-4790K @ 4.7 ГГц
На момент релиза в мае 2007 года у 8800 Ultra не было конкурентов. Поэтому основной интерес при анализе производительности – узнать, насколько она быстрее предыдущего флагмана, GeForce 8800 GTX. Если смотреть на тесты из 2007 года, то FPS в играх вырос всего на 10% – и это при разнице в цене в $180! Известный ресурс anandtech.com в своём обзоре даже назвал GeForce 8800 Ultra «абсолютной тратой денег». Но флагманы никогда не славились выгодным соотношением цена/производительность. Напротив, Ultra – это имиджевый продукт для 0,1% пользователей, кому хочется иметь только самое быстрое железо. В современных условиях разница с Radeon 2900 XT GDDR4 составляет около 30%.
Выход новой флагманской видеокарты AMD Radeon R9 290X был анонсирован 24 октября 2013 года, а в ее основу лег процессор Hawaii XT архитектуры GCN 2-го поколения – настоящее «большое ядро» от AMD.
Hawaii стал качественным и количественным улучшением Tahiti, на котором строились видеокарты HD 7950/70 и R9 280/280X. Впрочем, он не заменил их, а просто встал на ступень выше. Как и его предшественник, Hawaii производился с использованием 28-нм техпроцесса, а поэтому площадь ядра у него составила внушительные 438мм2. В старшей версии XT чип получил 2816 потоковых процессоров, скомпонованных в 44 вычислительных кластера, 176 текстурных модулей и 64 блока растровых операций. Шина памяти впервые со времен Radeon HD 2900 XT выросла до 512 бит, а объем памяти составил 4 ГБ.
Стартовая цена на референсную Radeon 290X была установлена на отметке $549, что поставило основного конкурента новинки, видеокарту Nvidia GeForce GTX 780, стоившую $649, в весьма невыгодное положение.
Среди программных и архитектурных новшеств R9 290X мог предложить:
Новый API Mantle, который за счет снижения нагрузки на центральный процессор мог обрабатывать до девяти раз больше запросов на отрисовку в секунду, чем при использовании DirectX 11. В будущем именно наработки AMD по Mantle легли в основу создания API DirectX 12 и Vulkan.
TrueAudio DSP – цифровой сигнальный сопроцессор, предназначенный для расчетов продвинутых звуковых эффектов, таких как свернутая реверберация и 3D-аудио.
XDMA CrossFire – аппаратный блок, управляющий работой технологии CrossFire без использования мостиков.
Обновленный менеджер контроля энергопотребления PowerTune. Он получил VID-интерфейс с каналом телеметрии, позволяющий быстрее и точнее регулировать напряжение на GPU.
Radeon R9 290X успешно конкурировал по производительности с GeForce GTX TITAN и GeForce GTX 780, но оказался очень горячим и прожорливым. При использовании референсной СО рабочие температуры в тяжелых режимах работы превышали 90 градусов, поэтому большое распространение получили альтернативные варианты от партнеров AMD. Одним из них стал MSI Radeon R9 290X Gaming, оснащенный узнаваемой фирменной системой охлаждения Twin Frozr.
Коробка MSI 290X Gaming выполнена из довольно тонкого картона и оформлена в таком же красно-чёрном стиле, что и сама карта. На лицевой стороне изображен дракон – символ линейки MSI Gaming. Также сверху можно заметить логотип известной шведской киберспортивной команды Fnatic – компания MSI является одним из ее спонсоров.
С обратной стороны приведено небольшое послание от маркетингового отдела MSI, где сказано, что графическая карта является самым важным компонентом для обеспечения высокого показателя FPS, поэтому в компании хотят предоставить вам лучший продукт с большей производительностью. Ещё, помимо стандартного перечисления основных особенностей видеокарты и системных требований для ее работы, здесь уделяется внимание фирменным технологиям MSI. В их числе:
Приложение Gaming APP, позволяющее вручную переключаться между тремя частотными режимами работы карты: Тихим (Silent), Игровым (Gaming) и Разогнанным (OC).
Система охлаждения Twin Frozr IV, преимущество которой над референсным кулером от AMD достигает 17° в Разогнанном режиме (по данным самой MSI).
Электронные компоненты военного класса (Military Class 4), куда относятся танталовые конденсаторы с повышенным сроком службы и твердотельные электролитические конденсаторы с низким показателем эквивалентного последовательного сопротивления (ESR).
Встроенный инструмент Predator для захвата изображений или видео с экрана.
Комплект поставки располагается в отдельной картонной коробке. Он очень скромный для некогда флагманской карты и включает руководство пользователя, диск с драйверами, переходники питания с 6-pin на два Molex и с 6-pin на 8-pin и краткую инструкцию по работе «гибридного BIOS».
Печатная плата Radeon R9 290X Gaming выполнена по собственному дизайну MSI, который довольно схож с референсным по общей компоновке элементов. Длина платы составляет 267 мм. Здесь использована качественная элементная база: твердотельные конденсаторы Solid Cap, катушки с ферритовым сердечником SFC и экономичные конденсаторы Hi-C Cap.
Схема питания имеет вид 6+2+1 фаза (ГП, память и PLL соответственно), а за управление питанием отвечает ШИМ-контроллер IOR 3567B. Транзисторные ключи выполнены по технологии DirectFET, при которой площадка затвора и площадки истока находятся с одной стороны, а сток – с другой. Сток соединяется с печатной платой при помощи медной крышки, на которой размещается сам кристалл транзистора. Это позволяет улучшить теплоотвод и снизить электрическое сопротивление выводов и паразитную индуктивность корпуса.
В верхней части платы располагается переключатель двух микросхем BIOS. Первая их них содержит профиль с разгоном до 1030 МГц по ядру. Вторая микросхема активирует поддержку технологии UEFI BIOS, которая при наличии совместимости со стороны BIOS материнской платы позволяет быстрее загружать операционную систему.
Привычных разъемов CrossFire на Radeon R9 290X больше нет, поскольку производитель решил, что скорости шины PCI-E 3.0 (800 МБ/сек на одну линию) будет вполне достаточно для совместной работы двух и более карт, и решил полностью отказаться от дополнительных внешних соединений.
Для достижения объема памяти в 4 ГБ производителю пришлось разместить на плате вокруг чипа сразу 16 микросхем GDDR5. В данном случае они произведены компанией SK Hynix и имеют маркировку H5G02H24AER-R0C. Паспортная частота этой памяти составляет 6 ГГц при напряжении питания 1,6 В, хотя в данном случае она работает на частоте 5 ГГц.
Радиатор фирменной системы охлаждения Twin Frozr IV состоит из двух секций. Первая имеет размер 118×106 мм и контактирует с ГП через слой термопасты и с пятью микросхемами памяти через толстые 1,5-мм термопрокладки. Вторая секция размером 92×106 мм дополнительно отвечает за охлаждение подсистемы питания – для этого здесь применяются термопрокладки толщиной 1 и 1,5 мм. Секции соединяются между собой четырьмя тепловыми трубками, причем одна из них имеет диаметр 8 мм (технология MSI Super Pipe). Пятая трубка загнута U-образно и расположена в первой секции. Толщина обеих секций составляет 15 мм, при этом первая насчитывает 65 алюминиевых ребер, а вторая – 55.
Лицевая сторона платы закрыта алюминиевой пластиной, которая отводит тепло от 10 микросхем памяти из 16, а также от преобразователя питания памяти. Вдобавок она служит ребром жесткости, для чего крепится к планке задней панели двумя винтами.
Сверху радиатор накрыт пластиковым кожухом, на котором закреплены два вентилятора. Важное изменение претерпела система крепления: если в предыдущих моделях Twin Frozr кожух прикручивался к радиатору с обратной стороны, то в четвертой версии этого кулера он крепится с лицевой стороны. Это позволяет легко и быстро снять кожух с вентиляторами для их чистки или замены без необходимости разбирать всю видеокарту, лишаясь гарантии (на одном из крепежных винтов имеется гарантийная пломба).
Обратная сторона платы накрыта бэкплейтом, который для надежности крепления дополнительно приклеен к ней. Он помогает отводить тепло от области, где расположены силовые элементы, контактируя с текстолитом через термопрокладку.
Вентиляторы Power Logic PLD10010B12HH имеют диаметр крыльчатки 95 мм и развивают максимальную мощность 4,8 Вт. Скорость их вращения можно регулировать программно (например, через MSI Afterburner) в диапазоне от 1000 до 2800 об/мин. Провода от вентиляторов объединены в одиночный «хвост» с 4-контактным разъемом.
В целом система охлаждения Twin Frozr IV работает значительно тише референсного аналога, хотя радиатору явно не хватает площади рассеивания, из-за чего температура ГП при сильной нагрузке доходит до 90° (при штатной схеме работы вентиляторов).
Результаты получены на процессоре Intel Core i7-4790K @ 4.7 ГГц
Производительность Radeon R9 290X находится на уровне GeForce GTX 970 или четырехгигабайтной версии Radeon RX 480, так что эта карта не разочарует геймеров даже сегодня, если они готовы будут смириться с сильным нагревом карты и ее огромным аппетитом до потребляемого электричества.
Первый флагман ATI/AMD из новой эпохи унифицированных шейдеров – Radeon HD 2900 XT – оказался не вполне удачным и не смог составить конкуренцию GeForce 8800 GTX. Тогда AMD попыталась исправить положение путём выпуска более быстрой модификации с суффиксом XTX, но инженерные образцы этих карт также не оправдали возложенных надежд. Понимая, что спроектировать полностью новое ядро за короткий срок нереально, компания решила сменить концепцию. Она отказалась от «больших ядер» R600 в пользу более компактных и дешевых в производстве RV670. Изначально новый чип должен был лечь в основу видеокарты Radeon HD 2950 XTX, которой и пророчили заменить на рынке HD 2900 XT, однако в итоге AMD разумно предпочла выделить новинку в новую «трёхтысячную» серию.
Релиз Radeon HD 3870 состоялся 19 ноября 2007 года, и примерно тогда же стало известно о готовящейся к выходу модели Radeon HD 3870 X2, построенной на паре ядер RV670 (кодовое имя R680). Именно она должна была сразиться за верхние строчки в бенчмарках с GeForce 8800 Ultra. В продаже Radeon HD 3870 X2 появилась 28 января 2008 года по цене в $449 (или €399).
При проектировании чипа RV670 акцент явно был сделан не на чистой производительности, а на сокращении энергопотребления. В результате он не сильно оторвался от R600 по гигафлопсам (12,4 у HD 3870 против 11,89 у HD 2900 XT), однако получил вдвое более низкий TDP (106 Вт против 215 Вт у R600). Добиться такого результата AMD удалось благодаря переходу на передовой техпроцесс в 55 нм и сокращению шины памяти с 512 до 256 бит. При этом количество суперскалярных шейдерных процессоров, блоков ROP и текстурных модулей не изменилось.
Версия HD 3870 X2 от компании Sapphire является полным референсом. Она поставляется в крупной коробке, выполненной в фирменных красно-черных цветах AMD. На лицевой стороне изображена отрендеренная 3D-модель девушки с распростёртыми объятиями. Сюда же помещены картинки, по которым можно узнать о поддержке видеокартой технологии CrossFire X, наличии 1 ГБ памяти (суммарно) и присутствии в комплекте программы PowerDVD.
С обратной стороны коробки приводится маркетинговое описание всей мощи двухчиповой технологии, и кратко расписываются особенности Radeon HD 3870 X2. Также Sapphire не упустила шанс продемонстрировать часть своих наград от различных изданий, завоёванных компанией с 2002 года.
Комплект поставки нельзя назвать богатым для флагманской видеокарты, однако он вполне достаточен. В картонном боксе можно найти:
CD с драйверами Catalyst;
CD с плеером CyberLink PowerDVD;
CD с приложением для работы с мультимедиа и записи дисков CyberLink DVD Suite;
Два переходника питания Molex – 6-pin;
Переходник с S-Video на компонентные разъемы;
Два переходника DVI-I – VGA;
Гибкий мостик CrossFire.
AMD не стала собирать две отдельные платы в «бутерброд», как это сделала Nvidia в GeForce 7950 GX2, а расположила чипы RV670 на одной плате, развернув их друг к другу. Важно отметить, что инженерам удалось не выйти за габарит 27 см в длину (как и у 8800 GTX), поскольку при превышении этого размера у видеокарты сразу же возникли бы проблемы с совместимостью со многими корпусами того времени. Расплатой за относительную компактность стала высочайшая плотность компоновки – все 27 см текстолита буквально усыпаны SMD-конденсаторами, резисторами и другими элементами. Между чипами установлен коммутатор PLX PEX8547, который делит 16 линий PCi-E на две группы по 8 и отвечает за совместную работу ядер по технологии CrossFire X.
На плате предусмотрено по 4 посадочных места для фаз питания каждого из графических процессоров, однако половина из них не распаяна. Питание цифровое, с поддержкой технологии ATI PowerPlay. Элементная база включает сдвоенные катушки Pulse PA1312NL и ШИМ-контроллеры Volterra VT1165MF. Каждому блоку памяти досталось по одной фазе, где напряжения формируют 3-амперные линейные регуляторы uPI Semiconductor uP7706.
Подсистема памяти включает 16 банок Samsung GDDR3 (по 4 на каждый чип с каждой стороны платы). Маркировка K4J52324QE-BJ1A даёт понять, что перед нами самая быстрая память в данной линейке производителя. Микросхемы упакованы в корпуса FBGA-136 и способны функционировать на частоте до 1000 (2000) МГц при напряжении не выше 2,0 В. У Radeon HD 3870 X2 рабочая частота памяти снижена до 900 (1800) МГц.
Слабым местом Radeon HD 3870 X2, равно как и её последовательницы, HD 4870 X2, оказалась система охлаждения. Тот принцип, что успешно работал для одночиповых видеокарт, когда размещённый в правой части вентилятор прогоняет воздух через радиатор и выбрасывает его из корпуса ПК, оказался неэффективен при добавлении на плату второй «головы».
Проблема в том, что воздух сначала проходит через один процессор, а потом, будучи уже нагретым, через второй. Инженеры попытались нивелировать эту неравномерность в охлаждении, для чего правый радиатор сделали алюминиевым, а левый медным, однако это не слишком помогло. Даже в простое разница в температурах между двумя кристаллами составила более 10°.
Конструктивно кулер можно разделить на пять составляющих:
1) Печатную плату закрывает массивная алюминиевая рама, которая призвана отводить тепло от микросхем памяти, силовых элементов и коммутатора PLX.
2) Сверху на раму ставятся два основных радиатора: медный и алюминиевый.
3) В правой части рамы крепится стандартный тангенциальный вентилятор диаметром 75 мм. Здесь используется модель NTK Technologies CF1275-B30H-C002 мощностью 12 Вт.
4) С обратной стороны плату закрывает алюминиевый бэкплейт, контактирующий с микросхемами памяти. Он имеет множество вырезов под выступающие электронные компоненты.
5) Наконец, сверху всю конструкцию накрывает кожух из полупрозрачного красного пластика. Он выполняет функцию воздуховода и помогает выбрасывать горячий воздух за пределы корпуса компьютера.
Результаты получены на процессоре Intel Core i7-4770K @ 4.3 ГГц
Относительно одиночной Radeon HD 3870, частоты ядер RV670 у двухчиповой карты были повышены с 776 до 825 МГц, что обеспечило некоторую прибавку частоты кадров в играх. При хорошей поддержке технологии CrossFire X со стороны приложений Radeon HD 3870 X2 догоняла и даже опережала 8800 GTX, при этом стоила она на $50 дешевле GeForce. Трудности у HD 3870 X2 начинались при активации сглаживания, которое заметно просаживало FPS. Также все плюсы от наличия на борту второго чипа перечёркивали игры, лишённые поддержки CrossFire. В них производительность HD 3870 X2 опускалась до уровня GeForce 8800 GS.
GeForce 8800 GTS 320 появилась в феврале 2007 года и стала первой попыткой Nvidia расширить линейку видеокарт на чипе G80. Версия с 320 МБ памяти (отсюда и название) – это удешевленный вариант GeForce 8800 GTS 640, сохранивший 320-битную шину, но лишившийся половины объема ОЗУ. После появления GeForce 8800 GTS 320 заняла ценовую нишу $299-349, старшая версия с 640 МБ памяти подешевела до $399, а флагман 8800 GTX сохранил свою стоимость в $599.
Данная референсная видеокарта, продававшаяся под брендом XFX, относится к более поздней серии и основана на чипе G80 новой ревизии A3 (на этой же ревизии выпускались все видеокарты 8800 Ultra). Он отличается от A2 немного сниженным потреблением и потенциально лучшими возможностями разгона.
320 МБ памяти типа GDDR3 набраны 10-ю микросхемами Samsung, расположенными на лицевой стороне печатной платы под единым массивным радиатором. Маркировка K4J55323QI-BC12 указывает на время выборки 1,2 нс, что соответствует частоте 800 (1600) МГц. Реальная частота работы памяти на 16 МГц ниже своего номинала.
Что касается системы охлаждения, то в 8-й серии GeForce компания Nvidia вернулась к старой конструкции с радиальным вентилятором (в народе именуемым “турбиной”), который выбрасывает горячий воздух за пределы системного блока. Радиатор алюминиевый, но с медным основанием и тремя тепловыми трубками. Он припаян к массивной раме сложной формы, накрывающей всю печатную плату и помогающей отводить тепло от микросхем памяти, силовых транзисторов и внешнего RAMDAC.
К сожалению, небольшой объем набортной памяти сыграл злую шутку с данной видеокартой. Если в старых играх при разрешении 1280×1024 она демонстрировала очень достойную производительность и даже обходила Radeon 2900 XT, то в новинках того времени игроки жаловались на частые подвисания и фризы при высоких разрешениях, что было связано с нехваткой ОЗУ.
Результаты получены на процессоре Intel Core i7-4770K @ 4.3 ГГц
Не обошла 8800 GTS и проблема отвала чипов. Нормальные рабочие температуры карты составляли около 85 градусов, из-за чего со временем бессвинцовый припой отслаивался от контактных площадок, что приводило к выходу карты из строя. Данная видеокарта тоже не избежала этой проблемы: контакт чипа с печатной платой был восстановлен методом прожарки в духовке.
Серия Radeon HD 2000 стала запоздалым (на полгода) ответом компании AMD на 8-ю серию видеокарт GeForce от NVIDIA. Флагманская видеокарта HD 2900 XT появилась 14 мая 2007 и была основана на чипе R600. Radeon R600 – кодовое имя графического процессора, лежащего в основе серий видеокарт Radeon HD 2000 и FireGL 2007. Хотя к моменту выхода на рынок видеокарт на его основе компания ATI Technologies уже принадлежала AMD, суперскалярная архитектура VLIW5 являлась целиком и полностью разработкой ATI.
R600 стал первым десктопным графическим процессором производства ATI, опиравшимся на унифицированную шейдерную архитектуру (первая версия этой архитектуры применялась в процессоре Xenos, отвечавшем за обработку графики в консоли Xbox 360). Суперскалярные потоковые процессоры R600 могли обрабатывать вершинные, геометрические и пиксельные шейдеры, обеспечивали поддержку API DirectX 10.0 и OpenGL 3.0 и четвертой модели шейдеров (SM 4.0).
Новые унифицированные шейдеры основывались на VLIW-архитектуре (Very Long Instruction Word), согласно которой ядро должно выполнять операции параллельно.
Каждый мультипроцессор включал в себя 5 потоковых процессоров. В свою очередь, четыре из пяти потоковых процессоров могли за такт обрабатывать законченную инструкцию MAD (умножение-сложение) с плавающей запятой одинарной точности, скалярное произведение и целочисленную ADD-инструкцию. Пятый процессор мог дополнительно обрабатывать специальные трансцендентные функции (вычислять синус, косинус, логарифм). Всего каждый шейдерный кластер исполнял 6 инструкций за такт.
В R600 присутствовал диспетчер потоков, который оптимально распределял нагрузку между АЛУ. Были улучшены алгоритмы сглаживания и фильтрации, поддерживалось HDR-освещение. Контроллер памяти получил кольцевую структуру.
Сам чип R600 выпускался по 80 нм техпроцессу, занимал площадь 420 мм2 и содержал в себе 320 потоковых процессоров (или 64 кластера). Референсная частота составляла 600 МГц у видеокарты Radeon 2900 Pro и 743 МГц у HD 2900 XT. С памятью типа GDDR3 или GDDR4 он сообщался по широкой 512-битной шине.
Серия GeForce 8 была анонсированная 8 ноября 2006 года. Флагманским чипом стал G80, представивший новую унифицированную шейдерную архитектуру. Также 8-я серия GeForce впервые получила поддержку языка CUDA, API DirectX 10 и пиксельных шейдеров четвертой версии (SM4.0). Позднее, в августе 2008 года, видеокарты GeForce 8000 даже научились аппаратно ускорять физические эффекты PhysX, когда Nvidia интегрировала соответствующий SDK от купленной ей компании Ageia в свои драйверы ForceWare.
Чип G80 получил самый крупный кристалл из когда-либо выпускавшихся до этого. Он содержал 681 млн. транзисторов, занимал площадь 484 мм2 и производился по 90-нм техпроцессу. Конструктивно чип G80 имел 128 потоковых процессоров (streaming processor), объединенных в 8 кластеров. Потоковые процессоры стали унифицированными, т.е. научились выполнять как пиксельные, так и вершинные шейдерные инструкции.
На каждые 4 процессора приходится 1 блок адресации текстур и 2 блока фильтрации текстур. Каждому блоку был выделен кэш первого уровня. Все потоковые процессоры – скалярные. Они способны одновременно выполнять инструкции MUL (умножения двух целых чисел без учета знака) и MAD (умножение-сложение).
В G80 была добавлена поддержка новых алгоритмов фильтрации, благодаря которым анизотропия стала меньше влиять на общую производительность. Поддерживались и новые методы сглаживания, которые позволили блокам ROP работать с HDR-светом в режиме MSAA (Multisample anti-aliasing).
Флагманской видеокартой серии стала GeForce 8800 GTX, а через полгода её на этом посту сменила GeForce 8800 Ultra. Эти решения получились настолько мощными, что сохраняли лидерство среди графических ускорителей еще 13 месяцев. 8800 GTX опережала двухпроцессорные конфигурации из флагманов предыдущих серий: Radeon X1950 XTX и GeForce 7900 GTX, и даже запоздавший ответ от AMD в виде Radeon HD 2900 XT не смог положить конец лидерству GeForce.
29 октября 2007 вышла обновленная версия чипа G80, получившая индекс G92. Главными отличиями стали переход на более тонкий 65-нм техпроцесс и добавление поддержки интерфейса PCI-E 2.0. Видеокарта 8800 GT, основанная на новом чипе, получилась очень удачной с точки зрения соотношения цена/производительность. Она обходила 90-нм версию 8800 GTS и вплотную приближалась к результатам 8800 GTX. 7 Декабря 2007 года появилась видеокарта GeForce 8800 GTS, построенная на полноценном чипе G92-400 и оснащенная 128 потоковыми процессорами. Впоследствии она пережила три ребрендинга, превратившись сначала в GeForce 9800 GTX, а затем, после перевода чипа G92 на техпроцесс 55нм, в GeForce 9800 GTX+ и GeForce GTS 250.
Advanced Micro Devices (AMD) – американский разработчик (а в прошлом и производитель) интегральных микросхем. Штаб-квартира компании располагается в Саннивейле (штат Калифорния). AMD была основана 1 мая 1969 года Джерри Сандерсом и его товарищами. В 1975 году AMD подписала соглашение о кросс-лицензировании с Intel и выпустила свой аналог процессора 8080. С тех пор компания занимается производством центральных процессоров на архитектуре x86 и наборов микросхем.
Сегодня AMD занимает второе место по объему производства и продаж процессоров, а также является одним из крупнейших производителей графических чипов (после приобретения ATI Technologies в 2006 году), чипсетов для материнских плат и флеш-памяти.
С 2009 года AMD не имеет собственного производства и размещает заказы на мощностях контрактных производителей GlobalFoundries и TSMC.