История видеокарт — Часть 2

Продолжение (начало в статье История видеокарт — Часть 1)

Эволюционный отбор

То, что на рынке появлялись все более новые и совершенные 3D-игры и видеоплаты, послужило поводом создания более совершенных и быстрых видеокарт. Вехой истории видеокарт был 1998 год, который стал годом рождения адаптера Voodoo2, обладавшего 8 или 12 Мб памяти EDO DRAM на борту и работавший на частоте в 100 МГц.

Voodoo2 с первым в мире SLI

Voodoo2 с первым в мире SLI

Архитектура Voodoo2 была практически такая же, как и в Voodoo за исключением нескольких особенностей. Первой особенностью являлся дополнительный текстурный блок, с помощью которого за 1 проход рендеринга можно было накладывать до двух текстур за проход, что гораздо увеличило производительность. Вторая особенность – картинка, выводимая адаптером. Разрешение картинки достигало 1024*768 пикселей при 12 Мб памяти и 800*600 в случае с 8 Мб памяти при режиме цвета в 16 бит. Но главное инновацией был режим SLI, который позволял совместно работать сразу двум Voodoo2. Эта система была очень и очень дорогостоящей, однако аналогов у фирм-конкурентов не было и в помине, а производительность была невероятной.

Мощнейшая конструкция: две Voodoo2 в режиме SLI

Мощнейшая конструкция: две Voodoo2 в режиме SLI

В этом году NVIDIA не смогла нагнать 3Dfx, но появившаяся в том году Riva TNT (NV4) стала толчком к успеху компании. За 2 года специалисты NVIDIA создали новую архитектуру, которая дала RIVA TNT 2 конвейера для рендеринга, то есть она так же, как и Voodoo2 накладывала 2 текстуры за проход. RIVA TNT работала на частоте 90 МГц, а память у нее была SDRAM, объем которой был 16 Мб.

RIVA TNT от NVIDIA

RIVA TNT от NVIDIA

Глубина цвета у продукта NVIDIA была 32 бита, однако производительность при этом режиме уменьшалась аж в 2 раза, что было негативно встречено покупателями. Несмотря на это RIVA TNT положила начало рендерингу в 32-битном цвете, и вскоре появились модели, которые давали приемлемую производительность в этом режиме. Еще у RIVA TNT была возможность работы с текстурами 1024*1024 пикселей, а для Voodoo2 максимумом были текстуры размером 256*256 точек.

Развитие в те годы библиотеки Glide от 3Dfx было серьезной проблемой для NVIDIA, помощь в решении которой оказывала, сама того не зная, Microsoft, активно распространявшая Direct3D.

Компания ATI пыталась не отставать от своих конкурентов и выпустила в 1998 году свою 3D Rage Pro, которая не имела особого успеха и преимущества перед конкурентами. Единственное, чем могла похвастаться эта видеокарта, так это производительность при обработке сжатого потока DVD. Производительность в 3D у этого продукта была не лучше видеокарт предыдущего поколения, а поддержка OpenGL была всего лишь «для галочки». По этим причинам 3D Rage Pro почти никак не была оценена потребителями и стала всего лишь хорошим 2D-адаптером.

К слову о 2D. В те годы было множество производителей 2D-адаптеров, лидером среди которых была фирма Matrox, которая представила в 1998 году свой адаптер, предназначенный как для 2D, так и для 3D. Этот чип полностью поддерживал 3D-рендеринг и мог держать конкуренцию с Riva TNT от NVIDIA в плане производительности.

G200 обладал великолепной производительностью в 2D, и, помимо этого, обеспечивал высокое качество рендеринга в 3D при 16 и 32 битах цвета. Рабочей частотой для G200 являлись от 84 до 90 МГц, он оснащался двумя шинами данных в 64 бита каждая. Обеспечивая такую же пропускную способность, данное решение давало меньше латентности по сравнению с обычной 128-битной шиной. К тому же, благодаря технологии DIME, адаптер мог хранить текстуры с разрешением до 2048*2048 пикселей в системной памяти, а это решение дало возможность остановиться на объеме видеопамяти в 8 Мб, что помогло продукту стать дешевле.

3D Rage Pro с разъемом для дополнительно подключаемой памяти

3D Rage Pro с разъемом для дополнительно подключаемой памяти

Смена лидеров

На закате 90-х лидерами производства видеокарт были 3Dfx, занимавшая прочное первое место, за ним следовала NVIDIA, ну а далее их пыталась догнать толпа других производителей (среди которых выделялись ATI, Matrox и S3), которые на то время были статистами. Определяющим стал 1999 год.

В начале года были анонсированы Voodoo3, G400, Rage 128 и Riva TNT2. Рабочая частота у детища 3Dfx была 183 МГц и этот адаптер поддерживал SLI. Однако технологические новинки обошли стороной адаптер от 3Dfx, у которого были возможности 2D-адаптеров, однако у него был всего один конвейер для рендеринга и он не поддерживал 32 бита цвета и текстуры большого разрешение.

Voodoo 3 от 3Dfx

Voodoo 3 от 3Dfx

Ответом от NVIDIA стал чип NV5, устанавливавшийся в TNT2. Главным для NVIDIA было соответствие технологической новизне. Таким образом Riva TNT2 первой получила поддержку AGP 4x, обеспечивала неплохую производительность рендеринга при 32 битах цвета, а работала она на частоте до 150 МГц и 183 МГц для памяти. На то время TNT2 была полностью конкурентоспособным соперником для Voodoo3. Таким образом, безоговорочное лидерство 3Dfx на данном этапе истории видеокарт оказалось под сомнением.

Не отставать от гигантов смогла и Matrox, выпустившая G400. Технологии компании, которые были внедрены в чип G200, получили развитие. У G200 были две шины в 128 бит каждая, частотой в 125-150 МГц, и шину памяти в 128 бит с частотой 166-200 МГц. Новинкой стала технология EMBM (Environment mapped Bump mapping), которая стала аппаратной поддержкой эффектов рельефности текстур. Благодаря ей графика вышла на принципиально новый уровень.

Matrox Millenium G400MAX и ее два разъема для подключения мониторов

Matrox Millenium G400MAX и ее два разъема для подключения мониторов

Представление технологии EMBM

Представление технологии EMBM

Ко всему прочему у G400 впервые появилась поддержка двух мониторов. Таким образом G400 смогла на время выйти на первое место среди видеокарт. К сожалению, G400 теряла производительность в работе с OpenGL играми, а большинство игр того времени не поддерживали Direct3D.

ATI, все еще отстававшая от лидеров, выпустила достаточно интересный для геймеров Rage 128. Он был гораздо дешевле новинок от NVIDIA и 3Dfx, однако скорость рендеринга при 32 битах цвета была выше RivaTNT, а также чип получил поддержку OpenGL и Direct3D. Таким образом дела у ATI пошли гораздо лучше.

Небольшой рывок от ATI: их Rage 128

Небольшой рывок от ATI: их Rage 128

К концу 1999 года наступил еще один этап противостояния лидеров производства видеокарт. 3Dfx запустил VSA-100, который должен был исправить отставания в технологическом плане, NVIDIA готовила NV10, обещавший стать «сюрпризом», а ATI и S3 пытались прорваться на передовые позиции своими Rage Fury MAXX и Savage 2000 соответственно. Что же предлагали пользователям эти компании?

VSA-100 обладала технологией T-Buffer, которая обеспечивала постобработку изображения использующую кинематографические спецэффекты. Полноэкранное сглаживание (Full-scene Anti-aliasing), размытие в движении (Motion Blur), глубина резкости (Depth Of Field) и мягкие тени (Soft Shadows) должны были улучшить качество картинки без падения производительности.

Преимуществом NVIDIA стала технология расчета трансформации и освещения (Transform and Lighting, T&L). С использованием этой технологии с центрального процессора снималась часть задач по расчету вершин треугольников, обеспечивая тем самым прирост производительности в играх.

ATI Rage Fury MAXX был по сути своей соединением двух Rage 128 Pro на одной плате, которые формировали кадры по очереди. Стоимость должна была стать огромной.

Слишком дорогая ATI Rage Fury MAXX

Слишком дорогая ATI Rage Fury MAXX

S3 Savage 2000 обладал T&L, как и продукт NVIDIA, у него была передовая технология сжатия текстур. Этот адаптер планировался как дешевая, более технологичная альтернатива Voodoo3, способная вытеснить NVIDIA на второй план.

На деле же все оказалось совсем не так. 3Dfx не успела выпустить свои Voodoo4, Voodoo5 и Voodoo6 до лета 2000 года. А вот NVIDIA смогла к тому времени вывести в свет свой NV15, который был гораздо мощнее Voodoo6. Voodoo 4 и Voodoo5, обладавшие одним чипом серьезно проигрывали конкурентам в плане производительности, а двух- и четырехчиповые Voodoo5 были дорогостоящими и изрядно грелись. Это явилось ударом для 3Dfx, которая не так давно была флагманом производства видеокарт. Потерю лидирующей позиции сразу заметили кредиторы.

Шумный и совсем не быстрый Voodoo5 с 4 чипами

Шумный и совсем не быстрый Voodoo5 с 4 чипами

Выход Savage 2000 от S3 состоялся немного позднее. T&L и сжатие текстур на самом деле хорошо работали и давали увеличение производительности, но только при поддержке этих технологий приложениями. Таким образом при отсутствии данной поддержке Savage 2000 серьезно проигрывал конкурентам, а S3 совершенно не интересовал создателей игр. Помимо прочего, у этого продукта были большие проблемы с установкой драйверов, а также со сравнительно низкой производительностью блока T&L. Несмотря на это, технология S3TC, которая занималась сжатием текстур, заинтересовала компанию Microsoft, и они выкупили ее и лицензировали под названием DXTC. Соответственно, видеокарты всех компаний смогли получить эту технологию.

Адаптер от ATI в целом стал удачным решением, но не для своей цены. К тому же для него было очень сложно написать драйвер, который программисты ATI смогли выпустить лишь через несколько месяцев после того, как появился сам адаптер.

Лучше всех стал адаптер NVIDIA. GeForce 256 смог опередить все другие адаптеры за счет отличной функциональности. У него было четыре конвейера рендеринга, рабочая частота 120 МГц и 32 Мб памяти (с частотой 166 МГц и 128-битной шиной) SDRAM (которая с 2000 года стала DDR SDRAM). Не забыли в NVIDIDA и про T&L, который начинали поддерживать все выходящие игры.

Великолепная GeForce 256

Великолепная GeForce 256

К сожалению, свой штрих в этот этап истории видеокарт не смогла вписать Matrox. Они не последовали принципу выпуска новых адаптеров каждые 6 месяцев, а G400 проигрывал GeForce из-за плохой производительности в OpenGL, а также пресловутого T&L. Так, G400 стал востребованным лишь теми, кому нужно было использовать для работы или игры 2 монитора. У Matrox просто-напросто кончились идеи.

Пара слов о TRUFORM

Различие карт бюджетного класса и карт топ-класса крайне сильно заметно. Один из самых главных показателей этого – сумма треугольников в кадре. Чем она выше, тем мощнее видеокарта и понадобится. А что касается создателей игр? Зачем создавать много различно детализированных моделей в зависимости от уровня видеокарты? С ответом помогли в ATI созданием TruForm.

Тот чип, который поддерживает эту технологию, может изменять как полигональные объекты в линейные, так и обратно. В итоге, модели получают плавность выше задуманной.

Единственным минусом становится то, что технологии просто необходимо присутствие маркеров, которые указывают то, чем, где и как можно усложнить модель и сделать ее плавнее. А вот без этих маркеров будут артефакты, такие как кубы, ставшие шарами и т.д. А без поддержки создателей продукта с 3D-графикой от этих артефактов никак не избавиться…

Борьба передовиков

Все шло к тому, что NVIDIA единолично возглавит рынок. Она купила банкротов 3Dfx с ее работниками и разработками, созданный NVIDIA чип NV15 стал хорошей модернизацией чипов NV10, а дешевые версии ее чипов заняли весь рынок, вытеснив конкурентов.

Но ATI доказала NVIDIA свою полную конкурентоспособность. В июне 2000 года они выпустили ATI Radeon, у которого было 64 Мб DDR SDRAM с шиной 128 бит, и он работал на частоте 183 МГц. Как и у адаптера NVIDIA, у Radeon был блок T&L, тем самым ATI показала и доказала потребителям то, что у компаний нет никакого технологического разрыва. К тому же их продукт оказался дешевле.

Однако, в Matrox пока не отчаивались. Они выпустили G450, являвшийся более совершенной версией G400 и был создан с использованием новых технологических норм (180 против 250 нм в сравнении с G400), а память была более быстрая, однако на 64-разрядной шине, что не изменяло скорость обмена с памятью. В теории то, что у G400 был использован новый техпроцесс, должно было увеличить тактовую частоту чипа, чего не произошло. В итоге G450 разочаровал геймеров, и Matrox догнать ATI и NVIDIA не смогла.

Безосновательная многословность BitBoys

В истории видеокарт стоит отметить финскую компанию BitBoys Oy. Появившись внезапно под конец 90-х, компания поражала прессу своими анонсами, представляя заоблачные цифры производительности своих чипов. BitBoys была на уровне конкурентов, при намного большей производительности. Однако очень сложный вопрос: была ли возможность появления адаптеров «финских сказочников» или все же это было фикцией? Давайте порассуждаем.

Команда одаренных программистов, всем известная как Future Crew, в 1991 году перешла от созданий демо (программ-демонстраций возможностей 3D-графики) к созданию чипов. К этому времени они уже переименовались в BitBoys. Зная, что такое 3D-графика и «с чем ее едят», BitBoys задолго до появления 3Dfx поняла все возможности перспективы 3D-адаптеров и решили предложить идеи TriTech.

TriTech недолго думая подписала контракт на разработку чипа, который обладал функциями 3D-ускорителя. Выход этой видеокарты, названной TriTech Pyramid3D, планировался на 1996 год, а функции ее обещали быть умопомрачительными. У него планировалась поддержка наложения 2 текстур за проход, объемных текстур (EMBM), программируемого пиксельного конвейера, текстуры до 1024*1024 точек и рендеринг в режиме 1600*1200 пикселей при 24-битном цвете. Вышел этот чип только в 1997 году, когда TriTech уже была разорена исками за нарушения патентных прав при выпуске аудиоадаптеров. Таким образом Pyramyd3D так и не вышел, а вместо него вышло только несколько прототипов.

Но банкротство не сильно задело BitBoys, потому что Pyramyd3D работал и у компании было что показать потенциальным заказчикам, а технология объемных текстур была лицензирована Matrox. Но финны решили сделать свой новый чип без посторонней помощи. После этого начали появляться все новые и новые пресс-релизы, каждый раз все более впечатляющие.

BitBoys анонсировали в 1999 году Glaze3D, который превосходил конкурентов в разы по возможностям. Главным достижением финской компании оказалась быстрая память в 9 Мб, которая была нужна для хранения появляющейся на экране картинки после рендеринга. Ну а текстуры должны были находиться в SDRAM, которая размещалась на самой плате. Также был обещан Thor, в котором должны были реализованы функции T&L и SLI.

Но проходило время, но Glaze3D так и появлялся. А вот конкуренты производили на свет чипы все лучше и лучше, правда без особых прорывов, но все же реально существующие. Но Glaze3D усовершенствовался! Правда так и не сходя с бумаги…Очередной анонс обещал, что с использованием Glaze3D Quake 3 сможет выдавать аж 200 FPS при наилучшем качестве изображения. Те модернизации, которые были у новых чипов-конкурентов, незамедлительно появлялись в анонсах Glaze3D, что, естественно, порождало все большее и большее недоверие.

Прошел год и BitBoys, одумавшись, перестали анонсировать Glaze3D и объявили о грядущем появлении чипа под названием Axe, предназначенного для Avalanche3D. Характеристики у чипа были получше Glaze3D. Объем памяти стал 12 Мб, ширина шины – 1024 разряда, чип стал поддерживать вершинные шейдеры, а также была возможность использования двух чипов вместе.

BitBoys Axe. Как говорится, а был ли мальчик?

BitBoys Axe. Как говорится, а был ли мальчик?

Однако Axe последовал вслед за Glaze3D – его так же «похоронили». И тут же BitBoys анонсировали чип Hammer. К возможностям этого чипа относилась даже поддержка наложения до 4 текстур за проход. После этого всерьез BitBoys перестали воспринимать как геймеры, так и журналисты.

Демонстрация Glaze3D

Демонстрация Glaze3D

Конец 2001 года стал концом постоянных громких анонсов. Infineon Technologies, партнер BitBoys, закрыл фабрику, производившую чипы со встроенной памятью, соответственно выпускать чипы никто уже и не мог.

Сама компания не пропала с рынка. Она переквалифицировалась. BitBoys стали разрабатывать  чипы для мобильных телефонов. Так, в 2002 году прибыль компании составила 150 000 евро. Это направление приносило пользу компании, и в 2006 году их купила ATI.  Это стало доказательством того, что, несмотря на голословные заявления о грядущих чипах, в BitBoys были умы, способные создать что-то перспективное. В конечном итоге состав BitBoys перешел к Qualcomm.

Новейшая история

2001 год ознаменовал новый виток развития компьютерной графики. NVIDIA выпустила свой новый чип NV20, который стал основой GeForce3. Производительность не слишком далеко ушла от GeForce2, однако вышел он в одно время с DirectX 8.0,  стандартизировавший пиксельные и вершинные шейдеры 1.0. По факту, шейдерные блоки присутствовали и в GeForce2, однако им нужна была поддержка от графических библиотек в самих играх, иначе они попросту не работали. Но игры, которые получили поддержку DirectX 8.0, показывали великолепную картинку.

NVIDIA GeForce2

NVIDIA GeForce2

GeForce3 с чипом NV20

GeForce3 с чипом NV20

Ответ, последовавший от ATI, оказался очень мощным. ATI не собирались продолжать занимать второе место и попытались обогнать главного конкурента. Выпущенный компанией R200 обладал поддержкой шейдеров версии 1.4, которые были в составе DirectX 8.1. Помимо прочего, Radeon добавил аппаратную тесселяцию, которая дала чипу возможность самостоятельно делать модели объектов более сложными.

Удар ATI по NVIDIA: видеокарта ATI R200

Удар ATI по NVIDIA: видеокарта ATI R200

Ну а ответ NVIDIA удивил всех. Его попросту не было. Однако в компании рассуждали очень даже хитро и умно: ведь разработчики игр не будут вкладывать деньги для поддержки технологий, принадлежащих только ATI. Получается, что NVIDIA не пыталась догнать флагмана от ATI и следующим адаптером у неё стал NV25 (GeForce4Ti), не поддерживающий тесселяцию и версию шейдеров, используемую товаром ATI. Замысел NVIDIA можно сказать оправдался: разработчики игр не очень хотели внедрять в свои игры поддержку новых версий шейдеров и TruForm. Несмотря ни на что, NVIDIA не занимала четко второе место – компании делили лидерство, а NVIDIA готовила мощные ответы для ATI (ныне купленная компанией AMD).

Так и началась новейшая история видеокарт. С 2001 года история видеокарт пишется двумя компаниями: ATI и NVIDIA. За декаду появлялись и исчезали новые поколения чипов обеих компаний, а изначальные геометрические и текстурные блоки превратились в тысячи свободно программируемых ядер, а компания-лидер в этой гонке постоянно меняется.

Благодаря этой борьбе, компании разрабатывают новые решения, технологии, устанавливая все новые рекорды производительности, а также постоянно меняются цены. Обидно, конечно, что в этой борьбе третий лишний. И не факт, что он вообще сможет когда-нибудь появиться.

Коротко о шейдерах

Любой геймер, дизайнер, да и просто тот, кому интересны видеокарты знает термины «шейдер» и «шейдерный процессор». А что именно это такое?

Шейдер (от английского слова shader) – это процедура, которая дает описание параметров того или иного объекта. Шейдер определяет поглощение и дифракцию света, попадающего на поверхность, саму текстуру поверхности, то как она затенена или прозрачна (например, шейдер, отвечающий за отображение волн на воде). Выполнение этой процедуры лежит как раз на шейдерном процессоре, которых в видеокартах новейшей истории огромное количество. Шейдеры бывают нескольких видов.

На вершинном шейдере лежит функция описания вершин треугольников и применяется он для различных преобразований геометрии объекта и еще отвечает за освещение.

Работа вершинных шейдеров

Работа вершинных шейдеров

Пиксельные шейдеры нужны для того, чтобы обрабатывать пиксели, составляющие картинку, благодаря им разработчики управляют координатами, глубиной и цветом текстур. С их помощью создаются объекты, которые не состоят из полигонов (например, волосы).

Создание волн пиксельными шейдерами

Создание волн пиксельными шейдерами

Работа с примитивными фигурами, которые состоят из нескольких вершин, а также помощь процессору в создании новых объектов, увеличивании количества деталей в моделях и создании движущихся частиц лежит на геометрических шейдерах. К примеру, с их использованием создаются снег, дождь и другие погодные явления.

Физические шейдеры позволяют работать с физическими свойствами объектов, отвечают за расчет в режиме реального времени изменений геометрии (такое как смятие коробки при надавливании на нее ногой, деформация корпуса автомобиля при аварии и т.д.).

Физические шейдеры за работой

Физические шейдеры за работой

После того, как появились геометрические шейдеры – архитектура графических чипов изменилась. Конвейеры, составляющие специализированные блоки заменились шейдерными процессорами, которые сами выполняли функции рендеринга в 3D. Эта архитектура дает возможность свободного распоряжения вычислительными ресурсами процессора видеокарты, отправляя большее количество шейдерных процессоров на этапы максимальной нагрузки во время рендеринга картинки. Кроме этого, шейдерные процессоры используются не только для 3D-графики, но и для расчетов, необходимых научной сфере (технология NVIDIA CUDA).

Буду очень благодарен, если вы поделитесь с друзьями этой статьёй в социальных сетях и блогах, это будет здорово помогать моему блогу развиваться:

0

Хотите получать обновления блога? Подписывайтесь на рассылку и внесите свои данные: Имя и е-мейл

Есть 1 комментарий. к “История видеокарт — Часть 2”

  1. Дмитрий:

    Спасибо автору, интересная статья.

Написать комментарий

Top