XGI Volari история компании и её видеокарты
Прислано mart-2021 May 19 2022 10:23:21

Грустные видеокарты… Fail Story: XGI Volari

Правила «третий - лишний» на протяжении многих лет придерживаются дуэты производителей системной логики, х86-процессоров и настольных GPU. Intel и AMD вот уже десять лет являются фактическими монополистами на рынке х86 CPU и чипсетов к ним, уверенно пресекая все попытки VIA задержаться хотя бы на рынке нетбуков и встраиваемых систем. В свою очередь NVDIA и AMD точно так же делят рынок настольной трехмерной графики, задавая бешеный темп эволюции и не позволяя Intel выпустить дискретные GPU с PCI-Е интерфейсом.

Но еще лет десять назад места под солнцем было достаточно и нынешним титанам - создателям CPU и GPU, и более мелким компаниям. Одной из таких фирм стала XGI со своей серией видеокарт Volari.

Бодрое начало

В начале 2000-х наметилась одна нехорошая тенденция: сильные компании активно и с большим аппетитом пожирали более слабые, оставляя на их месте лишь запатентованные технологии и небольшую кучку бывших инженеров, которым лишь изредка предоставляли рабочие места в новом коллективе компании поглотителя. В это нелегкое время, когда выживали лишь сильнейшие, а на рынке дискретных видеокарт появлялись знаменитые монстры вроде GeForce 4Ti и Radeon 9700, немногие компании решались продолжать сражение и не сливать свой бизнес конкурентам. Одной из таких отважных контор стала тайваньская SiS, решившая провернуть глобальную реструктуризацию и выделить свое графическое подразделение в отдельную компанию. К слову сказать, команда инженеров из SiS, занимающаяся 3D-видеокартами, переживала в то время не самые лучшие времена. Когда ATI и NVIDIA вовсю щеголяли вторыми шейдерами и мощными графическими процессорами, SiS скромно распродавала свои видеокарты Xabre с кривой поддержкой DirectX 8.1 за копейки.

Впрочем, новообразованный коллектив талантливых разработчиков был настроен решительно, поскольку ставил перед собой поистине амбициозные планы. К примеру, выпустить первую линейку видеокарт уже через 3 месяца после образования компании. Или уделать конкурирующие Radeon 9700 и GeForce 5900, выпустив GPU с втрое меньшим количеством транзисторов! Журналисты, услышав столь дерзкий план по захвату рынка, заерзали в предвкушении тестовых образцов. Примерно в это же время независимое графическое подразделение, некогда принадлежащее SiS и названное XGI, делает свою первую крупную покупку - поглощает все, что осталось от Trident. В свое время эта компания выпускала недорогие, но очень популярные 2D-ускорители, которые пользовались огромным успехом в Азии и США. Из-за некоторых важных упущений и отсутствия опыта ребята из Trident так и не смогли нормально освоиться с 3D-ускорителями, и их продукция оставалась маломощной, но очень дешевой. «К черту 3D!» - решили инженеры XGI. У Trident был огромный опыт по работе с 2D-графикой, что позволяло добиться шикарного качества двумерной картинки в 24- и 32-битных цветах. Таким образом, объединив усилия, Trident и графическое подразделение SiS начали свою нелегкую борьбу с конкурирующими ATI и NVIDIA.

Видеокарты XGI двухчиповая Duo V8 Ultra - обзор история

Поспешили - насмешили

С огромным энтузиазмом две группы разработчиков принялись за создание целой линейки ускорителей, которые, по их замыслу, должны были удовлетворить спрос во всех сегментах рынка - от самого простого Low-End до Hi-End. Самое удивительное, что реальные продукты не заставили себя ждать, и уже осенью 2003 года, всего через 4 месяца после основания XGI, на выставке Computex 2003 красовались целых 7 инженерных сэмплов будущих хитов, предназначавшихся не только для настольных ПК, но и для мобильного сектора. Такой расторопности от новосозданой XGI не ожидал никто. Сложно было представить, что новичок, пусть и с некоторым опытом, за столь короткий срок сможет выпустить что-то действительно новое. Разработка новой архитектуры, даже по меркам двухтысячных годов, должна была занимать не меньше полутора лет (и это при условии огромной базы уже выпущенных решений). XGI предлагала все и сразу за 4 месяца! Тут же выстроился и стройный ряд будущих производителей, включая ASUS, Gigabyte и MSI, подписавшихся на выпуск различных моделей Volari на собственных мощностях.

К сожалению, опасения по поводу «новизны» продукции подтвердились - все бюджетные модели Volari V3 и чипы, предназначенные для мобильного рынка, оказались лишь немного подрихтованными 3D-ускорителями Trident ХР4, накануне продававшимися по $30 за штуку. Из изменений были только улучшенная поддержка DirectX 8.1 (включая аппаратную поддержку T&L и шейдеров), немного выросшие тактовые частоты и существенно сниженное энергопотребление. Видеокарты серии Volari V5 и V8 оказались пусть и значительно, но все-таки модернизированными SiS Xabre. Модель V8 могла похвастаться 8-пиксельными конвейерами и 8-текстурниками, но всего лишь 4 (а по некоторым сведениям, даже 2) блоками шейдерных и вершинных конвейеров. Интерфейс памяти был 128-битным, но в XGI Volari V8 предполагалось использовать быструю память DDR2 в качестве vRAM, что должно было компенсировать более узкий, по сравнению с конкурентами, интерфейс памяти. В свою очередь V5 оказалась уполовиненной «восьмеркой», у которой решили не урезать шину, оставив ее 128-разрядной. Но главным козырем новой линейки должны были стать двухчиповые ускорители Volari Duo V5 Ultra и Duo V8 Ultra, базирующиеся на двух GPU. Поскольку co времен 3dfx Woodoo 5 таких монстров не выпускалось, новинку встретили аплодисментами и непреодолимым желанием заполучить в качестве тестового образца. Крутившийся на выставке тест 3DMark 2003 наглядно показывал всю мощь двухчиповых V8 Duo Ultra, которые на дефолтных частотах набирали порядка 5600 очков. Это, конечно, было чуть меньше, чем у передовых Radeon 9800 Pro и GeForce 5900 Ultra, но относительно низкая стоимость Volari V8 Duo Ultra (порядка $500) должна была сгладить эту небольшую разницу.

Печальные реалии

Несмотря на эффектный анонс продуктов серии Volari, образцы докатились до тестовых лабораторий только к январю-февралю 2004 года. Естественно, всех интересовала в первую очередь двухчиповая модель V8 Duo Ultra - как-никак, первый монстр такого рода за последние несколько лет, да еще от новой компании. Но чуда не случилось, и в синтетических тестах двухчиповые V8 оказывались значительно хуже не самых свежих Radeon 9700 и GeForce 5800, уступая им на заметные 25-40% в скорости (и это при почти равной цене!). В игровых приложениях все оказалось еще хуже: в зависимости от настроек графики V8 Duo Ultra «сливала» конкурентам в два, а то и в три раза. То же самое случилось и с остальными участниками новой линейки ускорителей - одиночная V8 стоила аж $250, однако могла конкурировать лишь с самыми дешевыми моделями Radeon 9600 и GeForce 5600, всухую проигрывая более мощным модификациям. Volari V5, несмотря на свое среднеценовое позиционирование, едва ли составляла конкуренцию дешевым GeForce FX 5200 и Radeon 9250.

Как потом выяснилось, причин для сложившейся ситуации было две: несбалансированный GPU с применением «грубой силы» и драйвера без каких-либо оптимизаций под конкретные игровые продукты. Доходило до того, что разработчики игр даже не получали тестовых образцов для внесения поправок и багфиксов, так что, помимо низкого фреймрейта в играх, добавлялись сопутствующие проблемы: низкое качество графики и в некоторых случаях даже невозможность запуска 3D-приложения. Наиглупейшие драйвера сильно подставили флагманские продукты Volari V8 и V8 Ultra, поскольку физически они обладали весьма мощной архитектурой, пусть и лишенной изящной огранки того времени (отсутствовали многие блоки кэширования, применялись узкие внутрипроцессорные шины с малой пропускной способностью и так далее). К примеру, Volari V8 Duo Ultra и вовсе в 90% 3D-приложений работала как видеокарта с одним GPU (второй попросту был не задействован из-за ужасных драйверов).

Из-за низкого спроса на такую глючную продукцию многие производители графических решений к середине 2004 года вообще отказались от сотрудничества с XGI, оставив ее наедине с мелкими китайскими сборщиками. Но это ничуть не расстроило оптимистичных тайваньских ребят - в конце 2004 года они продемонстрировали роадмап, который обещал целое поколение новых ускорителей к концу 2005 года, причем с полной поддержкой DirectX 10. Но и это еще не все: потеряв всех партнеров производителей, XGI решила сама выпускать ускорители под собственным брендом и самой их продавать. Как и в 2003 году, эти заявления звучали чересчур уж амбициозно, но в отличие от прошлого раза, в этот им уже никто особо не верил.

Поглощение

Некоторые попытки продержаться на плаву XGI сделала в последний раз где-то в середине 2005 года, анонсировав бюджетный ускоритель, созданный командой Trident. Он не хватал звезд с неба и не представлял сколько-нибудь значимого интереса для геймеров. По сути это было что-то вроде неплохой офисной затычки для слота PCI-E (новинка могла похвастаться этим набирающим популярность интерфейсом) с поддержкой DirectX 9 и встроенным декодером MPEG-2. Новинка была способна выводить HDTV-изображение по каналу S-Video, что делало ее привлекательным решением для недорогого мультимедийного ПК, особенно при учете ее стоимости в $50. В то же время XGI рекламировала свою передовую разработку - Volari v8600 с поддержкой памяти GDDR3, 192-битной шиной и полной совместимостью с Shader Model 3.0. Но из-за крайне тяжелой финансовой ситуации продукт так и не был выпущен.

Уже в начале 2006 года всем стало ясно, что чуда не случится, a XGI так и не создаст ничего интересного. В том же 2006 ее прибрала к рукам ATI, причем за довольно смехотворную сумму (ходили слухи, что компания была продана за 10-12 миллионов долларов). К сожалению, амбициозность и рвение экс-инженеров SiS и Trident не помогли им выпустить нечто революционно новое и закрепиться на рынке, поскольку продукция ATI и NVIDIA к началу 2006 года ушла далеко вперед. В какой-то мере выпуск легендарных GPU ATi R300 и NV35 стал знаковым моментом для всего рынка 3D-графики и стал некой точкой невозврата для многих производителей. Как только на рынок вышли Radeon 9700 и GeForce 5800/5900, производители графических решений вроде XGI и S3 попросту не смогли им ничего противопоставить. Ситуация очень напоминала появление Intel Pentium, до которого многочисленные производители клонов i486 CPU так и не смогли добраться. Однако если с R300 и NV35 еще можно было как-то соперничать, создав максимально разогнанный и навороченный GPU прошлого поколения, но с поддержкой DirectX 9, то со следующим поколением в лице Х800 и GeForce 6800 бороться было бесполезно. Произошло это потому, что новинки базировались на очень мощной платформе-основе, фундамент которой был заложен в предшественниках, и без которого успех ATI и NVIDIA просто бы не состоялся. В этой ситуации попытку XGI прорваться на рынок с заведомо устаревшими технологиями и неактуальными решениями ждал вполне предсказуемый финал - рано или поздно быть съеденным более крупным хищником в мире производителей настольной 3D-графики.

© Автор: Морозов Роман

***