Содержание
Введение
1. История развития видеокарт. Первый акселератор
1.1 Компания ATI и Компания nVidia
1.2 Революция в технологии
1.3 Описание компаний
1.4 Трехмерная графика
1.5 Видеосистема как часть компьютера
1.6 Видеокарта NVIDIA GeForce256, GeForce2 и ATI Radeon256
1.7 Перспективы развития
1.8 Последние технологические разработки
1.9 Графический процессор NVIDIA
1.10 Обзор. Видеокарта ASUS GeForce 8800 GT 512Mb на NVIDIA G92
1.11 Краткая характеристика видеокарты
1.12 Стенд для тестирования Видеокарт
1.13 Разгон
1.14 PCI Express 2.0
1.15 Итоги сравнения
1.16 GeForce 9800 GT
1.17 Смотр видеокарты XFX GF 9800GT 670M 512MB DDR3 XXХ
1.18 Виртуальная реальность
1.19 Воплощение видеокарт
2. Характеристики видеокарты GEFORCE 9800 GTX
2.1 Конкуренция компаний
2.2 Представители семейства GeForce
2.3 Таблица характеристик
2.4Gainward Bliss 8800 GTS 1024MB TV DD GS GLH: быстрее GeForce 9800GTX
2.5 Gainward Bliss 9800 GTX 512MB: достоинства и недостатки
2.6 Gainward Bliss 9800 GTX 512MB: упаковка и комплектация
2.7 Дизайн печатной платы
2.8 Конструкция системы охлаждения
2.9 Энергопотребление, шумность, температурный режим, разгон и совместимость
2.10 Тесты сравнения видеокарт
3. Экономический расчет стоимости объекта анализа
3.1 Расчет затрат на создание проекта выбора видеокарт
3.2 Расчет материальных затрат
3.3 Использование ЭВМ
3.4 Расчет технологической себестоимости видеокарты
3.5 Расчет капитальных затрат на создание видеокарты
3.6 Затраты при эксплуатации видеокарты
4. Охрана труда. Факторы при организации труда
4.1 Продуктивность труда рабочего предприятия
4.2 Планирование рабочего места
Планированием помещений
Конструкция рабочего места
Вывод
Приложение
Перечень ссылок
Введение
В дипломном проекте рассматривается тема "Подбор видеокарты для дизайнерского моделирования" в г. Северодонецке.
Объектом исследования является ООО Бест Вей корп." в г. Северодонецке.
Предметом исследования является видеокарта для дизайнерского моделирования.
Целью дипломного проекта является изучение видеокарт и выбор наиболее оптимальной на данный момент для дизайнерского моделирования, ее работоспособность и определение комплексов мер по применению и работоспособности ее непосредственные достоинства и недостатки.
Актуальность дипломного проекта - причина создания и распространения видеокарт является – возможность использования в любой сфере, где необходимо ее использование, является очень важным фактором для видеокарты. Исходя из назначения данного выбора видеокарты для дизайнерского моделирования и специфики применения необходимо рассмотреть критерии, согласно которым будет проводиться последующий выбор видеокарты. К основным критериям оптимального выбора видеокарты для моделирования следует отнести надежность и работоспособность в той или иной степени без изменений:
Для достижения поставленных целей необходимо выполнить такие этапы:
- изучение технологий разработки видеокарты;
- изучение материалов и подбор литературы по данной тематике;
- экономический расчет эффективности на создание видеокарты;
- описание действий по созданию видеокарты и поддержанию ее в работоспособном состоянии;
- изучение литературы.
1. История развития видеокарт. Первый акселлератор
Сегодня разница между словами видеокарта и видеоакселератор нивелировалась, и эти слова стали синонимами. Так было не всегда. Давайте вернемся на десяток лет назад и посмотрим на видеоиндустрию того времени. В начале прошлого десятилетия 3D-отображение информации присутствовало лишь в специальных лабораториях по моделированию различных процессов или у крупных компаний, обладающих громадными вычислительными машинами. Моделирование трехмерных объектов применялось для визуализации новых продуктов (например, в автомобильной промышленности) или для научных исследований. Игрушки того времени о трехмерном пространстве могли только лишь догадываться. Слово акселератор (от англ. "ускоритель") применительно к видеокартам появилось лишь с выходом чипа VooDoo Graphics компании 3dfx. С этого момента и начнем нашу историю.Компания 3dfx была основана в 1984 году и до 1995 года ничем особым не выделялась.. Наступил 1995 год. Компания 3dfx выпускает видеокарту VooDoo Graphics, которая делает переворот на рынке устройств вывода изображения. В своем новом чипе 3dfx воплотила в жизнь ряд технологий, применявшихся только в профессиональных видеокартах. В то время ускорители были недоступны для массового потребителя из-за запредельной цены. Только с приходом VooDoo Graphics на рынке появился первый видеоакселератор. Чип VooDoo поразил всех своей скоростью. Это было что-то невероятное. Именно после появления VooDoo Graphics можно начинать летопись массовых видеоускорителей.
Первые видеоакселераторы в прямом смысле не были видеокартами. Они занимались обработкой исключительно 3D. Для полноценного обслуживания видеосистемы требовалось две платы. Одна занималась работой в двухмерной графике, а другая трудилась в трехмерном пространстве.
Видеокарта соединялась с ускорителем через специальный соединительный кабель. Акселератор перехватывал сигнал, когда запускалась игра, и блокировал основную видеокарту. Затем, при выходе, посылался сигнал, и акселератор пропускал информацию к видеокарте. VooDoo Graphics был совмещенным 2D/3D-акселератором, а вот следующее поколение форвардов - VooDoo2 было чистым акселератором, оно-то и продолжило начинание своего предшественника - Graphics. VooDoo2 увидел свет в 1998 году. По скорости он превосходил своего предка почти в три раза, кроме того, он мог работать в SLI-режиме. Две карты устанавливались вместе, соединялись кабелем и работали параллельно, одна работала над четными строками, другая - над нечетными. Производительность при этом возрастала почти в полтора раза. В то время ни один из конкурентов не смог противопоставить ничего и близко сравнимого по производительности с Voodoo2.
1.1 Компания ATI и Компания nVidia
Самым старым игроком на рынке видеокарт является компания ATI (Array Technology Industry). Основана она была в 1985 году эмигрантом из Китая Квок-Юэн Хо. Еще в Гонконге Кей Ю окончил университет, став специалистом в области компьютерной инженерии, и имел неплохую работу, которой в Канаде не оказалось. В 1985, найдя инвесторов, Кей Ю, вместе с эмигрантами Бенни Лау и Ли Лау, основывает собственную компанию - ATI.
Многие компании, занимающиеся разработкой компьютерных комплектующих, не имеют собственных производственных мощностей. Они разрабатывают чипы, а их производством занимаются сторонние организации, у которых есть свои заводы. Поначалу так было и с ATI. Их офис размещался в гараже, а чипы они заказывали у одного из калифорнийских производителей. Однако через четыре месяца деньги у компании закончились. От краха ATI выручает бывшая родина в лице одного из гонконгских банков. Желая укрепиться на рынке Канады, банк дает кредит еще на полтора миллиона. В 1994 году у ATI появилась карточка Mach64, которая легла в основу последующих разработок компании. Коммерчески более успешным было следующее поколение карт, в основе которых лежал чип ATI Rage и несколько его модификаций. Вышедший в 1996 году ATI Rage II хоть и не бил рекордов по скорости, но имел ряд инновационных технологических нововведений, как-то: первый аппаратный Z-буфер. Изготовлялся он по 0,5 мкм технологии, при частоте ядра 60 МГц. Модификация Rage IIc изготовлялась уже по 0,35-микронной технологии. Этого все-таки оказалось мало для того чтобы обогнать форварда. Но благодаря хорошей маркетинговой поддержке карты на ATI Rage неплохо продавались. nVidia Corporation (американская компания) была основана в январе 1993 года Дженсеном Хуангом, Крисом Малаховски и Куртисом Приэмом. Штаб-квартира находится в г. Санта-Клара (шт. Калифорния). Первая карта, выпущенная nVidia, называлась NV1 (1995 год). NV1 была не только видеокартой. Помимо совмещенного 2D/3D-ускорителя на плате размещалась звуковая карта. Для того времени видеочип NV1 в качестве ускорителя был неплох, но у него был один минус. Технология, используемая в нем, была несовместима с концепцией, которую предложила Microsoft. NV1 для построения трехмерных объектов использовал кривые третьего порядка, а не полигональную модель. Плохо это было или хорошо, сейчас неважно. Важно то, что после неудачи nVidia смогла подняться и сделать принципиально другой видеочип. Через год, в 1996, nVidia выпустила очередное свое творение, известное нам как Riva128. Чипы этой серии заняли свое место на рынке, хотя при тогдашних конкурентах - VooDoo Graphics и ATI Rage II - это было непросто. Осаждаемая конкурентами nVidia еще и допустила ошибку - выпустила чип без драйверов собственной разработки.
Каждая компания самостоятельно должна была разрабатывать драйвера под свои карты, построенные на чипе от nVidia. Позже компания исправила эту недоработку. Через требуемое время вышла модификация Riva128 - Riva 128 ZX. Эта карта использовала до 8 мегабайт памяти (вместо 4 Мб у Riva128), в ней была включена поддержка режима AGP 2x и увеличена частота RAMDAC с 230 до 250 МГц. Хоть карта и получилась неплохой, но тягаться с VooDoo2, которая вышла практически вместе с Riva 128 ZX, она явно не могла, да и в то время никто не мог.
1.2 Революция в технологии
Компания 3dfx выпускает карту VooDoo Banshee, в которой 3D-часть от VooDoo2 была дополнена 2D. Скорость нового творения оставалась по-прежнему высокой, но подрастал и новый игрок, компания nVidia, которая выпустила карту Riva TNT - продукт во многом знаковый для самой компании. Именно этой картой nVidia впервые посягнула на 3D-пьедестал.
Помимо того что сам чип Riva TNT был довольно быстрым, nVidia смогла правильно поставить маркетинг и отладить драйвера. Результат не заставил себя ждать, и карты на этом чипе приобрели большую популярность.
Карты на базе TNT имели частоты 90 МГц по чипу и 110 МГц по памяти. Сам чип обладал двумя конвейерами рендеринга, по одному текстурному модулю на каждом. У единственного соперника была иная архитектура. У VooDoo2 был один конвейер рендеринга, но с двумя текстурными модулями. В то время начали активно появляться игрушки с поддержкой мультитекстурирования. Суть этой технологии состоит в том, что на полигон накладывается не одна текстура, а две или более (редко более двух). В играх с поддержкой мультитекстурирования, например, Quake2, VooDoo2 обходил своего соперника, а в играх без мультитекстурирования TNT выигрывал у VooDoo2. Только выигрыш одного не был разительным поражением для другого.Отставание присутствовало, но не катастрофическое, тем более, чип от nVidia мог спаривать свои конвейеры, и мультитекстурирование все-таки работало. Кроме того, VooDoo2 не поддерживал 32-битный цвет. Тогда его за это не сильно ругали, но инженерам 3dfx стоило бы задуматься. Не все было гладко и с TNT. У нее наблюдалось небольшое замыливание изображения в высоких разрешениях,этот недостаток передался и следующему поколению.
Конкуренты в лице Matrox и S3 также предложили свое видение ускорителей, но так их называли только маркетологи этих компаний, да и то вполголоса. У Matrox была карточка Millennium II, у которой единственным плюсом было качественное 2D, надо сказать, Matrox была всегда эталоном качества 2D. Но рынку уже нужно было третье измерение. Чуть позже она выпустила карту G200, в которой этот недостаток был чуть подправлен, но не настолько, чтобы карточка имела успех. А S3 предложила Savage 3D, вот только как раз с 3D у нее были проблемы, плюс не самые отлаженные драйвера. Пришло время очередного цикла выпуска карт, и nVidia делает еще более серьезную заявку на пьедестал 3D. Ее новый чип Riva TNT2 архитектурно не отличался от предшественника, но выпускался по техпроцессу 0,25 мкм. Для чипов серии TNT2 были написаны довольно неплохие драйверы, уже тогда драйверы были унифицированными, т.е. подходили для любой карты от nVidia, на любом чипе; Компания 3dfx тоже сделала серию чипов Имя им досталось от предшественника. Кто же будет отказываться от хорошо раскрученного имени?! VooDoo3, хоть и был довольно быстрым чипом, но он по-прежнему не поддерживал 32-битный цвет и режим AGP 4x. Конкуренты уже давно все это реализовали в своих картах. Чип синхронно работает с памятью.
1.3 Описание компаний
Компания 3dfx сделала одно очень выгодное приобретение, купив компанию STB. Многим это название ничего не скажет, но в то время карты от этой компании были хорошо известны в Америке, Канаде и на рынке Азии. Это событие сильно ударило по nVidia, т.к. больше половины чипов этой компании шло на заводы STB. Одновременно с покупкой STB, 3dfx получила большие производственные мощности и команду хороших инженеров.VooDoo3 неплохо продавался и был достаточно популярен.
По скорости Riva TNT2 и VooDoo3 были примерно равны. Где-то был быстрее TNT, где-то VooDoo. Тогда все уже понимали, что 3dfx не правит балом, а делит Олимп с nVidia. Оставим ненадолго наших лидеров и взглянем на другие компании. ATI. Первая из них закрепилась на рынке с картой ATI Rage128 Pro. Эта карта имела сравнительно неплохое быстродействие. С TNT2 и VooDoo3 она не соперничала, но карты от ATI, при переходе к 32-битному цвету, не сильно теряли в производительности. У остальных карт потери были более заметны. Скоростной 3D-режим имел большое значение для ATI, но не настолько, чтобы его отсутствие смертельно било по компании. ATI имела хорошо отлаженные поставки видеоадаптеров для контрактных производителей компьютеров. Чипы от ATI использовались в качестве видеосистем в серверах и ноутбуках.Картой на Rage128 Pro ATI не ограничилась. В 1999 появилась первая массовая многочиповая карта - Rage Fury MAXX, которая была довольно оригинальным ответом конкурентам. На этих картах устанавливалось два чипа Rage 128 Pro. Каждый чип (125 МГц) имел собственную память (143 МГц). Скорость работы возрастала почти в полтора раза, но уж больно цена была высокой, и карты массового распространения не получили.S3 (Speed, Sight, Sound) представила чип Savage 4 (savage от англ. "дикарь"). В плане нововведений у чипа все было отлично.
Он первым поддерживал AGP 4x и прогрессивную технологию сжатия текстур. Она давала очень хорошие результаты, оставалось только убедить программистов использовать эту технологию в играх. Был выпущен Unreal, второй диск был библиотекой сжатых текстур. Это первый и последний известный случай адаптации технологии сжатия текстур от S3 под игру, т. к. для этого нужно очень много поработать, а карт с поддержкой этой технологии не так уж много. Впоследствии ядро чипа Savage 4, а именно его 3D-часть, было интегрировано в материнские платы (графическая часть чипсетов VIA KLEххх, KMххх, P4Mххх). Еще одна канадская компания, Matrox, занималась выпуском профессиональных видеоадаптеров.
Использовались они в основном в компьютерах художников и дизайнеров, поскольку именно Matrox делала карты, считавшиеся чуть ли не эталоном качества 2D. На поединок она представила чип G400. Надо отдать должное проектировщикам чипов из Matrox. Они сделали действительно хорошую карту. В 2D она показывала отличное качество, а в играх имела хорошие показатели быстродействия, сопоставимые с TNT2 и VooDoo3. Неплохо потрудились и драйверописатели. Карта пользовалась спросом. Одновременно G400 поддерживал прогрессивную технологию наложения рельефа. В это время 3dfx разрабатывала новый чип под кодовым названием VSA-100. Архитектурно он был похож на TNT2 (два конвейера рендеринга с одним блоком текстурирования на каждом), но по заявлениям разработчиков он должен был быть гораздо быстрее. Очередной виток выпуска чипов намечался на осень 1999 года. К этому времени должны были быть выпущены три чипа: VSA-100 (3dfx), NV10 (nVidia), Savage2000 (S3). Каждый из этой троицы (по заверению компаний) должен был в корне перевернуть мир третьего измерения.VSA-100 - реализовывать практически бесплатный антиалиасинг. Суть FSAA (full-scene anti-aliasing) заключалась в том, что сцена изначально строилась в гораздо большем разрешении, а потом кадр сжимался до требуемого размера, что значительно улучшало картинку, убирая лестничный эффект. В VSA-100 должна была быть введена технология T-buffer, которая была призвана обеспечить кинематографическое изображение в играх. Производительность карт могла масштабироваться путем установки нескольких чипов на карту. В NV10 и Savage2000 должен был появиться геометрический сопроцессор, который брал на себя расчеты по обработке геометрии моделей и освещения. Ранее такие сопроцессоры стояли только на профессиональных ускорителях и впервые должны были появиться на массовом рынке. При этом снималась довольно тяжелая нагрузка с центрального процессора. Чипы от nVidia и S3 были анонсированы в конце августа 1999 с разницей в один день, а тем временем 3dfx хранила молчание. Осенью в рознице появляется GeForce 256, ранее известный как NV10. Производительность нового чипа была на высоте. Чуть позже оптимизировали драйвера, и всем стало ясно - появился новый форвард. Savage2000 тоже выходит, но с опозданием. Быстродействие нового "дикаря" удручало. Все ждали появления новых драйверов, которые, возможно, исправили бы положение. Но этого не последовало. А из-за стен 3dfx начали появляться слухи, что возникли большие проблемы с выходом чипа VSA-100. В итоге на рынке безраздельно властвовал GeForce 256 (Geometric FORCE - "геометрическая сила" или что-то вроде того). Число 256 означало разрядность чипа. Чип имел четыре конвейера с одним текстурным блоком. Позже была выпущена версия с памятью типа DDR, что еще больше подняло планку производительности продукта. Следующего года карты на VSA-100 все-таки выходят. Одночиповая VooDoo 4500 и многочиповые VooDoo 5500 и VooDoo 6000. Но 3dfx это не помогло, так как nVidia представила GeForce2 GTS вовремя (май 2000).
Даже двухчиповая VooDoo 5500 не могла тягаться с GeForce2 GTS. При том что монстр от 3dfx (иначе его не назовешь) занимал огромную часть системного блока. Да и по стоимости двухчиповые карты VooDoo 5500 были недосягаемы для рядового геймера. К тому же они нуждались в дополнительном питании от разъема для винчестеров.Каннибализм в среде производителей видеографики продолжается. В итоге S3 была куплена компанией производителем чипсетов VIA Tech. Теперь разработки S3 живут в компьютерах многих офисов и нетребовательных пользователей в виде интегрированных решений. Matrox не справилась с конкуренцией на рынке 3D и уже не могла составлять конкуренцию ATI и nVidia. К сожалению, 3Dfx сделала основную ставку на SLI — и проиграла. Компания была разорена, затем объявлена банкротом, и позже ее активы спешно продали с аукциона всего за $70 млн. Покупателем большинства активов стала NVIDIA, которая спустя четыре года после краха 3Dfx выпустила свою версию SLI. Только теперь аббревиатура SLI расшифровывается по-другому (Scalable Link Interface) и работает несколько иным образом. Провала с чипом VSA-100 рынок 3dfx не простил. И после безуспешных попыток найти инвестора, компания была куплена главным конкурентом - nVidia., а покупать было что! 3dfx вела разработки очень перспективных чипов! С ранних дней персональных компьютеров, на большинстве графических плат были установлены конверторы (translators), переводящие созданное компьютером изображение в электрические импульсы, которые требовались монитору. Все это прекрасно работало, но всю обработку изображения выполнял центральный процессор компьютера, параллельно с обработкой звука, управления (в играх) и прерываний системы. Те же самые вещи компьютер должен выполнять и в современных 3D играх или мультимедийных презентациях.
Вам, наверное, уже стало понятно, почему даже самые быстрые процессоры перегружаются работой и не успевают выполнять все задачи в реальном времени. На помощь им приходят графические сопроцессоры или акселераторы. Работа разделяется между центральным процессором и акселератором, в результате производительность системы оказывается на должном уровне. Первым шагом в построении трехмерного цифрового изображения является создание мира каркасов, состоящего из треугольников и полигонов. Мир каркасов превращается с помощью трансформации из трехмерного математического мира в набор объектов на двумерном экране монитора. Трансформированное изображение покрывается текстурами (происходит рендеринг), учитывается освещение от нескольких источников, и, в конце концов, результат отображается на экране. Рядовые ускорители (типа VooDoo3 или TNT2) берут на себя работу по рендерингу (обтягиванию текстурами) после того как каркас был создан и трансформирован в двумерный набор полигонов. Этот шаг очень важен, но передовые ускорители помогает процессору даже на более ранних стадиях. Характерным примером служит GeForce 256 от nVidia. Кроме процесса рендеринга (как в более ранних ускорителях), GeForce 256 может осуществлять трансформацию каркасов из 3D математического пространства в двумерное пространство, а также и некоторую работу по добавлению освещения. Поскольку и трансформация, и метод "бегущего луча" требуют серьезных математических операций с плавающей точкой (вычисления, где используются дроби, называются вычислениями с плавающей точкой, она нужна для большей точности), то центральный процессор хорошо разгружается. А так как графический процессор обычно не выполняет множество различных функций, присущих центральному процессору, то расчеты производятся достаточно быстро. Новая Voodoo5 от 3dfx берет на себя еще одну часть работы. 3dfx называет эту технологию T-буфер (T-buffer). Технология призвана улучшить процесс рендеринга несколько другим способом, нежели перекладывание части работы на графический процессор. T-буфер служит для улучшения сглаживания с помощью создания четырех копий одного и того же изображения, немного сдвинутых друг от друга. Копии совмещаются, что приводит к легкому размытию краев объектов и устранению "лесенок", присущих компьютерному изображению. Та же самая методика применяется для размывания движущихся изображений (motion-blur), размытых теней и размывания глубины резкости фокуса (depth-of-field focus blurring). Все это позволяет изображениям выглядеть более четко и реалистично, что и требуется дизайнерам. Дизайн Voodoo 5 предусматривает выполнение полноэкранного сглаживания, поддерживая при этом быструю частоту смены кадров. Компьютерная графика пройдет еще несколько этапов своего развития, прежде чем выйдет на уровень формирования совсем реалистичных изображений. Но сегодняшние достижения не менее значительны по сравнению с периодом текстовых мониторов в 80 столбцов и 25 строк. В результате миллионы людей могут наслаждаться играми и симуляторами с помощью уже существующей технологии. Новые трехмерные процессоры позволят нам погрузиться в исследование других миров, доселе невиданных в реальности. Существенные технологические улучшения в компьютерной графике появляются примерно раз в шесть месяцев. Программное обеспечение совершенствуется намного медленнее. Уже становится понятным, что подобно Интернету, компьютерная графика станет весомой альтернативой телевидению.
1.4 Трехмерная графика
Все мы пользуемся продуктами высоких технологий. Прогресс — вещь замечательная. Не будь прогресса, не было бы новых интересных компьютерных игр, не смогли бы вы с легкостью работать в 2D- и 3D-редакторах. Летчики, спортсмены, моряки и т.д. не имели бы тренажеров. Такие полезные устройства, как ноутбуки и КПК, так и остались бы уделом научной фантастики. То есть компьютерная графика применяется во многих областях современной жизни, но считается, что именно развлечения (а более конкретно игры) подтолкнули человечество к такому стремительному прогрессу в этой области. Ибо игры – это то, что притягивает к себе большинство людей вне зависимости от возраста, образования, уровня жизни, профессии и т.д. Появляется много новых понятий и терминов. Порой не успеваешь следить за всеми техническими новинками. И в какой-то момент понимаешь, что отстал от прогресса. В самом центре технологической каши — миллионы людей, которые плохо понимают, что же все это такое. Вроде бы они знают, что такое, например, антиалиасинг, но вот когда их спросишь об этом поподробнее, они запнутся.Был момент, когда вы всего этого не знали. Стали играть в игры, разбираться в системе… Получается, что у огромного числа компьютерщиков нет устоявшихся знаний. Практически на любом компьютере сегодня можно получить такое качество и реалистичность изображения, кторое еще лет 10 назад существовало лишь на экранах мощнейших графических станций. Стоимость этих графических станций составляла несколько сотен тысяч долларов. И вот буквально за последние годы все сильно изменилось, теперь можно любоваться отметками монстров и адским пламенем на экране собственного монитора. При этом качество изображения гораздо выше, чем вы видите в телевизоре. Хотя в телевизоре изображение реальное, а в компьютере – смоделированное.
То есть, технически говоря, видеокарты очень сильно прогрессировали… Видеосистема – самая сложная часть персонального компьютера. Раньше по сложности она уступала только процессору, а сейчас уже процессор ей уступает. Видеокарта состоит из двух частей. Это графический процессор (самая большая микросхема видеокарты) и память. Практически это такая же память, как и оперативная. Правда, обычно она работает на большей частоте, чем оперативная (это требование графического процессора).
Сам графический процессор тоже можно разделить на две части. Каждая его часть названа по виду изображения, которое она создает. Есть часть, отвечающая за 2-мерное плоское изображение (так называемое 2D) и часть, создающая 3 –мерное изображение(3 D). Первая часть существовала даже в самых древних видеокартах. Собственно говоря, только она там и была. И за последние годы она практически не изменилась, проблема создания хорошего плоского изображения была решена еще в 386-х компьютерах. Главный пожиратель ресурсов видеокарты – это 3D часть графического процессора. Чтобы создать достоверное для глаза 3-мерное изображение, необходимо огромное количество вычислений. Но хотя самих вычислений много, они достаточно примитивные и однообразные и поэтому, чтобы не гонять эти данные по загруженной другими данными внутренней шине, вычисления производят в самой видеокарте, для этого и появился на ней свой собственный процессор. Самое сложное изображение можно разделить на элементарные составные части. Этих частей для достоверного изображения должно быть огромное количество, сотни тысяч на одном экране. Поэтому решено было (производителями компьютеров) разделить процесс создания 3-мерного изображения. Центральный процессор только подает команды на создание изображения, а самим созданием занимается видеокарта. Для создания изображения требуется гораздо меньше команд, поэтому графический процессор гораздо проще по своей структуре. Но главное его достоинство – возможность выполнять большое количество операций в секунду. Чтобы еще быстрее работать и давать более 30 достоверных кадров в секунду, в графическом процессоре были организованы несколько исполняющих модулей. Модули могут параллельно выполнять команды, одновременно создавая различные части изображения. А чтобы изображение формировалось еще быстрее, модули объединяют в так называемые конвейеры, чтобы одновременно работать на разных стадиях создания изображения. Но хотя процессор и формирует на лету элементарные фигурки, создающие реальное изображение, из этих фигурок получается только оболочка – каркас. Надо на этот каркас натянуть шкурку – текстуры, которые оживляют смоделированное компьютерное изображение. За этот реализм приходится платить немалую цену (в производительности), ведь текстуры в отличие от каркаса не смоделированы. Текстура – это реальное изображение реальной поверхности. Текстур требуется очень много, именно на создание их идет основная часть видеопамяти. Само изображение на экране, независимо от того 2D оно или 3D, занимает в памяти одинаковый объем. А вот если не хватает памяти для текстур, то центральный процессор начинает использовать для этой цели часть своей оперативной памяти и основная внутренняя шина сильно перегружается. Следствием является дерганее экрана и прочие неприятности с изображением. Поэтому на видеокарту стараются поместить как можно больше памяти, (это сдерживается только ценой). В первую очередь, в памяти располагается видеобуфер — специальный участок памяти, где хранится копия изображения, которое в следующее мгновение будет выведено на экран. В видеобуфере изображение как бы собирается по кускам и отправляется на обработку в RAMDAC. В случае если применяется двойная буферизация (double buffering), в видеобуфере хранится дополнительно предыдущее (“теневое”, или “заднее”) выведенное на экран изображение (все эти специальные термины будут рассмотрены в разделе посвященном созданию трехмерного изображения). Наш глаз обладает некоторой инерционностью, то есть некоторое время продолжает видеть изображение, которое уже исчезло.
Представьте себе, что все, что рисует видеокарта в видеобуфере, мгновенно попадает на экран. Рисуем линию — она рисуется поверх предыдущего изображения. Как бы быстро ни происходил этот процесс, глаз все равно будет замечать, что какие-то части изображения остались, какие-то изменились. Из-за этого игрок заметит крайне неприятное мелькание. Именно поэтому новый кадр сначала рисуется в теневой области видеобуфера (так называемый backbuffer), а затем этот кадр и тот, который был на экране, меняются местами. Благодаря этому создается впечатление гладкого и равномерного движения. Допустим, монитор находится в разрешении 1024х768 и в режиме 32 бита. Это значит, что цвет каждого пикселя определяют 32 бита, а количество всех возможных цветов — 232 = 4 294 967 296 — четыре с лишним миллиарда. Порог чувствительности человеческого глаза, к слову, немного ниже, то есть такая картинка будет восприниматься как абсолютно реальная (такой режим называется True Color как было отмечено ранее). В режиме 1024х768 на экране отображается 786432 пикселей. Нехитрые подсчеты показывают, что для хранения этого кадра в видеопамяти потребуется около 3 Мб. С учетом двойной буферизации получается 6 Мб. Но ведь в современном акселераторе в среднем стоит 128 Мб видеопамяти. На что же используются остальные.
Используются они в первую очередь на текстуры. Подгружать текстуры из оперативной памяти, а то и с жесткого диска в процессе рендера — неоправданно долго. Поэтому разработчики игр специальными командами дают задание акселератору подгрузить все или хотя бы часть необходимых ему текстур во время загрузки очередной карты или уровня. Средний размер текстуры — 1024х1024 при качестве 24 или даже 32 бита. Такая текстура будет занимать в памяти около 4 Мб. Значит, в видеопамять объемом 128 Мб влезет от силы 32 таких текстуры. Один путь — подгружать текстуры из оперативной памяти по мере необходимости, но тогда могут случаться задержки, вызывающие падение FPS. Другой путь — хранить текстуры в видеопамяти сжатыми, хотя бы простым алгоритмом. Одним из первых алгоритмов сжатия текстур был S3TC, разработанный в компании S3 Inc. Он стал индустриальным стандартом и поддерживается в DirectX, начиная с версии 6.0. Компания 3dfx разработала свой метод сжатия — FXT1, который отличается высокой степенью компрессии. В настоящее время в ходу несколько конкурирующих методов сжатия. Время определит лидера. Кроме того, в видеопамяти размещаются буферы для вспомогательных технологий: Z-буфер (о котором будет упомянуто позже), T-буфер, вспомогательные кадры для анизотропной фильтрации и ряд других. Пара слов о T-буфере. Эта технология была придумана в компании 3dfx и впервые реализована в Voodoo 5. Для одного и того же кадра в видеопамяти хранится четыре копии, немного сдвинутые друг относительно друга. После рендера они совмещаются, в результате чего края объектов немного размываются и устраняется эффект “лесенки”. T-buffer можно считать еще одной технологией антиалиасинга. Однако она еще и улучшает качество отрисовки быстро движущихся объектов за счет легкого их размытия. За время существования видеокарт разработчики придумали большое количество типов видеопамяти. Основных подходов два: взять уже существующий тип обычной оперативной памяти или разработать что-то новое, специально “заточенное” под хранение графики. Оба подхода были востребованы в разное время и периодически сменяют друг друга. Сейчас, например, в большинстве видеокарт стоит память типа DDR, практически та же самая, что и обычная оперативная память компьютера. Типы видеопамяти, либо по тем или иным причинам не получившие (пока) большого распространения: FPM, EDO DRAM, VRAM, WRAM, RDRAM, SDRAM, SGRAM. В профессиональных видеокартах устанавливаются специальные типы видеопамяти, которые оптимизированы под конкретные задачи, но нам они вряд ли будут интересны.
Видеопамять, как и оперативная память, работает на какой-то определенной частоте. Само по себе количество видеопамяти на борту видеокарты не играет практически никакой роли. Если поставить на старенькую Riva TNT 256 Мб видеопамяти, ее производительность не увеличится ни на йоту — она просто не сможет с дополнительной памятью полноценно работать. В видеоподсистеме все должно быть сбалансировано. Однако современные игры с гигантскими текстурами требуют в видеокартах высокого класса установки большого объема видеопамяти — до 512 Мб. Видеокарта — это отдельное устройство. Первые видеокарты подключались к шине XT-bus через специальный слот. Ему на смену пришел слот ISA. Вскоре его скромных возможностей (16 бит, 8М Гц) стало не хватать, и IBM решила внедрить свою шину и слот для видеокарт и не только под названием MCA (Microchannel Architecture — микроканальная архитектура). Однако затея благополучно провалилась, потому что IBM пожадничала и решила сделать эту шину лицензируемой, то есть разработчики устройств должны были выплачивать ей солидные проценты от продаж. На смену ISA пришла шина VESA Local Bus (VLB), потом PCI и завершил это победное шествие порт AGP. Необходимость выделить под видеокарту отдельный порт назревала долго и упорно. Действительно, это устройство по требованиям к пропускной способности очень сильно отличается от всех остальных компонентов компьютера, его нельзя причесывать под одну гребенку с другими. Идея порта AGP (Accelerated Graphics Port) пришла в голову инженерам из Intel. Она проста до гениальности: видеокарта должна иметь возможность обращаться к оперативной памяти, минуя процессор. По тому же самому принципу работает технология DMA, благодаря которой винчестер может общаться с оперативной памятью в обход процессора. Возможно, через несколько лет устройства и их контроллеры станут настолько умными, что им вообще для работы не нужен будет процессор.
Кроме выделенного канала связи с оперативной памятью, видеокарта может также не заботиться о том, в какой именно ячейке памяти хранится нужная ему информация. С момента своего появления на свет стандарт AGP дошел до третьей версии. Разные версии порта обозначают на манер скоростей у приводов компакт-дисков: 2x у AGP 1.0, 4x у AGP 2.0 и 8x у AGP 3.0. Получается какая-то несуразица: почему у самого первого слота AGP скорость передачи сразу 2x? А дело вот в чем. Шина AGP 1.0 имеет частоту 66 М Гц и разрядность 32 бита. Значит, скорость передачи данных — 266 Мб/c. Однако шина может также работать в режиме, когда данные передаются и по переднему, и по заднему фронту синхросигнала, и тогда скорость передачи возрастает в два раза — до 532 Мб/c. Отсюда приписка “2x”. В стандарте AGP 2.0 скорость передачи данных выросла еще в два раза — до 1064 Мб/c, и появился новый механизм “быстрой записи” — Fast Write (FW). С его помощью управляющие команды записываются напрямую в AGP-устройство. Раньше в качестве промежуточного звена использовалась оперативная память. В AGP 3.0 частота возросла до 533 М Гц, а скорость обмена данными — до 2.1 Гб/c. В последние годы появился новый интерфейс - PCI express, PCIE -сокращенно. Эта шина полностью заменила шину PCI в новых компьютерах.
1.5 Видеосистема как часть компьютера
Видеокарта состоит из двух частей. Это графический процессор (самая большая микросхема видеокарты) и память. Практически это такая же память, как и оперативная. Правда, обычно она работает на большей частоте, чем оперативная (это требование графического процессора).Сам графический процессор тоже можно разделить на две части. Каждая его часть названа по виду изображения, которое она создает. Есть часть, отвечающая за 2-мерное плоское изображение (так называемое 2D) и часть, создающая 3 –мерное изображение(3 D).
Первая часть существовала даже в самых древних видеокартах. Собственно говоря, только она там и была. И за последние годы она практически не изменилась, проблема создания хорошего плоского изображения была решена еще в 386-х компьютерах. Главный пожиратель ресурсов видеокарты – это 3D часть графического процессора. Чтобы создать достоверное для глаза 3-мерное изображение, необходимо огромное количество вычислений. Но хотя самих вычислений много, они достаточно примитивные и однообразные и поэтому, чтобы не гонять эти данные по загруженной другими данными внутренней шине, вычисления производят в самой видеокарте, для этого и появился на ней свой собственный процессор. Самое сложное изображение можно разделить на элементарные составные части. Этих частей для достоверного изображения должно быть огромное количество, сотни тысяч на одном экране. Поэтому решено было (производителями компьютеров) разделить процесс создания 3-мерного изображения. Центральный процессор только подает команды на создание изображения, а самим созданием занимается видеокарта. Для создания изображения требуется гораздо меньше команд, поэтому графический процессор гораздо проще по своей структуре. Но главное его достоинство – возможность выполнять большое количество операций в секунду. Чтобы еще быстрее работать и давать более 30 достоверных кадров в секунду, в графическом процессоре были организованы несколько исполняющих модулей. Модули могут параллельно выполнять команды, одновременно создавая различные части изображения. А чтобы изображение формировалось еще быстрее, модули объединяют в так называемые конвейеры, чтобы одновременно работать на разных стадиях создания изображения. Но хотя процессор и формирует на лету элементарные фигурки, создающие реальное изображение, из этих фигурок получается только оболочка – каркас. Надо на этот каркас натянуть шкурку – текстуры, которые оживляют смоделированное компьютерное изображение. За этот реализм приходится платить немалую цену (в производительности), ведь текстуры в отличие от каркаса не смоделированы. Текстура – это реальное изображение реальной поверхности. Текстур требуется очень много, именно на создание их идет основная часть видеопамяти. Само изображение на экране, независимо от того 2D оно или 3D, занимает в памяти одинаковый объем. А вот если не хватает памяти для текстур, то центральный процессор начинает использовать для этой цели часть своей оперативной памяти и основная внутренняя шина сильно перегружается. Следствием является дерганее экрана и прочие неприятности с изображением. Поэтому на видеокарту стараются поместить как можно больше памяти, (это сдерживается только ценой). В первую очередь, в памяти располагается видеобуфер — специальный участок памяти, где хранится копия изображения, которое в следующее мгновение будет выведено на экран. В видеобуфере изображение как бы собирается по кускам и отправляется на обработку в RAMDAC. В случае если применяется двойная буферизация (double buffering), в видеобуфере хранится дополнительно предыдущее (“теневое”, или “заднее”) выведенное на экран изображение (все эти специальные термины будут рассмотрены в разделе, посвященном созданию трехмерного изображения). Наш глаз обладает некоторой инерционностью, то есть некоторое время продолжает видеть изображение, которое уже исчезло. Представьте себе, что все, что рисует видеокарта в видеобуфере, мгновенно попадает на экран. Рисуем линию — она рисуется поверх предыдущего изображения. Как бы быстро ни происходил этот процесс, глаз все равно будет замечать, что какие-то части изображения остались, какие-то изменились. Из-за этого игрок заметит крайне неприятное мелькание. Именно поэтому новый кадр сначала рисуется в теневой области видеобуфера (так называемый backbuffer), а затем этот кадр и тот, который был на экране, меняются местами. Благодаря этому создается впечатление гладкого и равномерного движения. Допустим, монитор находится в разрешении 1024х768 и в режиме 32 бита. Это значит, что цвет каждого пикселя определяют 32 бита, а количество всех возможных цветов — 232 = 4 294 967 296 — четыре с лишним миллиарда. Порог чувствительности человеческого глаза, к слову, немного ниже, то есть такая картинка будет восприниматься как абсолютно реальная (такой режим называется True Color как было отмечено ранее). В режиме 1024х768 на экране отображается 786432 пикселей. Нехитрые подсчеты показывают, что для хранения этого кадра в видеопамяти потребуется около 3 Мб. С учетом двойной буферизации получается 6 Мб. Но ведь в современном акселераторе в среднем стоит 128 Мб видеопамяти. Используются они в первую очередь на текстуры. Подгружать текстуры из оперативной памяти, а то и с жесткого диска в процессе рендера — неоправданно долго. Поэтому разработчики игр специальными командами дают задание акселератору подгрузить все или хотя бы часть необходимых ему текстур во время загрузки очередной карты или уровня. Средний размер текстуры — 1024х1024 при качестве 24 или даже 32 бита. Такая текстура будет занимать в памяти около 4 Мб. Значит, в видеопамять объемом 128 Мб влезет от силы 32 таких текстуры. Один путь — подгружать текстуры из оперативной памяти по мере необходимости, но тогда могут случаться задержки, вызывающие падение FPS. Другой путь — хранить текстуры в видеопамяти сжатыми, хотя бы простым алгоритмом. Одним из первых алгоритмов сжатия текстур был S3TC, разработанный в компании S3 Inc. Он стал индустриальным стандартом и поддерживается в DirectX, начиная с версии 6.0. Компания 3dfx разработала свой метод сжатия — FXT1, который отличается высокой степенью компрессии.
В настоящее время в ходу несколько конкурирующих методов сжатия. Время определит лидера. Кроме того, в видеопамяти размещаются буферы для вспомогательных технологий: Z-буфер (о котором будет упомянуто позже), T-буфер, вспомогательные кадры для анизотропной фильтрации и ряд других. Пара слов о T-буфере. Эта технология была придумана в компании 3dfx и впервые реализована в Voodoo 5. Для одного и того же кадра в видеопамяти хранится четыре копии, немного сдвинутые друг относительно друга. После рендера они совмещаются, в результате чего края объектов немного размываются и устраняется эффект “лесенки”. T-buffer можно считать еще одной технологией антиалиасинга. Однако она еще и улучшает качество отрисовки быстро движущихся объектов за счет легкого их размытия. За время существования видеокарт разработчики придумали большое количество типов видеопамяти. Основных подходов два: взять уже существующий тип обычной оперативной памяти или разработать что-то новое, специально “заточенное” под хранение графики. Оба подхода были востребованы в разное время и периодически сменяют друг друга. Сейчас, например, в большинстве видеокарт стоит память типа DDR, практически та же самая, что и обычная оперативная память компьютера. Типы видеопамяти, либо по тем или иным причинам не получившие (пока) большого распространения: FPM, EDO DRAM, VRAM, WRAM, RDRAM, SDRAM, SGRAM. В профессиональных видеокартах устанавливаются специальные типы видеопамяти, которые оптимизированы под конкретные задачи, но нам они вряд ли будут интересны. Видеопамять, как и оперативная память, работает на какой-то определенной частоте. Само по себе количество видеопамяти на борту видеокарты не играет практически никакой роли. Если поставить на старенькую Riva TNT 256 Мб видеопамяти, ее производительность не увеличится ни на йоту — она просто не сможет с дополнительной памятью полноценно работать.
В видеоподсистеме все должно быть сбалансировано. Однако современные игры с гигантскими текстурами требуют в видеокартах высокого класса установки большого объема видеопамяти — до 512 Мб. Видеокарта — это отдельное устройство. Первые видеокарты подключались к шине XT-bus через специальный слот. Ему на смену пришел слот ISA. Вскоре его скромных возможностей (16 бит, 8М Гц) стало не хватать, и IBM решила внедрить свою шину и слот для видеокарт и не только под названием MCA (Microchannel Architecture — микроканальная архитектура). Однако затея благополучно провалилась, потому что IBM пожадничала и решила сделать эту шину лицензируемой, то есть разработчики устройств должны были выплачивать ей солидные проценты от продаж. На смену ISA пришла шина VESA Local Bus, потом PCI и завершил это победное шествие порт AGP. Необходимость выделить под видеокарту отдельный порт назревала долго и упорно. Действительно, это устройство по требованиям к пропускной способности очень сильно отличается от всех остальных компонентов компьютера, его нельзя причесывать под одну гребенку с другими. Идея порта AGP пришла в голову инженерам из Intel. Она проста до гениальности: видеокарта должна иметь возможность обращаться к оперативной памяти, минуя процессор. По тому же самому принципу работает технология DMA, благодаря которой винчестер может общаться с оперативной памятью в обход процессора. Возможно, через несколько лет устройства и их контроллеры станут настолько умными, что им вообще для работы не нужен будет процессор. Кроме выделенного канала связи с оперативной памятью, видеокарта может также не заботиться о том, в какой именно ячейке памяти хранится нужная ему информация. С момента своего появления на свет стандарт AGP дошел до третьей версии. Разные версии порта обозначают на манер скоростей у приводов компакт-дисков: 2x у AGP 1.0, 4x у AGP 2.0 и 8x у AGP 3.0. Получается какая-то несуразица: почему у самого первого слота AGP скорость передачи сразу 2x. А дело вот в чем. Шина AGP 1.0 имеет частоту 66 М Гц и разрядность 32 бита. Значит, скорость передачи данных — 266 Мб/c. Однако шина может также работать в режиме, когда данные передаются и по переднему, и по заднему фронту синхросигнала, и тогда скорость передачи возрастает в два раза — до 532 Мб/c. Отсюда приписка “2x”. В стандарте AGP 2.0 скорость передачи данных выросла еще в два раза — до 1064 Мб/c, и появился новый механизм “быстрой записи” — Fast Write (FW). С его помощью управляющие команды записываются напрямую в AGP-устройство. Раньше в качестве промежуточного звена использовалась оперативная память. В AGP 3.0 частота возросла до 533 М Гц, а скорость обмена данными — до 2.1 Гб/c. В последние годы появился новый интерфейс - PCI express, PCIE -сокращенно.
Эта шина полностью заменила шину PCI в новых компьютерах. Сейчас уже сложно купить новую современную видеокарту стандарта AGP.
1.6 Видеокарта NVIDIA GeForce256, GeForce2 и ATI Radeon256
В новых драйверах Detonator, серии 5.хх, NVIDIA раньше конкурентов реализовала возможность принудительного включения антиалиасинга, в любых трехмерных играх, на всех видеокартах семейства GeForce. Это значит, что теперь от игры больше не требовалось, чтобы она сама включала анти-алиасинг: теперь это, при желании пользователя, делал драйвер. Используется самый обычный стандартный суперсэмплинг, принцип которого, как я надеюсь, вы уже поняли. В настройках драйвера есть возможность выбора количества сэмплов, на основании которых формируется цвет результирующего пикселя. Более подробно об этом можно почитать в нашей статье, посвященной суперсэмплингу.
Вскоре, после выхода GeForce2 GTS, ATI выпустила достойный ответ. Это был ускоритель Radeon256, составивший серьезную конкуренцию GeForce2.
Естественно, не была обойдена вниманием ставшая тогда очень модной функция анти-алиасинга. ATI никак не усовершенствовала стандартную реализацию и, точно так же, ввела принудительное включение полноэкранного сглаживания в любых играх, поэтому нет смысла рассматривать ее отдельно (все, выше сказанное о суперсэмплинге, верно и для Radeon256).
1.7 Перспективы развития
Скорость трехмерных акселераторов растет с неудержимой скоростью, поэтому анти-алиасинг неизбежно будет становиться все более доступным и качественным. Естественно, будут совершенствоваться и методы сглаживания. Я думаю, в дальнейшем сохранится та же дилемма, что и сейчас: выбрать чуть более качественный метод и проиграть в скорости или выбрать чуть меньшее качество, но с большей скоростью. Но, скорее всего, каждый метод будет совершенствоваться по обоим направлениям сразу, повышая и качество и скорость. Мне, например, представляется очевидным следующий шаг Accuview: лучшим решением, повышающим качество и не сильно снижающим скорость, было бы введение смещенного расположения сэмплов внутри пикселей (при этом, как и раньше, сглаживать только края полигонов). Можно уверенно говорить, что положение изменилось: функция перестала играть, преимущественно маркетинговую, роль и появились реальные причины для ее использования. Когда сегодняшние, самые современные, ускорители опустятся в цене до уровня около $100-150, анти-алиасинг придет в каждый дом. ATI до сих пор ведет смертельный бой с nVidia за право обладать короной 3D. В течение всего 2004 года компания ATI хоть и медленно, но неуклонно увеличивала свою рыночную долю, оттесняя лидера nVidia. Такой успех ATI обеспечили недорогие и достаточно производительные модели 2003 года - Radeon 9800 и 9600 - особенно на фоне ряда как технологических, так и маркетинговых провалов nVidia.
В 2004 году появилось множество усовершенствований в архитектуре графических процессоров, таких как PCI Express, SLI и GDDR-3, способных полностью изменить облик современных видеосистем. Наиболее значимым событием стало активное внедрение нового последовательного интерфейса PCI Express х16. Новый интерфейс обеспечивает пропускную способность до 4 Гбайт/с (против 2,1 Гбайт/с у AGP 8X). Однако флагманские модели обоих конкурирующих гигантов - ATI X800 Pro и nVidia GeForce 6800 - изначально имели все-таки традиционный интерфейс AGP 8X.Технология SLI (ScanLine Interleaving) предусматривает параллельное использование двух видеокарт с целью повышения производительности видеосистемы. (Помните разработку 3dfx образца 1998 года.) Для согласования данных и синхронизации видеокарты соединяются платой-перемычкой, надеваемой на специальные 26-контактные разъемы в верхней части плат. Разработчик технологии, компания nVIDIA, предполагает реализовать ее в видеопроцессорах GeForce 6800 и GeForce 6600. NVIDIA в этом году смогла опередить ATI и первой анонсировала чип нового поколения — GeForce 7800 GTX. Что в нем появилось нового и станет ли он лидером на рынке видеоплат класса high-end. »от ATI для сжатия карт нормалей, смогут работать и на GeForce 7800. Разумеется, поддерживается и технология SLI. Кстати, совсем недавно в Интернете появилась информация о материнской плате ASUS A8N32-SLI Premium, предоставляющей пользователям два полноценных порта PCI Express х16. Так что SLI на такой плате будет работать на полных оборотах, что не может не радовать. Кроме полной поддержки DirectX 9.0c и OpenGL 2.0 заявлена реализация и некоторых возможностей операционной системы Longhorn, стандартов Windows Graphics Foundation WGF 1.0 и Longhorn Display Driver Model (LDDM). В частности, станет возможным осуществлять постобработку видео, аппаратное ускорение отрисовки сглаженного текста и составление рабочего стола в режиме реального времени.
Заниматься производством видеоплат на базе нового графического процессора будут все крупные компании: Albatron, AOpen, ASUS, BFG, Biostar, Chaintech, Gainward, Galaxy, Gigabyte, InnoVISION, Leadtek, MSI, Palit, PNY, Point of View, Prolink, Sparkle и XFX. Подводя промежуточный итог, все же стоит отметить, что каких-либо кардинальных изменений, сравнимых с переходом от GeForce 2 к GeForce 3, в чипе нет. Поэтому новое поколение графических процессоров от NVIDIA стоит рассматривать как весьма существенную доработку архитектуры предыдущего поколения — CineFX 3.0. Ведь, как и старая архитектура, новая ориентирована на Shader Model 3.0, то есть на вершинные и пиксельные шейдеры версии 3.0. Рассмотрим их более детально. CA..EII.A IOI‚AEA. По сравнению с GeForce 6800 в качественном плане никаких изменений в архитектуре вершинных конвейеров не произошло. Внутреннее устройство идентично конвейерам GeForce 6800, поддерживаются вершинные шейдеры версии 3.0. Помимо роста числа вершинных конвейеров (с шести до восьми) заявлена низкоуровневая оптимизация скалярных ALU и блоков выборки текстур. У каждого конвейера есть блок выборки текстур, в общей сложности их восемь. Количество пиксельных конвейеров возросло с 16 до 24, что само по себе повлечет существенный рост производительности. Однако число блоков растеризации по-прежнему равно 16. И хотя чип может обработать до 24 пикселей за такт, процесс растеризации возможен лишь для 16 пикселей. Таким образом, теоретическая пиксельная скорость заливки идентична GeForce 6800 Ultra. Как объясняет NVIDIA, в случае активного использования пиксельных шейдеров и мультитекстурирования 16 блоков. Новая видеоплата опережает Radeon X850XT почти по всем показателям. Стоит отметить существенно возросшую скорость выполнения пиксельных шейдеров в синтетических тестовых пакетах 3DMark 2003 и 3DMark 2005. В этих тестах GeForce 7800 GTX превосходит платы предыдущего поколения в лице Radeon X850XT и GeForce 6800 Ultra в два и более раз. Во всех остальных сценах тестовых пакетов наблюдается закономерный рост благодаря увеличению числа пиксельных и вершинных конвейеров. Отметим, что по мере роста нагрузки на видеоплату (увеличения разрешения, включения полноэкранного сглаживания и анизотропной фильтрации) Radeon X850XT все ближе подбирается к новому лидеру, что несколько настораживает. Причиной такого поведения, скорее всего, является «сырая» версия драйверов, ведь GeForce 7800 GTX появилась совсем недавно. И, наконец, подведем итог. Графический чип GeForce 7800 GTX — новый лидер рынка. Конечно, такие выдающиеся результаты в первую очередь возможны благодаря наличию восьми пиксельных и двух вершинных дополнительных конвейеров. Ну и, конечно, различного рода оптимизации конвейеров. Новая реализация режима сглаживания также придется по вкусу боль- шинству пользователей. Остается лишь один вопрос: как долго NVIDIA сможет удерживать пальму первенства. Чтобы на него ответить, достаточно дождаться выхода в свет чипа R520 от ATI. На момент подготовки этого материала процессор еще не появился, однако его анонс был уже очень близок. Очевидно, что ATI обязательно ответит NVIDIA. И, конечно же, не стоит забывать про Ultra-модификацию процессора G70. Помимо разгона в чипе могут появиться дополнительные конвейеры. По некоторым данным, общее число пиксельных конвейеров может возрасти до 32 с соответствующим ростом производительности. Основной этап битвы за рынок high-end еще впереди.
1.8 Последние технологические разработки
NVIDIA продолжает медленно, но верно осваивать поле под названием Direct X 10. На этот раз компания намерена завоевать средний и нижний ценовые сегменты, представив видеокарты на базе чипов GeForce 8500 и GeForce 8600. Они пришли на смену платам 7-й серии и предлагают большую производительность, архитектуру с унифицированными шейдерами, аппаратную поддержку DX10 и декодирование HD-фильмов. Звучит неплохо, осталось проверить все эти новшества на практике. Ядро GeForce 8600 GT/GTS содержит 289 млн транзисторов и несет в себе 32 унифицированных потоковых процессора (Streaming Processors, SP), объединенных в два блока по 16 SP. Они работают на более чем вдвое большей частоте по сравнению с остальными компонентами чипа. Для GeForce 8600 GTS частоты, соответственно, равны 675 МГц и 1450 МГц, для GeForce 8600 GT — 540 МГц и 1180 МГц. Каждый из SP может производить расчеты c 32-битной точностью, что делает их пригодными для научных, экономических и других вычислений. Серьезные изменения постигли текстурные блоки TMU. Как и прежде, на каждые 16 пиксельных процессоров приходится 4 TMU. Однако в ядре G80 четыре текстурных блока могут за такт вычислить 4 текстурных адреса и выполнить 8 операций текстурной фильтрации, в случае с G84 показатель адресации текстур увеличен до восьми. Таким образом, TMU нового ядра способны за такт совершать в два раза больше текстурных выборок. Теоретическая скорость текстурирования G86 равна 16 текселям за такт (10,8 гигатекселя в секунду для GeForce 8600 GTS). Отметим, что на практике платы показывают в два раза меньшие результаты. С чем это связано, пока неизвестно.Число блоков растеризации (Raster Operation, ROP) сократилось до двух. Поддерживается как новый тип сглаживания (Coverage Sampled Antialiasing, CSAA), так и рендеринг с использованием сглаживания и высокого динамического диапазона HDR одновременно. Каждый из блоков за раз может обработать до четырех пикселей (16 субпикселей) и обеспечивает 64-битный доступ к видеопамяти. Ширина шины данных равна 128 битам, что может серьезно ограничить быстродействие видеокарт.
Подсистема памяти на GeForce 8600 GT/GTS представлена четырьмя микросхемами GDDR3 (с 32-битной шиной) объемом 512 Мбит каждая. Для версии GT номинальная частота равна 1400 МГц, для GTS — 2000 МГц.Графический чип GeForce 8500 GT может похвастаться лишь одним функциональным блоком, который состоит из 16 потоковых процессоров и 4 TMU. Ядро содержит 210 млн. транзисторов. Номинальная частота чипа равна 450 МГц, потоковых процессоров — 900 МГц. Блоки ROP и шину данных оставили без изменений. На видеокартах используются 8 микросхем DDR2-памяти (с 16-битной шиной) объемом 256 Мбит каждая. Частота памяти составляет 800 МГц. Основным преимуществом чипов G84 и G86 стал встроенный видеопроцессор PureVideo HD. Он использует BSP-движок, который берет на себя основную нагрузку по декодированию таких видеоформатов, как H.264, VC-1, MPEG-2 с разрешением до 1920x1080 и битрейтом до 40 Мбит/с. На практике получается следующее: воспроизведение дисков Blu-ray и HD-DVD с применением программного декодирования загружает процессор на 90-100%, видеокарты предыдущего поколения снижают этот показатель до 60-70%, в случае с GeForce 8500/8600 обработка видео отъедает лишь 20% процессорного времени. Поддержка внешних интерфейсов у GeForce 8500/8600 теперь встроена в графическое ядро платы. В случае с GeForce 8800 этим занимался чип NVIO. GeForce 8600 GTS оснащена двумя выходами Dual-Link DVI-I c поддержкой HDCP. Кроме того, возможно появление моделей с разъемом HDMI. GeForce 8500 GT и 8600 GT обладают лишь опциональной поддержкой HDCP и HDMI, так что реализация этих интерфейсов остается уделом производителей видеокарт.
1.9 Графический процессор NVIDIA
NVIDIA— это одно из лучших вложений в ПК. Процессоры помогут улучшить выполнение повседневных задач — от редактирования фотографий до просмотра фильмов высокой четкости и 3D карт.
1.10 Обзор. ВидеокартаASUS GeForce 8800 GT 512Mb на NVIDIA G92
Уже почти 2 месяца прошло с даты официального анонса графического процессора GeForce 8800 GT, а в свободной продаже видеокарты на нем все еще очень редки, вследствие чего и цены на них не спускаются до уровня рекомендованных. Одна из таких видеокарт попала в тестовую лабораторию, но прежде чем знакомиться с ней, предлагаем познакомиться с ее основой, т.е. сам Графический процессор, который имеет кодовое имя G92, выполнен теперь по «более тонкому» техпроцессу 65 нм и состоит из 754 миллиона транзисторов. В основе его лежит унифицированная шейдерная архитектура на базе GigaThread technology, которая подразумевает наличие массива общих процессоров для потоковой обработки вершинных, пиксельных и геометрических подпрограмм (хотя могут выполняться и любые другие подпрограммы, например физические расчеты, если их перевести в понятный GPU вид). Этот графический процессор имеет полную аппаратную поддержку OpenGL 2.0 и DirectX 10.0, что подразумевает работу с Shader Model 4.0, выполнение геометрических шейдеров, поддержку изменения геометрии и записи промежуточных данных из шейдеров. При этом поддерживает работу с 128-разрядными числами с плавающей запятой для представления цветовой информации на всех этапах конвейера рендеринга.
Рисунок 1.1 - Диаграмма графического процессора G 92
За работу с текстурами и формирование изображения (рендеринг) отвечает NVIDIA Lumenex Engine, который поддерживает 16x анизотропную фильтрацию (anisotropic filtering), 16x полноэкранное сглаживание (full screen anti-aliasing) в режимах multisampling и supersampling для обычных и полупрозрачных поверхностей. Также поддерживается работа с HDR-освещением (high dynamic-range) и сглаживанием при 128-разрядной точности (32-битное описание каждого компонента точки текстуры при фильтрации и закрашивании). Для компрессии цветовой информации, текстур, данных z-буфера и карт нормалей применяются передовые алгоритмы сжатия без потерь. А для отсечения невидимых в конечной сцене точек используется метод Z-cull, причем благодаря технологии Early-Z этот метод способен отбрасывать «лишнее» еще до растеризации, чтобы не приходилось обрабатывать лишнюю информацию.
Рисунок 1.2 – Схема текстурных модулей
Несмотря на большое сходство архитектур G80 и G92, стоит отметить, что текстурные модули последнего имеют в 2 раза больше блоков адресации текстур, что должно немного ускорить работу с ними и, соответственно, положительно повлиять на производительность. Традиционно для решений такого уровня поддерживается технология SLI, которая позволяет увеличить мощь графической подсистемы с помощью параллельного рендеринга на двух и даже более видеокартах. Кроме того, G92 поддерживает NVIDIA Quantum Effects Technology, которая является расширением шейдерной архитектуры для проведения на графическом процессоре физических расчетов и просчета различных эффектов.
За постобработку видео и видео высокой четкости отвечает технология PureVideo HD, встроенная в графический процессор и позволяющая разгрузить центральный при просмотре фильмов c Blu-ray и HD DVD дисков.
Технология полностью совместима с кодеками H.264, VC-1, MPEG2 и WMV9 для сжатия видео высокого разрешения (до 1920x1080 и битрейтом до 30-40 Мбит/с), а также включает обвязку защиты контента HDCP (High-Bandwidth Digital Content Protection). Также выполняются аппаратно пространственно-временной деинтерлейсинг,масштабирование изображения, обратный пересчет кадров (2:2 и 3:2), коррекция ошибок пересчета кадров, коррекция цветов, снижение уровня шумов и сглаживание.За работу с внешними интерфейсами отвечает тоже сам G92, в отличие от предыдущих решений линейки 8800, где этим занимался чип NVIO. Поддерживаются два dual-link DVI выхода, способные формировать изображение с разрешением до 2560x1600 на цифровых мониторах, а за вывод на аналоговые отвечают два 400 МГц RAMDAC, которые способны формировать изображение с разрешением до 2048x1536 при частоте обновления 85 Гц. Интегрированный энкодер HDTV позволяет выводить на TV-out (Component/Composite/S-Video) изображение в формате до1080p.Существенным нововведением является использование для подключения видеокарты на G92 передового интерфейса PCI Express 2.0, который обратно совместим с устаревающими более медленными PCI Express 1.0/1.1. PCI Express 2.0 позволяет в два раза увеличить пропускную способность двунаправленного канала обмен данными, что для слота x16 выливается в 8 Гб/с в каждом направлении, против 4 Гб/с в разъеме предыдущего протокола. Маловероятно то, что ускоренный интерфейс принесет заметное увеличение производительности одиночной видеокарты, но в режимах MultiGPU эффект должен быть ощутим. Таковы возможности и особенности графического процессора NVIDIA G92, а теперь давайте почерпнем о нем еще немного технических подробностей.
Таблица 1.1 - Сравнение характеристик – GeForce 8800 GT с 256 и 512 Мб видеопамяти
GeForce 8800 GT 512 Мб |
GeForce 8800 GT 256 Мб |
Частота ядра, МГц |
600 |
Частота универсальных процессоров, МГц |
1500 |
Количество универсальных процессоров |
112 |
Количество текстурных блоков / блоков блендинга |
56 / 16 |
Объем памяти, Мб |
512 |
256 |
Эффективная частота памяти, МГц |
1800 (2*900) |
1400 (2*700) |
Тип памяти |
GDDR3 |
Разрядность шины памяти, бит |
256 |
Энергопотребление, Вт |
до 110 |
Рекомендуемая цена, $ |
249 |
199 |
1.11 Краткая характеристика видеокарты
Таблица 1.2 – Краткая характеристика видеокарт
Модель |
ASUS EN8800GT/G/HTDP/512M |
Графическое ядро |
NVIDIA GeForce 8800 GT (G92-270) |
Конвейера |
112 унифицированных |
Поддерживаемые API |
DirectX 10.0 OpenGL 2.0 |
Частота ядра, МГц |
600 |
Объем (тип) памяти, Мб |
512 (GDDR3) |
Реальная (эффективная) частота памяти, МГц |
900 (1800 DDR) |
Шина памяти |
256 бит |
Стандарт шины |
PCI Express 2.0 X16 |
Максимальное разрешение |
До 2560 x 1600 |
Выходы |
2x DVI-I (VGA только через переходник)
TV-Out (HDTV, S-Video и Composite)
|
Видеокарта поставляется в большой двойной картонной коробке с ручкой, что традиционно для топовых продуктов от ASUS. Лицевая часть упаковки сообщает только основные особенности содержимого и дополняет это информацией о наличии в комплекте полной версии популярной игры Company of Heroes: Opposing Fronts.
При этом верхняя часть упаковки может раскрываться, как книга, предоставляя покупателю информацию о возможностях технологии, а точнее утилиты, GamerOSD, которая позволяет настраивать некоторые параметры изображения и видеокарты, общаться чатом или через WEB-камеру не выходя из любимой игры.
Обратная сторона упаковки содержит чуть больше информации о возможностях видеокарты, но в основном это перечисление возможностей чипа G92 и реклама фирменных технологий и утилит ASUS, таких как Splendid, Video Security, GamerOSD и SmartDoctor.
Из полезных технических данных, приведенных на упаковке, можно отметить лишь указание возросших минимальных системных требований для компьютера, в который покупатель соберется установить ASUS EN8800GT/G/HTDP/512M/A. Так, теперь «потребуется» минимум 1 Гб оперативной памяти или лучше больше, а также блок питания мощностью минимум 400 Вт, способный по линии 12V выдавать 26 А.
Комплектация видеокарты включает не только самое необходимое, но и имеет пару приятных бонусных расширений. В нее входят:
- переходник с периферийных разъемов Molex на 6-контактный разъем питания видеокарты;
- переходник с VGA на DVI;
- покомпонентный HDTV-Out;
- руководство пользователя по быстрой установке видеокарты;
- 2 CD с драйверами, утилитами и многоязычным руководством в электронном виде;
- полная DVD версия игры Company of Heroes: Opposing Fronts;
- фирменная папка на 16 дисков.
Всю поверхность фронтальной части ASUS EN8800GT/G/HTDP/512M/A скрывает обновленная, занимающая теперь лишь один слот, система охлаждения, которая является традиционной для большинства реализаций GeForce 8800 GT, независимо от конечного производителя (продавца, по сути).
Видеокарта выполнена на текстолите зеленого цвета со стандартной (референсной) разводкой, как и следовало ожидать. Сама печатная плата рассчитана на все варианты видеокарт с чипами G92, как GeForce 8800 GT, так и GeForce 8800 GTS, что уже можно утверждать с уверенностью после недавнего анонса последних. Так, в стабилизаторе питания не распаян один из каналов, который как раз и будет необходим для видеокарт на G92-400 (GeForce 8800 GTS). Также обращаем внимание, что дизайн платы рассчитан и на установку чипа VIVO, хотя о таких видеокартах мы пока не слышали.
Видеокарта имеет достаточно большие размеры, что может стать помехой при установке ее в компактные корпуса.
Кроме того, поскольку разъем дополнительного питания расположен параллельно печатной плате видеокарты, видеокарте на самом деле требуется еще чуть больше пространства от задней стенки корпуса до корзины для жестких дисков или передней панели.
В набор интерфейсных разъемов входят два DVI, преобразуемые в VGA при помощи переходников, и один HDTV-Out. Заметим, что все разъемы, в том числе и разъем SLI, предусмотрительно закрыты заглушками, чтобы они на дольше могли сохранить первозданный вид. Физически выглядит графическое ядро G92-270 (NVIDIA GeForce 8800 GT 256-bit), работающее на частоте 600/1500 МГц для растрового и шейдерного блоков соответственно. Обмен данными с видеопамятью теперь происходит по 256-битной шине. Сама же видеопамять объемом 512 Мб набрана восемью микросхемами GDDR3 Qimonda HYB18H512312BF-10, которые рассчитаны на работу с эффективной частотой 2000 МГц, но на ASUS EN8800GT/G/HTDP/512M/A она работает на рекомендованной NVIDIA частоте 1800 МГц DDR (реальная 900 МГц).
1.12 Стенд для тестирования Видеокарт
Таблица 1.3 – Тестирование видеокарт
Процессор |
Intel Core 2 Duo E6300 (LGA775, 1,86 ГГц, L2 2 Мб) @2,8 ГГц |
Материнская плата (PCI Express) |
GIGABYTE GA-965P-DS4 на Intel P965 Express (LGA 775, DDR2, ATX) |
Материнские платы (Multi-GPU) |
ASUS Striker II Formula на nForce 780i SLI (LGA 775, DDR2, ATX)
GIGABYTE GA-X48-DQ6 на Intel X48 (LGA 775, DDR2, ATX)
|
Кулер |
Thermaltake Sonic Tower (CL-P0071) + akasa AK-183-L2B 120 мм |
Оперативная память |
2 х DDR2-800 1024 Мб Apacer PC6400 |
Жесткий диск |
Samsung HD080HJ, 80 Гб, SATA-300 |
Блоки питания |
Chieftec CFT-500-A12S 500W, 120 мм вентилятор
Chieftec CFT-850G-DF 850W 140+80 мм вентиляторы (Multi-GPU)
|
Корпус |
CODEGEN M603 MidiTower, 2х 120 мм вентилятора на вдув/выдув |
1.13 Разгон
Интересно, а как GeForce 8800 GT, и ASUS EN8800GT/G/HTDP/512M/A в частности, относятся к «ручному» поднятию рабочих тактовых частот? С помощью утилиты RivaTuner удалось заставить графический процессор стабильно работать на частотах 720/1782 МГц по растровому и шейдерному доменам, а видеопамять разогналась до 2020 МГц.
Эффективность разгона представим в виде таблицы:
Таблица 1.4 – Сравнение частот
Тестовый пакет |
Стандартные частоты |
Разогнанная видеокарта |
Прирост производительности, % |
Futuremark 3DMark'05 |
16225 |
16709 |
2,98 |
Futuremark 3DMark'06 |
3DMark Score |
10683 |
11326 |
6,02 |
SM2.0 Score |
4978 |
5224 |
4,94 |
HDR/SM3.0 Score |
4945 |
5532 |
11,87 |
Serious Sam 2, Maximum Quality, NO AA/AF, fps |
1024x768 |
135,4 |
138 |
1,92 |
1280x1024 |
134,2 |
138 |
2,83 |
1600x1200 |
130,7 |
134,5 |
2,91 |
Serious Sam 2, Maximum Quality, AA4x/AF16x, fps |
1024x768 |
129,9 |
133,6 |
2,85 |
1280x1024 |
121,3 |
128,9 |
6,27 |
1600x1200 |
100,1 |
112,3 |
12,19 |
Call Of Juarez, Maximum Quality, NO AA/AF, fps |
1024x768 |
77,79 |
89,53 |
15,09 |
1280x1024 |
61,53 |
70,55 |
14,66 |
1600x1200 |
49,15 |
56,62 |
15,20 |
Call Of Juarez, Maximum Quality, AA4x/AF16x, fps |
1024x768 |
59,76 |
67,98 |
13,76 |
1280x1024 |
44,45 |
52,35 |
17,77 |
1600x1200 |
34,81 |
41,1 |
18,07 |
Prey, Maximum Quality, NO AA/AF, fps |
1024x768 |
178 |
184,4 |
3,60 |
1280x1024 |
167,5 |
171,7 |
2,51 |
1600x1200 |
148,7 |
160 |
7,60 |
Prey, Maximum Quality, AA4x/AF16x, fps |
1024x768 |
160,3 |
167,7 |
4,62 |
1280x1024 |
129,9 |
144,6 |
11,32 |
1600x1200 |
101,1 |
116,2 |
14,94 |
Как видим, разгон оказал очень положительное влияние на уровень производительности GeForce 8800 GT, до 18% прироста, особенно в сложных и ресурсоемких задачах. Вот только обратной стороной разгона стало повышенное тепловыделение. Поэтому при разгоне видеокарт на GeForce 8800 GT нужно позаботиться о хорошей вентиляции в корпусе.
1.14 PCI Express 2.0
Поскольку мы уже отметили, что тесты не показывают ограничение производительности GeForce 8800 GT в нашем тестовом ПК какими-либо его компонентами, то смеем предположить, что и скорость обмена данными с системной, т.е. пропускная способность шины PCI Express, не является ограничивающим фактором. Таким образом, мало вероятно, что PCI Express 2.0 сможет как-то повлиять на производительность одиночной GeForce 8800 GT. К сожалению, в нашем распоряжении не оказалось материнской платы для процессоров Intel с поддержкой PCI Express 2.0. Но в самый последний момент появилась материнская плата MSI K9A2 Platinum на чипсете AMD 790FX, поэтому эксперимент по сравнению производительности GeForce 8800 GT на шинах PCI Express и PCI Express 2.0 был произведен на платформе AMD.
Таблица 1.5 – Производительность видеокарты
Материнские платы |
PCI Express - ASUS M2N-SLI Deluxe на nForce 570SLI (AM2, DDR2, ATX)
PCI Express 2.0 - MSI K9A2 Platinum на AMD 790FX (AM2+, DDR2, ATX)
|
Процессор |
AMD Athlon 64 3600+ X2 (ADO3600JAA4CU), AM2 |
Кулер |
Akasa AK859 CU для Socket 754/939/940/AM2 |
Оперативная память |
2 х DDR2-800 1024 Мб Apacer PC6400 |
Жесткий диск |
Samsung HD080HJ 80 Гб 7200rpm 8 Мб SATA-300 |
Блок питания |
Chieftec CFT-500-A12S 500W, 120 мм вентилятор |
Как и ожидалось, разницу в производительности между системами с шинами PCI Express и PCI Express 2.0 на практике обнаружить не удалось – некоторый разброс результатов обусловлен разными чипсетами материнских плат и драйверами для них, а также погрешностью измерений.
1.15 Итоги сравнения
Проводя тестирование видеокарты ASUS EN8800GT/G/HTDP/512M/A, которая отличается от «референсной» только оформлением системы охлаждения, мы фактически проверяли возможности графического процессора G92-270 (GeForce 8800 GT), поэтому выводы о его перспективности распространяются как на протестированную видеокарту, так и на большинство других, на этом же GPU. Итак, видеокарты на GeForce 8800 GT с 512 Мб видеопамяти являются очень производительными решениями, и имеют очень выгодное соотношение цена/производительность, особенно если конечная розничная стоимость не отличается от рекомендованной NVIDIA. В большинстве задач этот GPU по производительности сравним с топовыми решениями на G80 и даже может обгонять их. Сложности могут возникнуть только в очень ресурсоемких играх, когда потребуется более 512 Мб локальной видеопамяти или нужен будет очень интенсивный обмен с нею, тогда «бутылочным горлышком» станет 256-разрядная шина памяти. Самым же серьезным недостатком G92 является его высокое тепловыделение, что накладывает ограничения на разгон видеокарты и требует наличия хорошей вентиляции в корпусе. Что касается разгона, то в общем GeForce 8800 GT является достаточно восприимчивым к этому увлечению, причем полезен оказывается разгон как самого графического процессора, так и видеопамяти, хотя в обоих случаях, вероятнее всего, сдерживающим фактором будет недостаточно эффективная, и, кстати, довольно шумная, «стандартная» система охлаждения.
Также, в результате дополнительных тестов, мы определили, что для полноценной работы видеокарты потребуется достаточно производительный двухъядерный процессор с тактовой частотой от 2,2-2,4 ГГц – для потенциальных покупателей GeForce 8800 GT это не является серьезной проблемой, т.к. цена таких процессоров сегодня не так и высока. Однако, мы можем уверено сказать, что для одиночной видеокарты нет необходимости подыскивать и новую материнскую плату с PCI Express 2.0, т.к. никакого прироста производительности новый интерфейс не обеспечит. Но вот если вы захотите организовать SLI-конфигурацию, особенно если это будет 3-way SLI или QuadSLI, то тогда от PCI Express 2.0 можно ожидать ощутимой пользы и потребуется новая материнская плата.Что касается героини обзора, видеокарты ASUS EN8800GT/G/HTDP/512M/A, то она является типичной представительницей GeForce 8800 GT с 512 Мб памяти, со всеми вышеописанными плюсами и минусами. Из особенностей можно отметить только комплектацию, в которую входят бонусная игра Company of Heroes: Opposing Fronts и фирменная папка на 16 дисков.
Достоинства устройства:
1. Высокая производительность;
2. Поддержка DirectX 10.0 (Shader Model 4.0) и OpenGL 2.0.
3. Расширенная комплектация.
Недостатки:
1.Достаточно шумная и не очень эффективная «стандартная» система охлаждения.
1.16 GeForce 9800 GT
В данной статье мы рассмотрим решение на базе GeForce 9800 GT производства компании XFX, которое сравним с представителем GeForce 8800 GT от Leadtek. Как вы помните, в прошлом году данный графический ускоритель совершил революцию среди адаптеров среднего уровня. Оба эти продукта основаны на G92 с 112 потоковыми процессорами, 56 блоками TMU и 16 ROP. Рабочие частоты 9800 GT и 8800 GT составляют 600/1500 МГц для ядра и 1800 МГц для памяти, но производители без каких-либо проблем могут выпускать видеокарты с повышенными частотами. Оба акселератора, попавшие на тестирование были с заводским разгоном.
Таблица 1.6 - Характеристики видеокарт занесены в следующую таблицу:
Видеоадаптер |
XFX GF 9800GT 670M 512MB DDR3 XXX |
Leadtek WinFast PX8800 GT ZL |
Ядро |
G92 |
G92 |
Количество транзисторов, млн. шт |
754 |
754 |
Техпроцесс, нм |
65 |
65 |
Количество потоковых процессоров |
112 |
112 |
Количество текстурных блоков |
56 |
56 |
Количество блоков рендеринга |
16 |
16 |
Частота ядра (номинал), МГц |
670 (600) |
650 (600) |
Частота шейдерного домена, МГц |
1625 (1500) |
1625 (1500) |
Шина памяти, бит |
256 |
256 |
Тип памяти |
GDDR3 |
GDDR3 |
Объём памяти, МБ |
512 |
512 |
Частота памяти, МГц |
1950 (1800) |
1800 |
Поддерживаемая версия DirectX |
10 |
10 |
Интерфейс |
PCI Express 2.0 |
PCI Express 2.0 |
1.17 Смотр видеокарты XFX GF 9800GT 670M 512MB DDR3 XXX
Видеокарта XFXGF 9800GT 670M512MBDDR3 XXX поставляется в коробке с вертикальным оформлением, на которой изображено всевозможное огнестрельное оружие вместо привычной технологичной собаки. Из ленты патронов выложена девятка, символизирующая девятую серию графических акселераторов GeForce.
Упаковка.
Комплект поставки стандартный для этого производителя и содержит следующее:
1.Переходник DVI/D-Sub
2.Переходник питания
3.Диск с драйверами
4.Диск с игрой Assassins Creed
5.Инструкция по установке и пара брошюр
6.Табличка на дверную ручку
Отметим наличие игры Assassins Creed от Ubisoft Entertainment и таблички, подобные которой вешают на дверь в гостинцах, дабы не беспокоили постояльцев. Карта выполнена на текстолите фирменного черного цвета, дизайн платы при этом полностью переработан и имеет существенные отличия от референсного. Но, как отмечалось выше, акселераторы GeForce 9800 GT производятся на базе карт предыдущего поколения, и аналогичную компоновку можно было встретить на видеоадаптерах серии GeForce 8800, в основе которых был графический процессор G92.
В качестве периферийных разъемов на видеокарте присутствуют два Dual-Link DVI и HDTV-выход с поддержкой HDCP. Для объединения подобных адаптеров в режиме SLI имеется интерфейс MIO.
Система охлаждения по форме чем-то напоминает кулер от GeForce 7800 GT, хотя по конструкции имеет больше общего с системой охлаждения от GeForce 7600 GT: к основанию, выполненному из меди, приклеена гармошка, которая продувается турбиной с изменяемой скоростью вращения. В месте контакта радиатора с чипом используется серая термопаста, а для микросхем памяти – синие термопрокладки.
Уровень шума кулера при нагрузке на видеокарту достаточно высокий, хотя и тише, чем от референсных кулеров. Эффективность охлаждения оказалась на приемлемом уровне, и чип не прогревался выше 71°C.
Ребру жесткости, которое компания ставит практически на каждый акселератор среднего и высокого уровня с собственным дизайном, нашлось место и на рассматриваемой видеокарте. Благодаря измененному дизайну PCB, на плате стало меньше элементов, подсистема питания карты также была переработана, хотя количество фаз осталось на прежнем уровне – две для графического ядра и одна для памяти.
Графический процессор G92 в XFXGF 9800GT670MXXX оказался обычной 65-нм ревизией, которую устанавливали на GeForce 8800 GT. В отличие от стандартных характеристик, ядро работает на частоте 670/1620 МГц, что выше эталона на 70/120 МГц.
Восемь микросхем памяти GDDR3 от Samsung со временем доступа 1,0 нс (K4J52324QE-BJ1A, 2000 МГц DDR) имеют общий объем в 512 МБ и 256-битную шину. Частота, на которой функционируют чипы, составляет 1950 МГц, что выше референсных на 150 МГц.
Люди, которые в первый раз встречаются с интерактивным 3D, обычно испытывают шок. Увиденное не вписывается ни в какие их представления о современных достижениях науки и техники. И хотя им показываешь “Властелина колец” и говоришь, что многие сцены фильма сделаны на компьютере, — их это не особо впечатляет. По своей наивности они думают, что все по-прежнему делается рисованной мультипликацией. Но увидят они какой-нибудь столетний Doom — и поражаются. Не важно, насколько большим и насыщенным будет виртуальный 3D мир. Компьютер может отображать его только одним способом: помещая пиксели на 2D экран. Как изображение на экране становится реалистичным, и как сцены становятся похожими на те, которые мы видим в реальном мире? Сначала мы посмотрим, как придается реалистичность одному объекту. Потом мы перейдем уже ко всей сцене. И напоследок, мы рассмотрим, как компьютер реализует движение: реалистичные объекты движутся с реалистичными скоростями. Вы смотрите на экран монитора, имеющего два измерения: высоту и ширину. Но когда вы смотрите мультик или играете в современные игры, экран вам кажется трехмерным. И что больше всего зачаровывает, можно наблюдать на экране реальный сегодняшний мир, мир в котором мы будем жить завтра, или мир, существующий только в воображении создателей компьютерной игрушки. И все эти миры появляются на одном и том же экране, который вы, возможно, минуту назад использовали для печати отчета о текущей котировке акций. В этой статье мы расскажем о хитрых приемах дизайнеров трехмерной графики. Картинка, кажущаяся трехмерной (3D) должна иметь три измерения: высоту, ширину и глубину. Двумерная картинка (2D) имеет два измерения: высоту и ширину.
Некоторые картинки изначально двумерны. Многие простые символы должны быть понятны с первого взгляда. Поэтому, чем проще они нарисованы, тем лучше. Вот главное отличие 2D графики от 3D: двумерная графика хороша для выражения чего-либо простого за максимально короткое для понимания время. Трехмерная графика может дать больше информации, но на ее усвоение требуется большее время. Если перевод двумерной картинки в трехмерный вид сводится к добавлению некоторого количества информации, то перевод 3D статичной картинки в движущееся изображение требует намного большего. Для большинства из нас компьютеры или современные приставки являются наиболее привычным способом знакомства с трехмерной графикой. Компьютерные игры или видеоролики изготавливаются с помощью созданных компьютером картинок. Обычно процесс создания реалистичной трехмерной сцены разбивается на три важных шага:
- создание виртуального 3D мира.
- выбор части мира, которая будет демонстрироваться на экране.
- задание представления для каждого пикселя на экране для максимальной реалистичности изображения.
Виртуальный 3D мир это не просто эскиз такого мира. Чтобы вам лучше в этом разобраться, приведем пример из реального мира. Рассмотрим вашу руку и стол под ней. Ваша рука обладает характеристиками, которые определяют способы движения руки и ее вид. Пальцы примыкают к ладони и послушно сгибаются в суставах. Если шлепнуть рукой по столу, то он не брызнет во все стороны, так как стол всегда твердый и цельный. Ваша рука не может пройти сквозь стол. Всю эту информацию нельзя получить, просто взглянув на рисунок предмета. Но сколько бы фотографий вы ни сделали, на любой из них ваши пальцы будут сгибаться в суставах, и примыкать к ладони, стол будет всегда твердым, а не жидким. Так ведут себя вещи в реальном мире, и они всегда будут себя так вести. Объекты же виртуального трехмерного мира не существуют в природе, в отличие от вашей руки. Все они - искусственные, а все их свойства задаются программой. Разработчики используют специальные инструменты для аккуратного описания 3D мира, чтобы каждый объект вел себя, так как ему положено. В любой момент экран демонстрирует только крошечную частичку виртуального трехмерного мира компьютерной игры. Показываемая часть определяется способом задания мира, направлением, куда вы пожелаете в нем пойти и точкой, в которую вы будете при этом смотреть. Независимо от того, какой путь вы выберите: вперед или назад, вверх или вниз, вправо или влево, виртуальный 3D мир вокруг вас определит, что вы увидите из вашей позиции по направлению вашего взгляда. Смысл увиденного вами не должен меняться от сцены к сцене. Если вы смотрите на объект с одной и той же дистанции, то он должен сохранять те же размеры независимо от направления взгляда. Способ движения и вид каждого объекта должны убеждать вас в том, что он имеет постоянную массу, что он всегда твердый или мягкий, жесткий или гибкий и т.д. Программисты, создающие компьютерные игры, затрачивают огромные усилия на описание 3D мира, чтобы вы могли восхищаться этим миром и не встречать в нем ничего, что бы разубедило вас в его реальности. Вы же не хотите увидеть, как два твердых объекта проходят друг сквозь друга? Это сразу бы напомнило вам об иллюзорности виртуального мира. И третий шаг включает в себя, по крайней мере, столько же компьютерных вычислений, как и первые два шага вместе взятые, если не больше. Причем этот шаг должен выполняться в реальном времени в играх и видеороликах. Прежде чем изображение станет реалистичным, объекты проходят несколько стадий обработки. Самые важные стадии это создание формы (shape), обтягивание текстурами, освещение, создание перспективы, глубины резкости (depth of field) и сглаживания (anti-aliasing). Так как же создается это третье измерение. Есть два основных подхода. Можно сделать псевдотрехмерные сэмплы, а потом обработать их по принципам двухмерной графики, лишь изредка касаясь простейших законов третьего измерения. А можно создать модель трехмерного мира, а потом спроецировать часть его на плоскость экрана. Так делают все современные трехмерные игры. Однако трехмерный мир надо как-то смоделировать. Пользоваться при этом наработками из растрового 2D — неудобно. Графика будет тяжеловесной и тормозной. Нужен другой способ... Постойте, а какая у нас самая прогрессивная технология в 2D? Конечно же, векторная графика. И весит мало, и обсчитывается сравнительно быстро. Есть у нее и свои недостатки, но достоинств больше. Почти полное переложение основ векторной графики в 3D — это технология NURBS (более подробно она рвссмотрена в разделе). А самый распространенный способ моделирования 3D — частичное переложение основ векторной графики. В целом это называется 3D конвейер. Процесс построения 3D-изображения можно разделить на три последовательных этапа. На первом этапе объект преобразуется в мозаичную модель, т.е. происходит его разделение на множество многоугольников (полигонов). Следующий этап включает в себя геометрические преобразования и установки освещения. Наконец, заключительный этап, так называемый "рендеринг" (rendering), который является наиболее важным для качества 3D-изображения, создает двумерное изображение из полученных на предыдущих этапах многоугольников. Любая трехмерная модель (из которых, в конечном счете, и состоит виртуальный мир) представляется в виде некоторого числа пересекающихся плоскостей. Излишки плоскостей обрезаются.
В итоге остаются двухмерные многоугольники, помещенные в трехмерную систему координат. Такой многоугольник называется полигоном.
1.19 Воплощение видеокарт
Центральный элемент любой видеокарты — видеопроцессор, он же — видеоядро, он же — видеочипсет. Именно в нем происходят практически все этапы превращения набора цифр в красивую трехмерную картинку (антиалиасинга, фильтрации, затенения, сглаживания) — виртуальный мир. Для разных технологий существуют специальные блоки внутри видеопроцессора, например, там есть блок антиалиасинга.
Как и у обычного процессора, у видеопроцессора есть определенное количество конвейеров. Каждый конвейер выполняет свою очередь команд, поэтому — чем больше конвейеров, тем больше операций сможет видеопроцессор выполнять одновременно. Как и в центральном процессоре, в нем есть блок предсказания ветвлений, арифметико-логический блок и так далее. Сходства можно перечислять долго, поэтому поговорим о различиях. В первую очередь это текстурные блоки — своеобразные конвейеры, рассчитывающие наложение текстур на объекты. Чем больше текстурных блоков, тем больше текстур на один и тот же объект акселератор сможет наложить за один проход. Однако если на объект накладывается всего одна текстура, будет работать только первый текстурный блок — остальные останутся не у дел. Поэтому количество текстурных блоков важно исключительно для мультитекстурирования. Одна из важнейших характеристик любого акселератора — скорость закраски или fillrate. Она показывает, сколько пикселей или текселей может акселератор обработать за одну секунду. Соответственно, fillrate измеряется в мегапикселях в секунду или мегатекселях в секунду. Цифры, показывающие количество бит информации, нужных для создания одного изображения, отображают лишь часть требуемой вычислительной мощности.
Для того чтобы намекнуть вам о величине суммарной загрузки процессора, мы поговорим о математическом процессе, называемом трансформацией (transform). Трансформация используется всякий раз, когда мы изменяем угол зрения на какой либо объект. Например, картинка машины, движущейся на нас, становится больше с помощью трансформации. Другим примером трансформации является преобразование созданного 3D мира в 2D форму на экране компьютера.Давайте посмотрим, какое же количество вычислений задействовано в такой трансформации, при этом учитывайте, что она используется во всех трехмерных играх. Сейчас мы разберемся, чем же занимается компьютер. Даже в простой анимации требуется выполнить множество расчетов. Стены и мебель имеют текстуры, которыми покрыты каркасы. С помощью световых лучей предметы отбрасывают тени. Также следует заметить, что по мере продвижения камеры по офису, некоторые объекты появляются из-за угла или стены и становятся видимыми. Таким образом вы наблюдаете эффект использования Z-буфера. А так как все это происходит еще до вывода изображения на экран монитора, то становится очевидным: даже самым крутым современным процессорам (CPU) требуется помощь для реализации трехмерных игр или графики. Для этого и были разработаны графические ускорители. Все современные акселераторы обладают важнейшим блоком с кодовой аббревиатурой T&L — Transforming and Lighting (трансформация и освещение), который можно условно разделить на три части. Модуль трансформации (Transformation) преобразует трехмерные координаты в двумерные, привязанные к конкретной точке пространства, из которой наблюдатель смотрит на мир, и к направлению его взгляда. Именно здесь рассчитывается проекция перспективы. Модуль отсечения (Clipping) — отсекает от готовой сцены области, которые находятся вне зоны видимости. В простейшем случае область отсечения задается шестью плоскостями. Все, что выходит за границы области, ограниченной этими плоскостями, дальше не обрабатывается. Но если большой полигон попадает и в видимую область, и в невидимую, его, естественно, оставляют или, же обрабатывают только частично. Модуль освещения (Lighting) отвечает за освещение всех объектов сцены. Причем речь идет не, только о восьми аппаратно-обрабатываемых источниках света, но и вторичном свете. К примеру, луч света упал на ровную гладкую поверхность, оставив там блик, отразился от нее и нарисовал на потолке световой круг. С появлением этого модуля стали возможны динамические эффекты освещения: качающиеся лампочки, Солнце, которое движется по небу в реальном времени...До появления этих трех модулей все операции, которые они выполняют, приходилось делать центральному процессору. Теперь он разгружен для более важных вещей, например, расчета искусственного интеллекта. Мы разобрали все этапы изготовления трехмерной картинки — от полигонального каркаса до готового изображения на экране монитора. Однако в современных играх помимо стандартной, полигональной технологии представления трехмерной графики используются и другие, альтернативные. У каждой из таких технологий — своя область применения, свои достоинства и недостатки. Естественно, используй современные игры исключительно полигоны да текстуры, трехмерные миры не были бы такими яркими, насыщенными и динамичными. Ну что ж, давайте познакомимся с новыми героями: NURBS, вокселями, трассировкой лучей и шейдерами.
2. Характеристика видеокарты GEFORCE 9800 GTX
Благодаря выпуску графического ядра G92, компания Nvidia уже долгое время практически не встречает конкуренции в секторе достаточно производительных одночиповых решений стоимостью более 200 долларов. Графический процессор оказался чрезвычайно удачным и позволил создать целый ряд карт, начиная с недорогого GeForce 8800 GS и заканчивая двухпроцессорным монстром GeForce 9800 GX2.Наиболее производительной одночиповой моделью на базе G92 стал видеоадаптер Nvidia GeForce 8800 GTS 512MB, способный потягаться на равных с флагманом на базе предыдущего ядра G80 – Nvidia GeForce 8800 GTX. Однако, после появления GeForce 9800 GX2 в ценовой линейке появился существенный разрыв между сегментами 249...299 и 599...649 долларов, где Nvidia не имела актуальных продуктов, но где у конкурента имеется двухчиповый ATI Radeon HD 3870 X2 с ценой в диапазоне 399...449 долларов. Как следствие, компания решила закрыть разрыв между ценами продуктов разного класса, а заодно пополнить линейку GeForce 9. Так появился Nvidia GeForce 9800 GTX, графическая карта на базе чипа G92 со всеми активированными блоками и несколько увеличенными относительно GeForce 8800 GTS 512MB тактовыми частотами. Продукт не только не имеет каких-либо нововведений по сравнению с предшественниками (если не считать поддержку технологий 3-way SLI и SLI HybridPower), но и вносит дополнительную сложность в линейку продающихся графических карт Nvidia GeForce.
2.1 Конкуренция компаний
Довольно слабая конкуренция со стороны ATI, графического подразделения компании Advanced Micro Devices, продолжавшаяся с самого момента покупки последней ATI Technologies в октябре 2006 года, а также весьма удачный графический чип G80 серьезно изменили как расклад на рынке дискретной графики, так и политику Nvidia. Так, по причине отсутствия альтернатив в сегменте от 599 долларов компания не снижает цену на GeForce 8800 GTX, а представляет GeForce 8800 Ultra за 849 долларов. В то же время, вместо корректировки цен на карты класса GeForce 8800 GTS 320MB (G80), разработчик графических процессоров ждёт долгие месяцы, чтобы представить полностью новый чип G92 и заполнить им ценовые сегменты от 199 до, впоследствии, 649 долларов. Последнее, как видно сегодня, с успехом получилось. Однако это способствовало беспрецедентно серьезному беспорядку с именами продуктов. В своё время появление ядра G80 привело к созданию стройной линейки графических карт, в которую вошли GeForce 8800 GTS 320MB, GeForce 8800 GTS 640MB, GeForce 8800 GTX и появившийся значительно позднее GeForce 8800 Ultra. Едва ли у кого-то из клиентов компании возникали трудности в нахождении наиболее производительной или же, наоборот, средней по скорости модели. Однако с выходом в свет G92 Nvidia почему-то не захотела дать продуктам на базе нового чипа новый общий номер модели, например, GeForce 8900 или GeForce 9800, что было бы наиболее логичным шагом. В результате, в семействе GeForce 8800 создалась немалая путаница, когда модели на базе G92 были быстрее вариантов, использующих G80, но по названию этого чётко сказать было нельзя. Так, GeForce 8800 GT 512MB опережал GeForce 8800 GTS 320/640MB, в то время как GeForce 8800 GT 256MB им уступал, а появившийся позднее GeForce 8800 GTS 512MB стал прямым конкурентом не старым моделям с индексом GTS, а более мощному GeForce 8800 GTX.В конце концов, поняв, что восемь разных продуктов, продающихся под одним номером модели – это слишком, Nvidia выпустила следующее поколение – GeForce9.
2.2 Представители семейства GeForce
Первый представителем семейства GeForce 9 стал GeForce 9600 GT 512MB на базе графического процессора G94. Новый продукт оказался весьма удачным: уже в первых обзорах отмечалось, что он опережает GeForce 8800 GT 256MB (не говоря уж о не слишком удачных картах серии GeForce 8600) и порой не уступает более дорогому GeForce 8800 GT 512MB. Это еще более усложнило ситуацию для покупателей, поскольку все три карты и сегодня присутствуют на рынке в ценовом сегменте от 150 до 200 долларов (в московской рознице – от 4 до 6 тысяч рублей). Вторым членом и флагманом семейства GeForce 9 стала графическая карта GeForce 9800 GX2 1GB на базе двух чипов G92. По традиции, новый флагман семейства должен уверенно превосходить предыдущего в производительности, что и выполнялось в большинстве случаев благодаря качественной оптимизации драйверов Nvidia ForceWare для работы с двумя чипами в режиме AFR. Последним объявленным представителем новой линейки стал уже упоминавшийся GeForce 9800 GTX 512MB на базе графического процессора G92. Помимо немного увеличенных по сравнению с GeForce 8800 GTS 512MB тактовых частот, новинка получила поддержку технологий 3-way SLI, SLI HybridPower, а также 27-сантиметровую 12-слойную печатную плату с парой разъёмов питания PCI Express. Хотя число «9» в номере серии и намекает на некие новые и до сих пор не предлагавшиеся возможности, на деле графические карты GeForce 9800 GTX, 9800 GX2 не отличаются на аппаратном уровне от GeForce 8800 GT 256MB, 8800 GT 512MB, 8800 GTS 512MB, поскольку все они базируются на чипе G92. Последний имеет ровно одно существенное для пользователя отличие от G80 (на котором базировались GeForce 8800 первого поколения): более продвинутый видеопроцессор, который может аппаратно декодировать HD видео потоки, закодированные с помощью H.264 и VC-1, а также производить пост-обработку HD видео. Впрочем, несмотря на полную идентичность в возможностях GeForce 8 и GeForce 9, существенным фактором для пользователя может стать поддержка графических карт со стороны разработчика графических процессоров. Так, последний официальный WHQL драйвер для GeForce 8 под Windows Vista 32 был выпущен 20 декабря 2007 года, тогда как самый актуальный WHQL драйвер для GeForce 9 был выложен 1 апреля 2008 года. Компания Nvidia традиционно прекращает регулярный выпуск драйверов для линейки сразу по выходу следующей, потому, отсутствие свежих драйверов дляGeForce8.
2.3 Таблица характеристик
Таблица 2.1- Технологии и характеристики
2.4 Gainward Bliss 8800 GTS 1024MB TV DD GS GLH: быстрее GeForce 9800GTX
Новинка отличается от предыдущей наиболее производительной графической карты на базе G92 двумя вещами: более высокими частотами GPU и памяти, а также наличием двух разъемов SLI, что действительно выдаёт в нём наследника GeForce 8800 GTX, поддерживавшей, как известно, трёхпроцессорные конфигурации Triple SLI. Таким образом, очевидно, что GeForce 9800 GTX действительно позиционируется в качестве наследника GeForce 8800 GTX. Прочие отличия относятся к конструкции самого видеоадаптера и будут описаны ниже, в соответствующей главе сегодняшнего обзора. Рекомендованная цена GeForce 9800 GTX установлена на отметке 349 долларов, что помещает новый видеоадаптер Nvidia между ATI Radeon HD 3870 X2 стоимостью в районе 399-449 долларов и GeForce 8800 GTS 512MB, относящейся к ценовой категории 249-299 долларов. В московской же рознице на момент подготовки статьи что за Radeon HD 3870 X2, что за GeForce 9800 GTX придется отдать около 11 тысяч рублей, в то время как GeForce 8800 GTS 512MB стоит заметно меньше – около 7 тысяч рублей. Весьма вероятно, что через некоторое время розничные цены на GeForce 9800 GTX опустятся ниже 10 тысяч рублей, так что он займет официально положенную ему нишу. Прежде чем начать выяснять, стоит ли новинка своих денег, давайте познакомимся с ней поближе. В качестве «подопытного кролика» выступит Gainward Bliss 9800 GTX 512MB, ничем не отличающийся от эталонной карты Nvidia. Скорее всего, единственными модификациями GeForce 9800 GTX в обозримом будущем останутся заводской разгон или установка водяной системы охлаждения. Почему это так, мы расскажем в разделе, посвященном конструкции самого видеоадаптера, но перед этим уделим несколько минут в упаковке комплектации.
Она представляет собой коробку стандартных размеров, лицевая сторона которой украшена традиционным для продукции Gainward изображением девушки на фоне гор. Дизайн коробки можно назвать спорным, так как, с одной стороны, он не раздражает, а с другой – и не бросается в глаза потенциальному покупателю. Первое важнее с эстетической точки зрения, тогда как второе может повлиять на объем продаж. Внутри основной коробки жёстко зафиксирована вторая, меньших размеров, в которую упакован сам видеоадаптер, дополнительно помещённый в пузырьковый защитный пакет. Оставшееся пространство занимают сопутствующие аксессуары:
1.переходник;
2.универсальный разветвитель YPbPr /Composite;
3.краткое руководство по установке;
4.CD с драйверами и полной версией руководства пользователя;
5.DVD с игрой Tomb Raider: Anniversary.
Комплектация, мягко говоря, не блещет богатством. Единственным положительным моментом является наличие в комплекте полной версии популярной игры Tomb Raider: Anniversary, а вот отрицательных, к сожалению, существенно больше.
Во-первых, следует отметить отсутствие хотя бы одного переходника 2хPATA→1x6-pin PCIe, поскольку далеко не все современные блоки питания оснащены двумя кабелями для питания графических карт. Во-вторых, в коробке отсутствуют компоненты, необходимые для использования Bliss 9800 GTX 512MB в мультимедийном качестве – переходник DVI-I→HDMI, внутренний или внешний кабель S/PDIF и программное обеспечение для проигрывания HD-контента. Для столь мощных графически карт это не столь важно, так как они ориентированы, главным образом, на игровое применение, однако мы всё же считаем отсутствие вышеперечисленных компонентов существенным недостатком, особенно в свете того, что Bliss 9800 GTX 512MB претендует на звание флагмана среди одночиповых графических карт Gainward. Компании определённо следует подумать над тем, как сделать его более привлекательным для потенциальных покупателей, ориентируясь, хотя бы,на собственный пример в лице Bliss 8800 GT 1024MB GS. Последняя укомплектована всем необходимым для повседневной эксплуатации; замены потребует разве что устаревшая версия проигрывателя CyberLink PowerDVD.
Что касается упаковки, то она не вызывает существенных нареканий, хотя дизайн, на наш взгляд, можно было бы и обновить: в настоящее время все продукты Gainward используют упаковку с одним и тем же рисунком, некоторое разнообразие здесь не помешало бы. Впрочем, пора приступать к детальному изучению самого видеоадаптера. Поскольку он ничем не отличается от эталонной карты Nvidia, все нижесказанное в полной мере будет относиться и к любому другому экземпляру GeForce 9800 GTX, по крайней мере, до тех пор, пока не появятся версии этого видеоадаптера, основанные на дизайне.
2.5 Gainward Bliss 9800 GTX 512MB: достоинства и недостатки
Достоинства:
-Лучшая производительность среди современных одночиповых карт
- Широкий выбор режимов FSAA
- Великолепное качество анизотропной фильтрации
-Аппаратная поддержка декодирования и постпроцессинга HD-видео
-Поддержка PCI Express 2.0
-Поддержка вывода звука по HDMI
-Отсутствие проблем с совместимостью
-Сравнительно невысокий уровень энергопотребления
-Высокая эффективность охлаждения
-Низкий уровень шума
-Неплохой разгонный потенциал
Недостатки:
-Незначительное превосходство над Nvidia GeForce 8800 GTS 512MB не оправдывает разницу в цене
-Длинная PCB может помешать установке в некоторые корпуса
-Необходимость подключения двух разъемов
-Отсутствие в комплекте переходников питания, адаптера HDMI и программного обеспечения для проигрывания HD-контента.
2.6 Gainward Bliss 9800 GTX 512MB: упаковка и комплектация
Упаковка Bliss 9800 GTX 512MB уже знакома нашим читателям по другой продукции Gainward, например, Bliss 8800 GTS 1024MB GS GLH
2.7 Дизайн печатной платы
Для семейства графических карт, использующих в качестве графического процессора G92, Nvidia разработала новый унифицированный дизайн печатной платы (printed circuit board, PCB). Эта плата была существенно короче той, что использовалась для Nvidia GeForce 8800 GTX, что автоматически решило проблему с установкой новинок в малогабаритные корпуса вроде Antec NSK1380, и, таким образом, сделало возможным создание очень компактных, но вместе с тем мощных игровых систем, не уступающих по производительности платформам в полногабаритных корпусах ATX. Это стало возможным как благодаря отказу от 384-битной шины памяти, значительно усложнявшей разводку платы, так и благодаря переходу на более тонкий техпроцесс, следствием чего стала существенно возросшая экономичность G92 всравненииG80.
Однако при проектировании GeForce 9800 GTX Nvidia, похоже, вновь обуял приступ гигантомании, и новинка получила плату тех же габаритов, что и у GeForce 8800 GTX.
Нам совершенно непонятны мотивы, приведшие компанию-разработчика к такому решению: мы знаем множество моделей GeForce 8800 GTS 512MB с аналогичными характеристиками, прекрасно обходившихся короткой платой. Компания Gainward даже выпустила версию с 1024 МБ локальной видеопамяти, превосходящую GeForce 9800 GTX по всем параметрам, кроме частоты видеопамяти, но и в этом случае отставание составило всего 50 (100) МГц.
Все эти карты отлично работали, демонстрируя высочайшую стабильность и производительность, даже в самых суровых условиях тестирования. Таким образом, никаких оснований для возврата в эпоху GeForce 8800 GTX не было, и, тем не менее, GeForce 9800 GTX вновь возвращает нас во времена:
Преемственность поколений налицо – новинка выглядит столь же внушительно, как и её предшественница с тем же суффиксом. Общая длина платы без крепёжной планки составляет 27 сантиметров против 23 сантиметров у GeForce 8800 GT/GTS 512MB.
Она делает невозможным установку GeForce 9800 GTX в некоторые укороченные или малогабаритные корпуса; например, в корпусах серии Antec Sonata Plus она будет упираться в корзину для жёстких дисков. Можно было бы предположить, что увеличение габаритов платы было предпринято с целью уменьшения количества её слоёв, однако, она является 12-слойной, при том, что плата Nvidia GeForce 8800 GT/GTS 512MB была 10-слойной при меньшей длине. В то время, как Gainward Bliss 8800 GTS 1024MB прекрасно обходилась трёхфазной системой питания, Nvidia GeForce 9800 GTX использует четырёхфазную, и это несмотря на более низкую частоту GPU, являющегося основным потребителем мощности. В качестве контроллера используется чип Primarion PX3544, хорошо известный нам по всему семейству графических карт на базе Nvidia G92. Память питается от отдельной двухфазной схемы, управляемой ранее не встречавшимся в нашей практикечипомAnpecAPW7066. Ещё один непонятный каприз Nvidia заключается в использовании двух шестиконтактных разъемов питания PCIe 1.0. Поскольку прогнозируемый пиковый уровень энергопотребления GeForce 9800 GTX вряд ли превышает 110 Вт, никакой нужды в использовании двух разъемов нет. Суммарная нагрузочная способность одного такого разъема и силовой секции слота PCIe x16, составляющая 150 Вт, с большим запасом перекрывает потребности любой карты на базе G92, что мы и наблюдали на примере XFX GeForce 8800 GTS 512MB XXX и Gainward Bliss 8800 GTS 1024MB. Решение более чем спорное и отнюдь не добавляющее удобства пользователю. Расположены разъемы питания так же, как и на Nvidia GeForce8800GTX.
Левая часть платы имеет классическую компоновку и не представляет собой ничего особенно интересного, за исключением исчезнувшего посадочного места под микросхему транслятора DisplayPort, присутствовавшего на всех GeForce 8800 GT/GTS 512MB.
Чипы памяти расположены традиционным образом-вокруг.
Всего на плате установлено восемь микросхем GDDR3 Samsung K4J52324QE-BJ08 емкостью 512 Мбит (16Мх32), уже знакомые нам по Gainward Bliss 8800 GTS 1024MB GS GLH. Эти чипы рассчитаны на напряжение питания 1,9 В и имеют время доступа 0,83 нс, позволяющее им работать на частоте до 1200 (2400) МГц. В случае с GeForce 9800 GTX частота работы памяти несколько ниже и составляет 1100 (2200) МГц. При 256-битной шине доступа пропускная способность подсистемы памяти GeForce 9800 GTX составляет 70,4 ГБ/сек. Это существенно ниже аналогичного показателя GeForce 8800 GTX, равного 86,4 ГБ/сек, но, как известно, G92 имеет более совершенный контроллер памяти, в большинстве случаев позволяющий ему успешно конкурировать с G80. Это подтверждают неоднократно проведённые нами тесты GeForce 8800 GTS 512MB. Дополнительный прирост пропускной способности даёт лишь дополнительную гарантию того, что новинка не уступит предыдущему флагману с индексом GTX в названии даже в высоких разрешениях. Впрочем, так ли обстоит дело на практике, мы расскажем ниже, в главе, посвящённой результатам игровых тестов. Также, в играх, чувствительных к объему видеопамяти, может сказаться меньший в сравнении с GeForce 8800 GTX её объем – 512 Мбайт против 768 Мбайт. Почему Nvidia не пожелала укомплектовать свой новый одночиповый флагман 1024 Мбайта локальной видеопамяти – остаётся неизвестным, хотя на примере неоднократно упомянутой Gainward Bliss 8800 GTS 1024MB GS GLH мы знаем, что эта задача не является чем-то экстраординарным с технической точки зрения. По всей видимости, Nvidia вынудили ограничиться объёмом 512 Мбайт причины экономического характера – столь быстрая память стоит довольно дорогис пользование вдвое большего количества множества микросхем.
Графический процессор несёт на себе маркировку G92-420-A2. С вариациями в маркировке G92 мы уже сталкивались в случае с GeForce 9800 GX2, где ядра были маркированы как G92-450-A2. Напомним, на GeForce 8800 GT/GTS 512MB устанавливаются чипы G92-400-A2. Все они, как видите, имеют одинаковый номер ревизии, но различаются средним числом. Что означает это число, мы, к сожалению, можем только гадать, но логично предположить, что им Nvidia маркирует частотный потенциал чипов G92. Данный экземпляр произведён на седьмой неделе текущего года.
Естественно, ничего нового в конфигурации графического ядра нет: оно всё так же содержит 128 унифицированных поточных процессоров, 32 (64) текстурных процессора и 16 блоков растровых операций, сгруппированных в четыре раздела вместе с четырьмя 64-битными контроллерами памяти. Основной домен графического ядра, включающий в себя TMU, текстурные кэши, контроллер памяти и растровые процессоры, функционирует на частоте 675 МГц, а домен шейдерных процессоров, так называемый Lumenex Engine, работает на частоте 1688 МГц. Это совсем незначительный прирост по сравнению с GeForce 8800 GTS 512MB; чем-то ситуация с GeForce 9800 GTX напоминает случай с GeForce 8800 Ultra, в своё время столь же незначительноGeForce8800GTX.Существенным отличием GeForce 9800 GTX от GeForce 8800 GTS 512MB является наличие двух разъемов MIO, позволяющее создание на базе нового флагмана Nvidia трёхпроцессорных комплексов 3-way SLI. Из-за этого двухконтактный разъем входа S/PDIF был перенесён на правую сторону платы. Кроме того, на плате установлено два обычных порта DVI-I, каждый из которых поддерживает режим dual link, и традиционный семиконтактный разъем mini-DIN. Последний, по всей видимости, может служить не только аналоговым видеовыходом стандартов RCA/S-Video/YPbPr, но и использоваться в качестве внешнего входа S/PDIF, как это было реализовано в некоторых моделях Nvidia GeForce 8800
2.8 Конструкция системы охлаждения
После ряда неудачных экспериментов с системами охлаждения высокопроизводительных графических карт Nvidia методом проб и ошибок пришла к единой конструкции кулера. Её мы считаем одной из наиболее удачных в индустрии 3D из-за присущего ей сочетания низкого уровня шума и высокой эффективности охлаждения. Речь идёт о конструкции, впервые применённой в GeForce 8800 GTX/GTS, затем в GeForce 8800 GTS 512MB, и теперь с незначительными изменениями перекочевавшей в GeForce 9800 GT.
Система охлаждения представляет собой алюминиевое основание, на котором установлен большой радиатор, набранный из тонких алюминиевых пластин, соединённых друг с другом «в замок». Напротив графического процессора в основании имеется вырез, в котором установлен медный теплообменник, соединённый тремя тепловыми трубками с радиатором. Места соединения трубок с радиатором выбраны с учетом обеспечения максимально равномерного распределения теплового потока.
Для обеспечения надёжного теплового контакта с микросхемами памяти и силовыми элементами системы питания используются подушечки из неорганического волокна, пропитанные белой термопастой. На основании в нужных местах имеются соответствующие выступы. В месте контакта медной подошвы с кристаллом GPU нанесён слой традиционной тёмно-серой.
Система охлаждения укомплектована радиальным вентилятором Delta BFB1012L, хорошо знакомым нашим читателям – он применяется во всех эталонных кулерах Nvidia, имеющих двухслотовый форм-фактор. Вентилятор использует современное четырёхпроводное подключение с широтно-импульсным управлением скоростью вращения. Создаваемый вентилятором воздушный поток продувает радиатор и, отобрав у него тепло, выбрасывается за пределы корпуса системы сквозь прорези в крепёжной планке видеоадаптера, занимающие весь её «второй этаж».Таким образом, данная компоновка способствует улучшению тепловой картины внутри корпуса. Кожух системы охлаждения выполнен из чёрного глянцевого пластика и украшен с торцевой стороны серебристо-зелёным логотипом GeForce. Поскольку наш экземпляр GeForce 9800 GTX предоставлен компанией Gainward, лицевая сторона кожуха украшена соответствующей фирменной наклейкой. Вся система крепится к плате посредством 14 подпружиненных винтов, что исключает малейший люфт; кожух, помимо этого, крепится непосредственно к PCB тремя дополнительными винтами. Такая система должна без труда справляться с охлаждением Nvidia GeForce 9800 GTX, обеспечивая при этом комфортный уровень шума, тем более, что создаваемая новинкой тепловая нагрузка вряд ли намного сильнее той, которую создаёт Nvidia GeForce 8800 GTS 512MB, работающий практически бесшумно.
Раскладка по отдельным линиям питания чётко показывает отсутствие необходимости в двух внешних разъемах питания – даже в режиме 3D нагрузка на каждый из них не превышает 32 Вт, а суммарная едва превышает 60 Вт. Если бы эти разъемы нагружались сильнее, снимая нагрузку с силовой части слота PCIe x16, их использование можно было бы объяснить желанием Nvidia разгрузить системную плату, что имело бы определённый смысл в случае конфигураций SLI и, особенно, 3-way SLI. Однако потребление по внутренней линии +12В наиболее существенно и превышает аналогичный показатель GeForce 8800 GTS 512MB, так что наличие на плате GeForce 9800 GTX двух шестиконтактных разъемов питания PCIe 1.0 можно объяснить только победой маркетинговых соображений над здравым смыслом. Разогнанные версии GeForce 9800 GTX – а их появление неизбежно – вряд ли покажут существенный рост уровня энергопотребления, так что два разъема питания не нужны и им. В любом случае, чрезмерными аппетитами новый одночиповый флагман Nvidia не отличается, особенно в сравнении с GeForce 8800 GTX, и для его нормальной работы вовсе не нужен сверхмощный блок питания. Подойдет любой качественный блок мощностью 400-450 Вт, имеющий два кабеля питания графических карт, поскольку в комплекте Gainward Bliss 9800 GTX 512MB отсутствуют переходники PATA→6-pin PCIe. Система охлаждения Nvidia GeForce 9800 GTX практически идентична той, что используется в GeForce 8800 GTS 512MB, и использует такой же вентилятор, поэтому их шумовые характеристики должны быть схожими. Для проверки этого предположения мы провели соответствующие замеры с помощью лабораторного шумомера Velleman DVM1326, работающего в режиме взвешенной кривой. Как обычно, за точку отсчёта мы приняли уровень шума на расстоянии метра от работающего стенда, оснащенного видеокартой с пассивным охлаждением. Никаких неприятных сюрпризов новинка не преподнесла, продемонстрировав шумовые характеристики на уровне своей предшественницы, GeForce 8800 GTX. Карта практически бесшумна в работе; во всяком случае, отчётливо услышать её можно разве что в системе, где она будет единственным источником шума. Вряд ли такая ситуация встретится на практике. Эффективность охлаждения весьма высока, что неудивительно, поскольку G92 обладает более умеренным уровнем тепловыделения в сравнении с G80, и, следовательно, установленная на плате система охлаждения обеспечивает существенный запас прочности.
По данным RivaTuner, на открытом тестовом стенде в режиме простоя температура GPU не превысила 48 градусов, а под нагрузкой достигла лишь 61 градуса. В закрытом корпусе цифры будут, конечно, несколько выше, но беспокоиться в любом случае не о чем, перегрев Nvidia GeForce 9800 GTX явно не грозит. Попытка разгона Nvidia GeForce 9800 GTX принесла сравнительно неплохие результаты. Изначально мы смогли достичь частот 800/2000 МГц для графического ядра и 1300 (2600) МГц для памяти. В этом режиме карта успешно прошла несколько циклов тестирования в 3DMark06, но такой разгон всё-таки оказался для неё чрезмерным и через некоторое время начались периодические сбои ForceWare. После понижения частот GPU до 770/1925 МГц нам удалось добиться стабильной работы, но, тем не менее, в 3Dmark06 иногда наблюдались артефакты изображения в виде мельтешащих цветных пятен. Избавиться от них удалось понижением частоты памяти до 1250 (2500) МГц. Таким образом, точный финальный результат по данным RivaTuner составил 771/1944 МГц для ядра и 1252 (2504) МГц для памяти. Температура графического процессора в разогнанном режиме при продолжительном тестировании достигала 64 градусов на открытом стенде. Проверка на совместимость не показала каких-либо проблем и карта устойчиво стартовала на плате, поддерживающей стандарт PCI Express 1.0a. Тем более не следует ожидать проблем владельцам плат, поддерживающих стандарты PCIe 1.1 или PCIe 2.0.
2.9 Энергопотребление, шумность, температурный режим, разгон и совместимость
Поскольку Nvidia GeForce 9800 GTX использует иную систему питания и работает на более высоких частотах, нежели GeForce 8800 GTS 512MB, мы провели стандартную процедуру замера уровня энергопотребления новинки, используя специально оборудованный для этого стенд для создания нагрузки в режиме 3D использовался первый тест SM3.0/HDR пакета 3DMark06, запускаемый в цикле в разрешении 1600х1200 с форсированными FSAA 4x и AF 16x.
Как и ожидалось, существенных отличий в общем уровне энергопотребления от GeForce 8800 GTS 512MB не обнаружились. Пиковый показатель не превысил 110 Вт, так что наши прогнозы вполне оправдались.
2.10 Тесты сравнения видеокарт
Поскольку встроенные в игру средства тестирования не поддерживают разрешения 2560х1600, нам пришлось ограничиться разрешением1920х1200.
Рисунок 2.11 – Диаграмма средств тестирования
Как мы уже выяснили, приемлемую производительность в Call of Juarez при максимальной детализации и включенном FSAA 4x на сегодняшний день могут обеспечивать разве что двухпроцессорные решения, такие, как Nvidia GeForce 9800 GX2 или ATI Radeon HD 3870 X2. Хотя Nvidia GeForce 9800 GTX и опережает Nvidia GeForce 8800 GTS 512MB в высоких разрешениях более чем на 15 %, но такой выигрыш ничего не стоит, так как, будучи выраженным в абсолютных числах он означает всего лишь прирост с 16 до 19кадров.
Рисунок 2.12 -Диаграмма уровня игрового комфорта
В данном случае выигрыш более существенен – в разрешении 1280х1024 он составляет порядка 18 %, позволяя Nvidia GeForce 9800 GTX достигнуть «магической» для шутеров с видом от первого лица отметки 60 кадров/с. В более высоких разрешениях прирост относительно GeForce 8800 GTS 512MB существенно скромнее и составляет 11-13 %, в зависимости от разрешения. При этом обе карты обеспечивают одинаковый уровень игрового комфорта.
Рисунок 2.13 – Диаграмма прироста производительности
Nvidia GeForce 9800 GTX демонстрирует существенный прирост минимальной производительности в сравнении с Nvidia GeForce 8800 GTS 512MB, но, во-первых, это заслуга более новой версии ForceWare, которая не может быть официально использована с GeForce 8800 GTS 512MB, несмотря на то, что обе карты используют одно и то же графическое ядро, а во-вторых, средняя производительность всё равно остаётся достаточно скромной и не достигает 35 кадров/с даже в самом низком разрешении.
Рисунок 2.14–Диаграмма соотношений
Nvidia GeForce 8800 GTS 512MB, Nvidia GeForce 9800 GTX и ATI Radeon HD 3870 X2 ведут себя практически одинаково во всех разрешениях, поэтому выбор здесь зависит исключительно от личных пристрастий игрока, а также цены и доступности того или иного видеоадаптера из этого списка. Оптимальным соотношением цена/производительность, на наш взгляд, обладает GeForce 8800 GTS 512MB, не зря снискавший громадную популярность у любителей современных игр.
Рисунок 2.15 – Итоги сравнения
В общем зачёте новинка показала даже несколько меньший результат, нежели Nvidia GeForce 8800 GTS 512MB, что, вероятнее всего, обусловлено иной версией официальных драйверов. Впрочем, 3DMark05 уже давно не является адекватным мерилом производительности современных графических карт с унифицированной архитектурой и поддержкой продвинутых вычислительных возможностей.
Заключение
Итак, мы протестировали новый графический адаптер Nvidia, претендующий на звание самого быстрого однопроцессорного решения. Свою задачу – заполнение разрыва в ценовом диапазоне между Nvidia GeForce 8800 GTS 512MB и Nvidia GeForce 9800 GX2 – он действительно выполняет, являясь при этом весьма качественным продуктом без ярко выраженных недостатков. Крайне скромный прирост по частотам графического ядра и памяти, составляющий всего лишь около 4 % и 13 %, соответственно, между 8800 GTS и 9800 GTX очень напоминает ситуацию с Nvidia GeForce 8800 Ultra. К счастью, от статуса маргинального продукта для богатых энтузиастов Nvidia GeForce 9800 GTX спасает сравнительно невысокая рекомендуемая цена, составляющая 349 долларов (реальная розничная цена на момент подготовки статьи – около 11 тыс. руб.), в то время как стоимость Nvidia GeForce 8800 Ultra превышала 800 долларов при аналогичном уровне производительности. В данном случае «почти» выполняется типичное правило, когда производительность флагмана через год может обеспечить решение класса «performance mainstream». Учитывая крайне высокую цену на 8800 Ultra, аналогичную скорость от карты стоимостью в два с лишним раза ниже вполне можно считать достижением. Однако основная опасность подстерегает новинку вовсе не сверху, где сейчас царствуют ATI Radeon HD 3870 X2 и Nvidia GeForce 9800 GX2 со свойственными им недостатками, а снизу, со стороны Nvidia GeForce 8800 GTS 512MB. При ценах на этот видеоадаптер, находящихся в районе 7 тысяч рублей, он обеспечивает практически такой же уровень производительности в играх; в идеальном случае, GeForce 9800 GTX опережает GeForce 8800 GTS 512MB на 15-17 %, но чаще выигрыш составляет всего 5-8 %, что никак не отражается на комфортности игрового процесса. Помимо меньшей стоимости, Nvidia GeForce 8800 GTS 512MB более удобен в эксплуатации, так как обладает существенно меньшими габаритами и обходится одним разъемом питания против двух, установленных на Nvidia GeForce 9800 GTX. Даже при уровне розничных цен, близком к рекомендуемым значениям, GeForce 8800 GTS 512MB предстаёт более интересным вариантом, сейчас же, когда московские розничные цены на GeForce 9800GTX явно завышены, смысла в приобретении последнего нет никакого. Вообще, путаница с названиями линеек продуктов Nvidia не делает компании чести. По здравому рассуждению, появление ядра G92 должно было дать рождение линейке GeForce 8900 или 9800. Вместо этого мы имеем две линейки карт на базе одного и того же графического процессора, с искусственно созданной несовместимостью драйверов и ситуацией, когда продукт из линейки GeForce 8 напрямую конкурирует с представителем линейки GeForce 9, вредя его продажам. С точки зрения покупателя ситуация ещё более запутана: на полках магазинов до сих пор можно встретить все три разновидности Nvidia GeForce 8800 GTS – 320MB, 512MB и 640MB, причем только достаточно опытному пользователю очевидно, что лучшей моделью является именно версия с 512 Мбайтами видеопамяти. Надо полагать, что такое положение дел временно, и в ближайшем будущем Nvidia переведёт всю линейку карт на базе G92 в ряды семейства GeForce 9.
С технической точки зрения Nvidia GeForce 9800 GTX представляет собой весьма странную конструкцию. Мы знаем, что ряд разогнанных моделей Nvidia GeForce 8800 GTS 512MB имеет не худшие технические характеристики, и, тем не менее,без проблем обходится короткой 10-слойной печатной платой с трёхфазным стабилизатором, однако для GeForce 9800 GTX почему-то была разработана более сложная и длинная 12-слойная плата с четырёхфазной системой питания GPU. Почему Nvidia пошла по наиболее сложному пути из всех возможных, нам остаётся только догадываться. 27-сантиметровая плата делает Nvidia GeForce 9800 GTX неподходящим кандидатом для установки во все компактные и некоторые полноразмерные, но укороченные корпуса. Необходимость подключения сразу двух шестиконтактных разъемов питания также не поддаётся логическому объяснению, поскольку замеры показали, что суммарная нагрузка на эти разъемы едва превышает 60 Вт. В целом, мы имеем перед глазами пример того, как неплохая сама по себе задумка может быть изрядно подпорчена как маркетинговой путаницей, так и неудачными инженерными решениями. Тем не менее, до появления нового ядра GT200 Nvidia GeForce 9800 GTX по праву может носить титул самой быстрой одночиповой графической карты. Что касается конкретного экземпляра, описанного в данном обзоре, то Gainward Bliss 9800 GTX 512MB ничем не отличается от эталонной карты, обладая всеми её достоинствами и недостатками. Из основных недостатков следует отметить довольно небогатую комплектацию, лишённую переходников питания и каких-либо средств работы с HD-контентом, включая программный проигрыватель и переходник DVI-I→HDMI. Это было бы нормально в случае недорогой карты начального уровня, но для продукта, претендующего на статус high-end, такое положение дел, на наш взгляд, неприемлемо. Впрочем, если весьма небогатая комплектация даст возможность Gainward поставить чуть более низкую цену на продукт, то такое решение вполне уместно, поскольку претензий к качеству производства решения Bliss 9800 GTX 512MB мы не имеем.
3. Экономический расчет стоимости анализа обьекта
Целью экономического расчета дипломного проекта является выбор оптимальной видеокарты для дизайнерского моделирования ООО "Бест Вей корп.", качественная и количественная оценка экономической целесообразности создания, использования и развития этой видеокарты, а также определение организационно-экономических условий ее функционирования. Проанализированная в дипломном проекте видеокарта ООО "Бест Вей корп." предназначена для использования учащимися и сотрудниками высшего профессионального училища. Использование ресурсов видеокарты позволит оперативно использовать ее в различных отраслях. К достоинствам данной видеокарты можно отнести то, что она разработана с учетом самых современных технологий в области создания усовершенствованных видеокарт. Обладает легкостью и простотой использования. В таблице представлены исходные данные, ООО "Бест Вей корп." г. Северодонецк на 05.05.2009г.
Таблица 3.1 – Исходные данные
Статьи затрат |
Условные обозначения |
Единицы измерения |
Нормативные обозначения |
1 |
2 |
3 |
4 |
1. Разработка (проектирование) видеокарты |
Тарифная ставка программиста - системотехника |
З сист |
грн/мес. |
1200 |
Тарифная ставка обслуживающего персонала |
Зперс |
грн/мес. |
900 |
Тариф на электроэнергию |
Т эл/эн |
грн |
0,3846 |
Мощность видеокарты, принтера и т.д. |
WЭВМ |
Вт /час |
300 |
Стоимость ЭВМ |
Стз |
грн. |
4500 |
Амортизационные отчисления на ЭВМ |
Ааморт |
% |
25,0 |
Изготовление видеокарт |
Мощность компьютера, принтера и т.д |
WЭВМ |
Вт /час |
300 |
Тарифная ставка программиста на месяц |
Зсист |
грн/мес. |
1200 |
Норма дополнительной зарплаты |
Нд |
% |
25 |
Отчисления на социальные мероприятия |
Нсоц |
% |
38,52 |
Накладные затраты |
Ннакл |
% |
15,0 |
НДС |
Нпдв |
% |
20,0 |
Рентабельность |
Р |
% |
25,0 |
Транспортно-заготовительные затраты |
Нтрв |
% |
4,0 |
Суммарная мощность оборудования видеокарты |
WЛВС |
кВт/час |
0,9 |
Тарифная ставка обслуживающей видеокарты персоналу |
Зперс |
грн. |
540 |
Норма амортизационных отчислений на видеокарту |
НаПЗ |
% |
4 |
Отчисление на содерждание и ремонт видеокарт |
Нр |
% |
10 |
3.1 Расчет затрат на создание проекта выбора видеокарт
Выходные данные для расчёта экономического выбора видеокарт приведены в таблице 3.1.
Расчет затрат на разработку проекта проводится методом калькуляции затрат, в основу которого положенная трудоемкость и заработная плата разработчиков. Трудоемкость разработки проекта Т рассчитывается по формуле:
Т = То + Ти + Ттоп + Тп + Тотл + Тпр + Тд, (3.1)
где То - затраты труда на описание задачи;
Ти - затраты труда на исследование структуры предприятия;
Ттоп - затраты труда на разработку топологии сети;
Тп - затраты труда на создание видеокарт и использование пользователей;
Тотл - затраты труда на отладку видеокарт на ЭВМ;
Тпр - написание программы минимизации затрат;
Тд - затраты труда на подготовку документации по задаче.
Данные о затратах на проектирование выбора видеокарт и реализацию спроектированного комплекса в училище представлены в таблице 3.2.
Таблица 3.2 – Трудоемкость и зарплата разработчиков видеокарт
Наименование этапов выбора видеокарты |
Условные обозначе-ния |
Фактическая трудоем-кость (чел/час) |
Почасовая тарифная ставка
(грн.)
|
Сумма зарплаты
(гр.5 * гр.4)
|
1 |
2 |
3 |
4 |
5 |
Описание задания видеокарты |
То |
30 |
3,00 |
90,00 |
Изучение структуры предприятия |
Ти |
30 |
2,50 |
75,00 |
Разработка видеокарты |
Та |
80 |
6,00 |
480,00 |
Подключение пользователей |
Тп |
110 |
4,00 |
440,00 |
Отладка системы видеокарты |
Тотл |
60 |
5,00 |
300,00 |
Написание программы затрат видеокарты |
Тпр |
50 |
7,00 |
350,00 |
Таблица 3.2 - Трудоемкость и зарплата разработчиков видеокарт
Оформление документации |
Тд |
20 |
2,50 |
50,00 |
Всего: |
Т |
380 |
1785,00 |
Данные по фактической трудоемкости (чел/час) предоставлены ведущим на Украине разработчиком видеокарт ООО «Бест Вей корп.».
Таким образом, полученную трудоемкость по этапам разработки проекта необходимо подставить в формулу (3.1), чел./ч.:
Т = 30+30 +80 +110 +60+50+20 = 380 чел/час.
Основной фонд заработной платы разработчиков определяется по формуле:
Зпл = Т * Ч (3.2)
где Т - общая (поэтапная) трудоемкость выбора видеокарты, чел./ч.
Ч - почасовая тарифная ставка специалиста (программиста), грн.
Исходя из имеющихся данных, основной фонд заработной платы будет составлять:
Зпл = 30*3,00 + 30*2,50 + 80*6,00 + 110*4,00 + 60*5,00 + 50*7,00 + 20*2,50 = 1785,00 грн
3.2 Расчет материальных затрат
Материальные затраты на создание проекта по выбору видеокарт рассчитываются исходя из необходимых затрат. Нормы затрат материалов при разработке проекта и их цена приведены в таблице 3.3.
Таблица 3.3 - Расчет материальных и комплектующих затрат на разработку видеокарты:
Материал |
Норма затрат, шт. |
Фактическое количество, шт. |
Цена за единицу, грн. |
Сумма, грн. |
1.НГМД HD 3" |
2 - 5 |
4 |
4,50 |
18,00 |
2.Бумага формата А-4 |
500 - 1000 |
500 |
0,08 |
40,00 |
Всего: |
å |
58,00 |
ТЗР (4%) |
0,01 - 0,04 |
1,48 |
Всего: |
Мв |
59,48 |
3.3 Использование ЭВМ
Затраты на использование ЭВМ при выборе видеокарты рассчитываются исходя из затрат одного часа по формуле:
З = Сч * (Тотл + Тд + Тпр), (3.3)
где Сч - стоимость работы одного часа ЭВМ, грн (данные предприятия).
Тотл - затраты работы на отладку программы на ЭВМ, чел./ч.
Тд - затраты работы на подготовку документации по задаче на ЭВМ, чел./ч.
Тпр - написание программы минимизации затрат, чел./ч;
Если на предприятии стоимость 1 часа работы ЭВМ не рассчитана, то тогда стоимость работы одного часа ЭВМ определяется по формуле:
Сч = Тэл/эн + Саморт + Зперс + Трем, (3.4)
где Тэл/эн - затраты на электроэнергию, грн/ч.;
Саморт - величина 1-го часа амортизации ЭВМ, грн.;
Зперс - почасовая зарплата обслуживающего персонала, грн.
Трем - затраты на ремонт, стоимость запасных деталей, грн.
Стоимость одного часа амортизации определяется по формуле:
Саморт = Ст/ср * На/100 * 1/ (Ч раб. сут/нд *Ксмена* Ч раб.нед/год * *Ч раб.час/смены (3.5)
где Ст/ср - стоимость технических средств, грн - 4500,00 грн.
На - норма годовой амортизации (%) – 3%.
Ч раб. сут/нд – количество рабочих суток в неделе – 5 суток.
Ксмен – количесвто рабочих смен в сутки – 2 смены.
Ч раб.нед/год - количество недель на год, (52 недели/год).
Ч раб.час/смена - количество рабочих часов в смену) – 8 час/смен
Подставляя значения в формулы получаем:
Саморт = 4500*25/100 * 1/ (52*5*2*8)=0,27 грн.
(52*5*2*8) = 4160 рабочих часов в год
Тэл/эн=0,3846*0,27=0,10.
З час=Зп/месс / Кчас/месс = 900/173=5,20
3.4 Расчет технологической себестоимости видеокарты
Расчет технологической себестоимости видеокарты проводится методом калькулирования затрат (таблица 3.4). В таблице 3.4 величина материальных затрат рассчитана в таблице 3.3, основная зарплата берется из таблицы 3.2, дополнительная зарплата берется 10 % (см.табл. 3.1) от основной зарплаты, отчисление на социальные мероприятия – 38,52% от основной и дополнительной зарплаты (вместе). Накладные затраты (13 %) от основной зарплаты.
Таблица 3.4 - Калькуляция технологических затрат на создание видеокарты
№ |
Наименование статей |
Условные обозначе-ния |
Затраты (грн.)
|
1 |
2 |
3 |
4 |
1 |
Материальные затраты |
Мз |
59,48 |
2 |
Основная зарплата |
З |
1785,00 |
3 |
Дополнительная зарплата (10% от основной зарплаты) |
Зд |
178,50 |
4 |
Отчисление на социальные мероприятия (38,52%) |
Ос |
687,52 |
5 |
Накладные затраты предприятия (15 % от основной зарплаты) |
Ннакл |
267,75 |
6 |
Затраты на использование ЭВМ при выборе видеокарты |
З |
863,20 |
7 |
Итого (– Себестоимость создания видеокарт) |
Свидеокарт |
3841,45 |
3.5 Расчет капитальных затрат на создание видеокарты
В данном случае необходимо использовать дополнительные денежные средства для приобретения оборудования для видеокарты. Перечень необходимого оборудования представлен в таблице 3.5. Цены на перечисленное ниже оборудование взяты из прайс-листа ООО «Бест Вей корп.» Компания является крупнейшим поставщиком офисной техники в восточной Украине, что гарантирует приемлемый уровень цен.
Таблица 3.5 – Перечень расчет капитальных затрат на приобретение оборудования
Наименование |
Единицы измерения |
Количество |
Цена за единицу (грн.) |
Общая стоимость (грн.) |
SWITCH 3 com 74-FX |
шт. |
4 |
330,00 |
1320,00 |
FTP, Cat.5 Enh, system бухта 305 м. AMP (USA) |
м. |
6 |
29,50 |
177,00 |
Монтаж видеокарты |
шт. |
420 |
0,44 |
184,80 |
RJ 45 видеокарты |
шт. |
30 |
0,17 |
5,10 |
Итого (Кзатр.оборудов.) |
1686,90 |
Стоимость работ по изготовлению (Ст.вид.) и настройки видеокарты предоставлена ООО «Бест Вей корп.»и составляет 100 грн. Полученные результаты, приведены в таблице 3.6.
Таблица 3.6 - Капитальные затраты на создание видеокарты
Наименование показателей |
Условные обозначения |
Сумма (грн.) |
Прямые затраты на создание видеокарты
(Кз.оборуд+Ст.монтаж = 1686,90+100,00)
|
Пр/затрат |
1768,90 |
2. Сопутствующие затраты на создание видеокарты (10% от Пр/затрат) |
Ст.соп.затраты |
176,89 |
Всего (Кз/вид.) |
Кн |
1945,79 |
Затраты на создание видеокарты: Кз/видеокарты = Пр/затрат+ Ст.соп.затраты = 1798,90+176,89=1945,79 грн.
3.6 Затраты при эксплуатации видеокарты
Зарплата обслуживающего персонала рассчитывается по формуле:
Зо = Чпер * То * Тст./час * (1 + ) * (1 + ), (3.7)
где Чпер. - численность обслуживающего персонала, лиц – 3 человека;
То - время обслуживания системы видеокарты, часов – 4160 часов/год;
Тст/час - почасовая тарифная ставка обслуживающего персонала, грн. – 6,00грн.;
Нд - норматив дополнительной зарплаты, 10%
Нсоц - норматив отчислений на социальные мероприятия, 38,52%.
Время обслуживания видеокарты рассчитаем по формуле:
То= Ч раб. сут/нд *Ксмена* Ч раб.нед/год * *Ч раб.час/смена (3.8)
То= (52*5*2*8)=4160 час/год.
Численность обслуживающего персонала составляет 3 лица, поэтому зарплата обслуживающего персонала составит:
Зо=3*4160*6,0*0,1*1,25*1,3852=12965,47 грн.
Амортизационные отчисления А на использование видеокарты рассчитываются по формуле:
А = Кз/лвс * +Слвс*Нанм (3.9)
где Кз/лвс - стоимость технических средств видеокарты, грн. – 1945,79 грн (см. таблицу 3.6);
На - норма амортизационных отчислений – 3% (см. таблицу 3.1);
Слвс – себестоимость создания сети – 3841,45 (см. таблицу 3.4);
Нанм – норма годовой амортизации на нематериальные активы (15%).
Для проектируемого варианта амортизационные отчисления составляют:
А=1945,79*3/100+3841,45*15/100 = 634,59 грн.
Поскольку количество используемых компьютеров не изменилось в связи с установкой сети, расчет затрат на электроэнергию будет производится
только для добавленного активного сетевого оборудования.
Затраты на использованную активным сетевым оборудованием электроэнергию рассчитываются по формуле:
З эл/эн = Wлвс * Тлвс * Тэл/эн (3.10)
где Wвид. -суммарная мощность оборудования видеокарты, кВт/ч – 0,9 кВт/час.
Тлвс - время работы видеокарты на ЭВМ за год; часов – 2 смены.
Тэл/эн - стоимость одной квт/ч. электроэнергии - 0,3846 грн.
Предполагается, что видеокарта работает постоянно, поэтому время ее работы:
Тлвс= 4160,00 часа
Подставляя значения в формулу 6.9 получим:
Зэл/эн=0,9*4160*0,3846= 1439,94 грн.
Затраты на ремонт и эксплуатацию технических средств определяются по формуле:
Зр = Стз * , (3.11)
где Стз - стоимость технических средств, грн.
Нр - отчисление на эксплуатацию (содержание), ремонт видеокарты, %.
Для проектируемого варианта:
Зр=4500,00*10/100= 450,00 грн;
Все результаты расчетов по затратам на все время (за год) эксплуатации видеокарты приводятся в таблице 3.7.
Таблица 3.7 - Годовые затраты при использовании видеокарты
Виды затрат |
Условные обозначе-ния |
Единица измерения |
Величина затрат, (грн.) |
Зарплата обслуживающего персонала (1785,00*12) |
Зо |
грн. |
21420,00 |
Стоимость электроэнергии |
Зэл/эн |
грн. |
1439,94 |
Амортизационные отчисления видеокарты |
А лвс |
грн. |
634,59 |
Ремонт и эксплуатация видеокарты |
Зр. |
грн. |
450,00 |
Всего |
å |
грн. |
23 944,53 |
Разработанная видеокарты помогает улучшить технические характеристики, позволяющие значительно увеличить производительность труда работников «ООО Бест Вей корп.» в г. Северодонецке и дает новые возможности для расширения деятельности. Также внедренная технология имеет более высокую надежность, что позволяет сократить численность обслуживающего персонала и тем самым снизить расходы на ее содержание.
4. Охрана труда. Факторы при организации труда
4.1 Продуктивность труда рабочего предприятия
Продуктивность труда рабочего предприятия ДО зависят от правильной организации труда на каждом рабочем месте. Под рабочим местом условно понимают зону, оснащенную необходимыми техническими приспособлениями, где или работник, группа работников или постоянно время от времени выполняют одну или рабочую операцию.
Правильная организация рабочего места – создание на рабочем месте необходимых условий для продуктивной работы и выполнение работы (операции) высокого качества при наиболее полном использовании устаткування, растраты физической и эмоциональной энергии работника, повышение содержательности и привлекательности работы, сохранение здоровья работающих.
При организации труда на рабочем месте учитывают следующие факторы:
1.Особенность технологического процесса;
2.Уровень механизации та автоматизации;
3.Уровень специализации;
4.Степень разделения труда;
5.Использованные приемы и методы работы.
Организация рабочего места на каждой машине имеет свои специфические особенности, которые зависят от модели машины, метода работы на ней, характера выполненной работы, квалификация оператора и т.п. С взгляда на специфику машины, рабочее место организовывают так, чтобы использовать рациональные приемы работы и эксплуатации машины при наименьшем числе движений оператора и удобному обращению обработанным материалом. На организацию работы на предприятии ДО влияют конструкция и параметры основного и устаткування, которые обязаны отвечать требованиям эргономики: оптимальному распределению функций в системе человек – машина; ответственности конструкции устаткования антропометричных психофизиологическим данным организма работающего; придерживаясь допустимых показателей продуктивной среды и санитарно- гигиенических условий труда, а так же безопасности эксплуатационного устаткування. Основой роста продуктивности труда есть изучение, и расширения передового опыта работы, сопровождения передового опыта влияет на продуктивность операторов на вычислительных машинах; так, продуктивность растет за счет сокращения времени набора исходных данных на клавиатуре, сочетание исполнения во времени нескольких элементов операций, рациональной подготовке и укладка документов и т.п. Эффективным методом руководителей и специалистов является использование в их работе вычислительной техники. Чтобы эти методы работы были рабочими, необходимо их соединить со сделанной системой организации предприятия, например с системами комплексной подготовки предприятия, с использованием программно - целевых методов и автоматизированного проектирования, функционально – стоимостного анализа, стандартных и типовых проектных решений, единых комплексов технических и программных способов по переработке и перевоплощению информации. Кроме того, на эффективность работы ИТП и служащих влияет применение правильных приемов работы на рабочем месте. Для них, как и для операторов, справедливый принцип: минимум растрат физической эмоциональной энергии, но максимум результатов труда. Достичь этого можно, лишь освоив рациональные методы и приемы труда на рабочем месте. Только они позволяют выполнить заданную работу качественно, в минимальный срок и без лишнего напряжения. Практикой установлено, что рационализацией приемов и движений работающего на рабочем месте трудоемкости может быть снижена на 10-15%, а эффективность труда в целом повышена на 30-40%. В целом же повышение производительности труда на предприятиях ДО делает существенную роль правильное планирование рабочих мест.
4.2 Планирование рабочего места
Планирование рабочего места - называют пространственное расположение основного и вспомогательного оборудования, оснащения и предметов труда, а также самого работающего рациональное использование трудовых движений, что обеспечивает, и приемов, благоприятные и безопасные условия труда. При организации рабочего места очень важным фактором является рабочая поза работника, то есть положение его корпуса, головы, рук и ног относительно орудий труда. Если работник работает сидя, ему необходимо обеспечить правильную и удобную посадку, которая достигается устройством опоры для спины, рук, ног, правильной конструкцией сидения, которое способствует равномерному делению массы тела. Все материальные элементы рабочего стола разделяют на предметы постоянного, временного пользования и с учетом этого располагают в выдающемся порядке на местах постоянного сохранения это экономит трудовые движения и силы работающего. Инструмент, оснащение и предметы труды должны находится на расстоянии 560-750 мм на уровне рук работника, тогда их использование не приведет к лишним подвижным наклонам. Важным элементом рационального планирования рабочего места является учет индивидуальных антропометрических психофизиологических данных работающего. Рабочие места оборудуют соответствующей мебелью и инвентарем, что отвечают наиболее комфортабельным условиям работы и требуют физиологии, психология и эстетики
4.3 Планированием помещений
Под планированием помещений предприятия ДО - понимают расположение (размещение) производственных участков в пределах общей площади предприятия ДО, размещение оборудования внутри этих участков, что обеспечивает эффективное использование производственного процесса.
На планирование помещений и рабочих мест влияют такие факторы, как технологический процесс обработки информации; производственная структура предприятия ДО; система управления; объем производства; характер развязанных задач.
Размещая производственные участки и оборудование, необходимо додерживаться следующих условий:
- расположить оборудование и производственные участки в соответствии с последовательностью использования технологических операций;
- выделяя для размещения каждого структурного подразделения отдельную комнату;
-производственные участки с большой численностью работающих располагать в светлых помещениях с естественным освещением;
- создавать на рабочих местах нормальные условия работы;
- ширину и глубину поверхности сидения не менее 400 мм;
- поверхность сидения из закругленным передним краем;
- регулировать высоту поверхности сидения в пределах 400-550 мм и углов наклона вперед до 150 и обратно к 50;
- высоту опорной поверхности спинки 300 -20мм, ширину - не менее 380 мм и радиус кривизны горизонтальной плоскости в пределах 0 -300;
- угол наклона спинки в вертикальной площади в пределах 0 -300;
- регулирование расстояния спинки от переднего края сидения в пределах 260-400 мм;
- стационарные или переменные подлокотники длинной не менее 250 мм и шириной - 50-70 мм;
- регулирование подлокотников по высоте над сидением в пределах 230 -30 мм и внутреннего расстояния между подлокотниками в пределах 350-500м Поверхность сидения, спинки и других элементов стула (кресла) должна быть на полумягкой с нескользящим, что не электризуется и воздухопроницаемым покрытиям, что обеспечивает легкую очистку от загрязнений.
4.4 Конструкция рабочего места
Рабочее место должно быть оборудовано подставкой для ног, что имеет ширину не менее 300 мм, глубину не менее 400 мм, регуляция по высоте в границах до 150 мм и по углу наклона опорной поверхности подставки до 200. Поверхность подставки должна быть рифленой и иметь на переднем крае бортик высотой 10мм.
Согласно СанПиН 2.2.2 542-96 конструкция клавиатуры должна предусматривать:
1.Использование в виде отдельного устройства с возможностью свободного перемещения;
2.Опорное приспособление, что позволяет изменять угол наклона поверхности клавиатуры в границах от 5 до 150;
3.Использование в виде отдельного устройства с возможностью свободного перемещения;
4.Опорне приспособление, что позволяет изменять угол наклона поверхности клавиатуры в границах от 5 до 150;
5.Высоту среднего ряда клавиш не менее 30 мм;
6.Расположение частое используемых клавиш в центре, внизу и справа, редко использованных - в горе и налево;
7.Выделение цветом, размером формой и местом расположения функциональных групп клавиш;
8.Минимальный размер клавиш - 13 мм, оптимальный - 15 мм;
9.Клавиши с углублением в центре и шагом 19мм+ -1мм;
10.Расстояние между клавишами не меньше 3мм;
11.Одинаковый ход всех клавиш с минимальным сопротивлением нажатию 0,25 Н и максимальным - не более 1,5 Н;
12.Звуковая обратная связь - от включения клавиш с регуляцией уровня звукового сигнала и к возможности ее отключения.
Клавиатуру компьютера лучше располагать на расстоянии 10-15 мм от края стола, тогда запястья рук будут опираться на стол. Желательно приобрести специальную подставку под запястья, что, как утверждают медики, поможет избежать болезни кистей. Для эффективного использования манипулятора типа «мыша» необходимый специальный «коврик» - планшет. Коврик – планшет должен удовлетворять основными критериями: во-первых, хорошо держатся на поверхности стола, во-вторых, материал верхней поверхности планшета должен обеспечивать хорошее соединения с шариком, но не утруждать движение мыши. Введение текстовой информации с клавиатуры облегчают подставки для документов. Они могут либо крепится, например, к монитору, либо устанавливается непосредственно на столе. Многие подставки оснащены линейками для выделения строки, что набирается. Несколько слов об организации рабочего места при работе на компьютере в домашних условиях. Рабочее место должно быть спланировано так, чтобы работать за компьютером было не только интересно, но и удобно. Если невозможно выделить для компьютера специальную комнату, то отдельный стол для него просто необходимый. Кроме этого, может понадобиться небольшой дополнительный или столик тумбочка для печатающего устройства (принтера). Нельзя устанавливать компьютер рядом с батареей центрального отопления. В соответствии с энергетическими требованиями для работы на компьютеры необходим стол з регулированной высотой рабочей поверхности, выдвижной подставки для клавиатуры. Дело в том, что монитор должен размещаться выше поверхности, на которой установлена клавиатура. Специальные кронштейны для мониторов позволяют обычный письменный стол использовать как по его прямому предназначению, так и для работы с компьютером. Центр экрана монитора должен находится приблизительно на уровне глаз, а расстояние между глазами и плоскостью экрана составлять не меньше 40-50 див. Желательно, чтобы прямой солнечный свет не попадал на экран. Соответственно сидящего за столом, окно по возможности, должно быть или с лева в впереди.
От яркого света необходимо защититься плотными шторами на окнах. Однако смотреть на экран монитора (как и на экран телевизора) в полной темноте не рекомендуется, необходимый дополнительный источник рассеянного света (можно включить люстру, настольную лампу), и т.д.
Выводы
Проведённое тестирование современных профессиональных видеоакселераторов средней ценовой категории позволило утвердиться во мнении, что между решениями AMD и NVIDIA продолжает сохраняться паритет. Впрочем, имеется в виду, что среди видеокарт разных производителей нет явных фаворитов и аутсайдеров. В некоторых же приложениях соотношение производительности может складываться явно в пользу графических акселераторов той или иной фирмы. Например, в Maya и AutoCAD лидирующие позиции занимают продукты семейства ATI FireGL. А в 3ds max и SolidWorks перевес оказывается на стороне решений NVIDIA.
Таким образом, мы не можем взять на себя ответственность давать рекомендации в приобретении тех или иных профессиональных плат. Решения такого типа достаточно дороги и к их выбору надо подходить очень взвешенно. Тем более что профессионалы редко сочетают одновременную работу в нескольких пакетах. Поэтому, выбор оптимального решения для графической рабочей станции следует основывать в первую очередь на сфере использования этой платформы. Необходимые же для этого фактические данные в этой статье представлены.В дополнение к сделанным выводам, касающимся быстродействия, хочется добавить и то, что подобного противоборства с переменным успехом не видно, если смотреть на результаты измерения энергопотребления видеокарт. Старшие решения AMD используют чипы, производимые по старому 80 нм технологическому процессу, в результате чего они оказываются значительно менее экономичными, чем видеокарты семейства Quadro FX. В этой связи нам было бы очень интересно посмотреть на новую видеокарту ATI FireGL V7700, основанную на свежем GPU с кодовым именем RV670. Будем надеяться, что компания AMD предоставит нам такую возможность. И ещё одно интересное заключение, которое можно сделать на основании проведённых тестов, состоит в том, что игровые акселераторы порой могут демонстрировать хорошую производительность в современных CAD и CAM программных системах.
Ситуация изменилась: взятая нами в качестве примера игровая видеокарта последнего поколения GeForce 9800 GTX с треском проиграла профессиональным ускорителям, фактически, только в синтетическом SPECviewperf, тестирующем OpenGL драйвер. В реальных же приложениях скорость систем с её участием оказалась вполне приемлемой. Более того, в отдельных задачах, например в SolidWorks и AutoCAD, GeForce 9800 GTX даже неожиданно смогла превзойти тысячедолларовые профессиональные платы.
Перечень ссылок
1. Петров В.Н. Информационные системы – СПб.: Питер, 2002 г. – 688с.:ил.
2. Советов Б.Я., Яковлев С.А. Моделирование систем: Учебник для вузов по спец. «Автоматизированные системы обработки информации и управления». – 2-е изд., перераб. и доп.- М.: Высшая школа, 1998.-319 с.:ил.
3. Оливер В.Г. Компьютерные сети.- СПб.:Питер,2001 г.
4. Оливер В.Г. ІР-сети: стратегическое планирование корпоративной ИВС – М.:Питер,2003.
5. Ефимова О.В., Моисеева М.В., Шафрин Ю.А. Практикум по компьютерной технологии. Упражнения, примеры и задачи. М: АБФ,1999.
6. Пятибратов А.П. и др. Вычислительные системы, сети и телекоммуникации: Учебник – М: Финансы и статистика, 2001.
7. Хомоненко А.Д. Базы данных. – СПб.: «КОРОНА принт», 2001.
8. Косарев В.П. Компьютерные системы и сети. – М.: Финансы и статистика, 2000
9. Конструирование РЕА. Оценка и обеспечение тепловых режимов.
10. Учебное пособие В.И. Довнич., Ю.Ф. Зиньковский. – К.: УМК ВО, 1990. – 240 с.
11. ГОСТ 27.003 – 90 – Надежность в технике. Состав и общие правила задания и требований по надежности.
|