only best advices for best friends---857...2004---v.0.2
Direct link to a site PROJECT857: http://www.project857.narod.ru
Меню

Projects

Железо
GeForceFX 5900XT. Замена системы охлаждения, секреты разгона и «автотормоза».


В этой статье мы продолжим изучение FX5900XT.


Замена системы охлаждения


Так как данная видеокарта даже на стандартных частотах прилично греется, мы для начала поменяем систему охлаждения.
Подробное описание процесса описано в нашей прошлой статье Замена вентилятора на видеокарте.
Поэтому сейчас будет описание только в картинках, а анализировать будем попозже.
И так, оригинальная видеокарта.

Default


Выбор радиатора для новой системы охлаждения пал на давно валяющийся Volcano 6CU+. Во-первых у него очень большая площадь, во-вторых медная шайба в основании, тем более дизайн платы позволяет устанавливать крупные радиаторы.

 Volcano 6CU+


Для начала нужно снять с него вентилятор, так как использовать его мы не будем, по причине ужасных звуковых характеристик, рёв его слышен за версту. Делается это просто, даже без применения зубила :). Кладём радиатор на стол и давим на вентилятор в низ, он легко снимается. Глядите рисунок.

снимаем вентилятор


Следующим этапом размечаем и сверлим отверстия в радиаторе.

сверлим
сверлим


Тут мне хочется процитировать плакат, висящий над станком в нашей мастерской:
«Чтобы стружка в глаз не била, надевай очки мудила!» Это шутка, конечно. :)
Дальше, нарезаем резьбу

резьба по железу :)


Теперь полируем медную шайбу.

 полируем медную шайбу


Ну и наконец прикручиваем радиатор к видео карте. Пластмассовые шайбочки необходимы для того, чтобы не повредить карту и элементы на плате. Пружинки нужны для регулировки прижима. Не рекомендую жестко прикручивать радиатор, т.к. можно повредить GPU.

прикручиваем радиатор
винт


Всё радиатор сидит на месте, но мы не поговорили о вентиляторе, естественно его нужно прикручивать заранее, но тут не всё просто.
Для начала мы поставили 60мм вентилятор вместо стандартного.

60мм
60мм


Но этого показалось мало, и был установлен 80мм кулер.

80мм


У данного варианта есть очень важный плюс, память тоже охлаждается, хотя это не очень необходимо.

80мм


Да, таким монстром можно пугать маленьких Юзеров :).

80мм


Но…тут возникла проблема о которой я как-то не подумал. Размер такой системы охлаждения оказался просто огромный, и занял ТРИ слота PCI!!! Это меня не устраивало т.к. пришлось бы выкидывать нужные девайсы. Если у вас нет такой проблемы то, оставляйте этот вариант, ну а если у вас тоже дефицит свободного места, возможно следующий вариант подойдёт.

2x40


Были найдены и установлены два вентилятора от Soc7/370.

2x40


Такая система тоже вызывает уважение. Когда я показал фотки моим коллегам, и задал вопрос что это?, народ дружно предположил, что это двух процессорная видео карта!!! :)

2x40


Такая система занимает всего два слота PCI, но в третий слот пришлось воткнуть сетевую карту, т.к. она гораздо меньшего размера, и не будет мешать вентиляторам захватывать воздух.

inside


Вот собственно и всё с железной частью.


Теперь перейдём к тестам.


Температура видео карты снималась по внешнему термометру описанному в нашей статье "Чем мониторить температуру? Выбираем цифровой термометр."
Температура в комнате составляла 25-26 градусов. Надо констатировать тот факт, что после трёх часов игры в UT2003, температура в комнате поднялась до 28 градусов, да…зимой я точно не замёрзну :).
Температура замерялась в двух играх, а именно Unreal Tournament 2003 в течении 3x часов, а также в игре Half Live-2, т.к. как оказалось, она очень сильно нагревает видео карту.
Сводная таблица результатов.

5900XT Idle UT2003 HL-2
Default 46 58 62
After Design 34 43 45


Легенда:
Default – система охлаждения – по умолчанию
After Design – установлен наш радиатор
Idle – температура в покое, после 15 минут включения компьютера
UT2003 – 3 часа игры в Unreal Tournament 2003
HL-2 – пол часа игры в Half Live – 2
Результат нас поразил, такого падения температуры я даже не ожидал. Особенно производит впечатление результат в HL-2, после замены системы охлаждения, температура в нём стала даже меньше чем раньше в покое!!! Думаю не надо пояснять, что и во всём системном блоке температура значительно понизилась.
После такого удачного изменения системы охлаждения пора разгонять видеокарту. Но…как оказалось, не в температуре было дело. В прошлый раз GPU разогнался до частоты 468MHz, сейчас же всего до 473.3MHz. Прибавилось всего 5MHz. На память переделка кулера естественно вообще не сказалась, частота осталась 833.6MHz. При таком разгоне результат в 3Dmark2003 немного вырос и составил –5494 марков.

3Dmark2003


Тут возникает законный вопрос – ПОЧЕМУ?!!! Почему видяха не гонится? Ведь температура упала более чем на 10 градусов! Ответ прост, дело не в температуре, дело в напряжении. Рекомендованная nVidia напруга на GPU, для частот включая 450MHz и более, должна быть 1,6V, в нашем же случае , на 5900XT – 1,4V, что существенно меньше! Это, конечно, не значит что – всё кончено, ведь остаётся ещё вольтмод (изменение напряжения пайкой), но для большинства людей он не доступен по ряду понятных причин. В этой ситуации, при таком разгоне, наше самолюбие может потешить только понизившаяся температура во всём системнике, положительно сказавшаяся на всех остальных железках.
Вот такие, блин, дела.

Секреты разгона.


Разгон 5900XT действительно таит в себе много вопросов, и сейчас я попытаюсь рассказать что я «нарыл» в результате экспериментов.
Ну во первых, как я уже говорил, пропорционального разгона можно достичь только при синхронном увеличении частот для GPU и Memory с коэффициентом 1,8.
Запомните – синхронный разгон, для 5900XT, это разгон с коэффициентом 1.8 соотношения Мем/GPU. В дальнейшем, слово «синхронно» в моём понимании равно 1.8.
В связи с дискретностью переключения тактового генератора, доступных частот всего две:
427.5/769.5 (GPU/Mem)
450.0/810.0 (GPU/Mem)
Дальнейший разгон связан с трудностями: нехватка напряжения на GPU, и к тому же память может не тянуть большие частоты.
Следующий момент, не синхронный разгон (с учётом 1.8!) памяти больше частоты чипа, приводит к появлению дефектов изображения. Объясняю популярно: выставляем, например 400/800 и наблюдаем дефекты изображения, в тоже время, устанавливая «правильную» частоту 450/810 видим идеальную картинку. Не синхронный разгон процессора, выше частоты памяти, не вызывает дефектов.
Теперь интересное :).
Цена одного мегагерца разгона в кадрах. Т.е. сколько кадров прибавит разгон видяхи на 1MHz. При тестировании и сведении результатов использовались «3D итоги» с iXBTHardware, т.к. в нашей лаборатории разогнать видео карту более 470 невозможно, а на iXBT присутствуют результаты на частотах более 500MHz для карт Ultra.
И так, разгон GPU:
1MHz=0.3fps (old game)
1MHz=0.1fpfs(new game)
Memory
1MHz=0.03fps (all game)
Смысл, разгон на 50MHz GPU прибавит в среднем для старых игр (UT2003,COD, MOH) – 15 FPS, а для новых (FC, HL2) – 5FPS. Ну а разгон памяти на 100MHz прибавит всего 3FPS! Воистину память вообще можно не трогать. Совершенно понятно, что все игры под одну гребёнку не запихать, но данная информация позволяет приблизительно оценить потенциал разгона. Надо отметить, что 5900XT очень нуждается в мощном процессоре, и, начиная с частоты 475, начинает сказываться нехватка мощного процессора Athlon64 3200+, а на частоте более 500 процессора просто не хватает, это выражается в мизерных результатах прироста кадров при увеличении частоты GPU. В итоге, как я уже говорил ранее, идеальным результатом для многих, составят частоты 450/810 (GPU/Mem), дальнейший разгон мало целесообразен, т.к на GPU может не хватать напруги да и к тому же ограничивающим фактором буде выступать Центральный процессор, я думаю пока не у многих стоит Athlon64 3500+ необходимый для полной реализации высоких частот видеокарты.
На этом с разгоном можно закончить.

Автотормоз.


В этом вопросе царит полное непонимание, т.к. никто из шарящих не может популярно объяснить от чего же он зависит и как работает. Я тоже не работаю на nVidia, поэтому только констатирую факты а уж выводы сделает каждый сам.
Во-первых, что такое «Автотормоз» в принципе знают уже все, это динамическое (в процессе работы) сброс частоты GPU в результате его некорректной работы. Народ очень невзлюбил эту защиту, хотя она призвана спасти Графический процессор от смерти. Все только и пытаются найти способ её отключить. Никто ведь не хочет отключить термодиод в Athlon'ax, только для того чтоб разогнать процессор на пару мегагерц. Такого человека однозначно назвали бы сумасшедшим, зато на FX5900XT многие мечтают об этом. Жуть!

Во-вторых, я различаю два вида «автотормоза», и это моё личное мнение возможно не являющееся истиной.
Первый я называю “autofreeze”. Он проявляется в замирании картинки на приличное время до десятков секунд, а затем игра размораживается и продолжает работать в нормальном режиме. Особенность “autofreeze” является то, что частота в этот момент не сбрасывается! Данный вид защиты я наблюдал ещё на GF4Ti4200, поэтому он не является новым для GFFX. Я бы назвал её «низкоинтелектуальной»: GPU ошибся – его остановили.
Второй я называю “autoClockDown”, работу его сейчас объясняют модным выражение «если GPU не прошёл внутренний тест , то частота сбрасывается». На самом деле, понятие стресс-теста (Stess Test) присутствует в драйверах. Отчёт о его работе можно посмотреть на закладочке “Troubleshooting” в панели драйверов. Её можно включить добавление следующего ключика в реестр:

[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NVTweak]
"NvCplEnableTroubleshootingPage"=dword:00000001

Так вот, “autoClockDown” работает следующим образом, картинка замирает на небольшое время (лаг), а затем игра продолжает работу, но частота GPU в это время уже понизилась. При этом можно заметить дефекты изображения, тк. мы уже знаем, что память начинает работать на большей частоте (не забывайте про 1.8) чем графический процессор, ведь её частота остаётся разогнана и без изменений.
Могу констатировать следующий факт, что работа “autofreeze” скорей всего зависит от температуры, а срабатывание “autoClockDown” уже из-за проблем в GPU. Попробую объяснить.
До изменения системы охлаждения, “autoClockDown” я вообще не видел! (за исключением очень большого разгона, например 480), в тоже время, при температуре 62 градуса срабатывал “autofreeze”, т.е. картинка замирала, а частота не сбрасывалась! После замены охлаждения, происходит всё «с точностью до наоборот», теперь про “autofreeze” я просто забыл, а срабатывает “autoClockDown”! Объяснение у меня только одно, нехватка напряжения вызывает ошибки в работе графического процессора на повышенных частотах. В GPU FX5900 несколько миллионов транзисторов, и кто поручится, что они все будут работать стабильно при нехватке напряжения? Вот и я о том же.
Вывод для себя я сделал такой: если срабатывает “autofreeze” – значит, чип перегрелся, ну а если срабатывает “autoClockDown” – GPU работает нестабильно из за нехватки напряжения. Прошу учесть, что в моей 5900XT отсутствует термодатчик, и его наличие внесёт свои коррективы в работу защиты.

При тестировании была выявлена следующая особенность работы “autoClockDown”: - включение Анизотропной Фильтрации (AF) увеличивает возможность срабатывания защиты даже при небольшом разгоне. Проверяйте AF в панели драйверов, если там АФ отключёна, а в игре все равно наблюдается срабатывание защиты, проверяете включённость АФ в самой игре. Учтите, что некоторая часть игр, при установке качества на максимум, самостоятельно форсируют включение АФ. Например, в Need For Speed Hot Pursuit 2 установка WORLD DETAIL в HIGHEST принудительно включает АФ. Решение проблемы элементарно, либо не включать АФ, либо сбросить частоту чипа. В нашем случае, на частоте GPU равной 450MHZ, проблемы со срабатыванием “autoClockDown” при включении Анизотропки исчезли.

Далее, несколько раз наблюдался следующая особенность: после срабатывания “autoClockDown” в D3D приложении, и при последующем его запуске, частота GPU не восстанавливалась, так и должно быть, но… при запуске OGL технодемки Dawn Ultra (эльфийская бабочка) частота восстанавливалась!!! А при последующем запуске опять D3D игры, снова падала! Как это объяснить, я если честно не знаю, возможно, в драйвере существует разделение работы защиты для D3D и OGL.

Следующая интересная особенность связана с кнопочкой “Auto Detect” при разгоне из панели драйверов.
Для начала надо объяснить как “Auto Detect” работает. При использовании “Auto Detect” драйвер начинает поднимать частоту памяти(!) проверяя её на глючность, а частота GPU поднимается синхронно (с к=1.8) и естественно тоже проверяется на стабильность. Это объясняется просто, зачастую потенциал GPU гораздо больше потенциала памяти. В итоге кнопка “Auto Detect” показывает возможность разгона памяти, т.к. память начинает глючить гораздо раньше, чем GPU.

Следующий момент, после срабатывания “autoClockDown”, драйвер не позволяет менять частоты, но при нажатии “Auto Detect” частоты начинают увеличиваться! Возможно, с работой механизма “Auto Detect” и связана отгадка разлочки драйвера при срабатывании “autoClockDown”. Но это уже информация для профессионалов, способных поглубже копнуть драйвер.

На данный момент, это всё что мы нашли. Дальнейшие экзекуции мы поведем после вольтмода, если руки дойдут. Возможно, это поможет более точно изучить работу защиты на FX5900XT.

Прошу обратить внимание, что вся выше написанная информация всего лишь предположение, хотя результаты и получены в ходе реальных экспериментов, поэтому принимать ли её на веру или нет решит каждый сам, тем более, всё это вы можете запросто проверить.

Удачи!

Sergey857
&
ViktorS
&
Alex

8 августа 2004г.

Уже после написания статьи мы нарисовали небольшой комикс на тему "Dawn и автотормоз" :)

COMIKS


  • 857team…2004

  • Mail
    Пишите письма!
    Links

    Компьютерный Центр В'Элc
    iXBTHardware
    Мир nVidia
    Rating

    Рейтинг@Mail.ru
    Search
    Яndex
     Запрос:
    Сайт создан в системе uCoz