Переделка видеокарты в профессиональную
Форум МИРа NVIDIA
техподдержка, решение проблем
Какие видеокарты можно переделать в профессиональные?
- Перейти на страницу:
Какие видеокарты можно переделать в профессиональные?
Сообщение boban » 06.02.2006 8:26
Сообщение DrEvil » 06.02.2006 14:14
Сообщение max-sever » 06.02.2006 14:42
Сообщение boban » 06.02.2006 20:04
Сообщение DrEvil » 06.02.2006 21:17
Сообщение max-sever » 07.02.2006 10:08
Сообщение DrEvil » 08.02.2006 17:36
Сообщение Леонид » 16.02.2006 2:03
Сообщение boban » 18.02.2006 14:15
Сообщение DrEvil » 18.02.2006 17:27
Сообщение boban » 19.02.2006 8:49
Сообщение max-sever » 19.02.2006 10:35
Сообщение DrEvil » 19.02.2006 12:03
Никакого. Нет никакого способа визуально определить, какая там ревизия чипа. Надо или проверять карту в компьютере, или снимать систему охлаждения, что большинство продавцов врядли разрешит сделать до покупки.
Серьезно, единственный реальный вариант с учетом нынешнего ассортимента в магазинах — это 6800 GS AGP.
Чему верить?
Сообщение caine » 19.02.2006 15:28
Rivatuner пишет, что у меня на GF6600 ревизия чипа A4:
$0100000000 Graphics core : NV43 revision A4 (8×1,3vp)
$0100000001 Hardwired ID : 0141 (ROM strapped to 0141)
Что же тогда означает надпись в DeviceManager’е винды:
PCIVEN_10DE&DEV_0141&SUBSYS__81991043&REV_A2
значит ревизия все-таки A2 или это ревизия платы, а не чипа?
Чему верить?
Сообщение max-sever » 19.02.2006 15:39
Сообщение caine » 19.02.2006 15:43
Сообщение DrEvil » 19.02.2006 18:18
Сообщение Virgo1881 » 19.02.2006 19:18
Сообщение Леонид » 20.02.2006 1:25
Сообщение DrEvil » 20.02.2006 1:39
Сообщение boban » 22.02.2006 19:08
Сообщение DrEvil » 23.02.2006 0:43
Сообщение Леонид » 23.02.2006 3:09
Сообщение boban » 24.02.2006 10:23
Сообщение DrEvil » 24.02.2006 14:04
Сообщение roman78 » 01.03.2006 13:02
Сообщение Леонид » 01.03.2006 15:15
DrEvil,
преимущество конечно же не в этих мелочах. У NV3x более эффективный блок T&L FP. Есть несколько предположиний о его структуре — и это широко известно и обсуждалось на beyond3d, ixbt и др. NV40 AGP побеждает исключительно грубой силой (возможно эмулирует T&L FP не одним а несколькими Vertex конвеерами — я этого не знаю). Однако при переходе на PCI-E этой грубой силы уже недостаточно для преимущества над NV35/NV36 AGP.
G70 (FX 4500) PCI-E продолжает давление грубой силой. Все это конечно мое субъективное мнение и подлежит критике.
P.S.
я сравнивал 6800GT PCI-E преобразованную в «недо-quadro» при помощи RivaTuner и настоящую FX1100. Результат в таком старом тесте как ProCDRS-03:
6800GT
Quadro (Athlon64 3000+) — 120,
FX1100 (P4 3000) — 140.
Сообщение roman78 » 01.03.2006 18:39
4 мифа о видеокартах
Любое технически сложное устройство порождает множество мифов и пересудов. Не избежали этой участи и видеокарты. Далее рассмотрим 4 мифа, которым много лет, но они до сих пор актуальны.
Скорость видеокарты зависит от количества видеопамяти
Несомненно часть вины лежит на маркетологах: установить на видеокарту бо́льший объём видеопамяти и продать дороже это не то же самое, что разрабатывать заново печатную плату.
Но дело не только в этом. Как далёкий от темы человек поймёт, чем GeForce GTX 1070 лучше GeForce GTX 1050? Понятно, что разница в цене свидетельствует о том, что первая карта должна быть быстрее. А как это понять по коробке? Вспомним лицевую сторону и что на ней размещено. Обычно привлекательный рисунок (или изображение видеокарты), полное название, фирма-производитель, указание каких-то маркетинговых технологий и… объём видеопамяти. Покупатель смотрит на коробку с GTX 1050 — видит 2 ГБ, затем смотрит на GTX 1070 — 8 ГБ. Вроде как логично, что последняя продаётся дороже. А раз так, вот и родился миф.
На самом деле, сколько видеопамяти в конкретный момент используется зависит от самой игры, настроек и разрешения. Если памяти не хватает, то под нужды видеокарты выделяется часть ОЗУ — это медленнее, но в хорошо оптимизированных проектах разница на глаз будет незаметна. А в играх, где разработчики поленились делать оптимизацию, достаточно снизить графические настройки чтобы всё нормализовалось.
От разгона видеокарта может сгореть
Миф, как минимум не отрицаемый разработчиками видеокарт. Здесь всё понятно: им не выгодно, чтобы пользователь купил устройство, разогнал его и получил производительность более старшего и дорогого решения. Кстати, именно по этой причине GeForce GTX 1070 Ti удачно вписалась аккурат между GTX 1070 и GTX 1080, хоть по количеству CUDA-ядер она близка к последней и легко обходит её базовую (стоковую) версию в разгоне.
На самом деле, чтобы сжечь современную видеокарту нужно очень сильно постараться. Нынешние видеокарты буквально нашпигованы температурными датчиками. Если температура достигнет заданного порогового значения, начнётся троттлинг — автоматическое сбрасывание частот. Если температура продолжит свой рост, при достижении критического значения произойдёт отключение устройства.
Установка второй видеокарты удваивает производительность
И снова спасибо маркетологам, которые могут предлагать увеличение производительности «до двух раз». По факту, основная нагрузка ложится на плечи разработчика игр. Если они выполнят оптимизацию — ускорение будет, нет — работа двух видеокарт может оказаться медленнее, чем одной. И часть ответственности всё же находится на драйверописателях (разработчике GPU).
Ну и, наконец, чисто «продажная» логика: зачем терять прибыль, создавая две видеокарты дешевле и производительнее, чем одну? Видимо, исходя из таких соображений NVidia отказалась от поддержки SLI в видеокартах GTX 1060 и RTX 2070. Нужно либо довольствоваться младшей картой, либо покупать одну дорогую.
Профессиональные видеокарты лучше игровых
И в это легко поверить, взглянув на цены. По факту, всё гораздо проще, и профессиональные Quadro P5000 или Tesla P4 имеют тот же чип, что игровая GeForce GTX 1080 — GP104. Существенная разница достигается за счёт блокировок (на игровых картах сильно урезается скорость вычислений FP16 и FP64).
По́мните статью про GFLOPS видеокарты ? Этот параметр приводится потому, что для построения графики в играх производятся операции по вычислению 32-битных вещественных чисел (FP32).
В профессиональных картах, реальная производительность (те самые GFLOPS) для 16-битных чисел в 2 раза больше, а для 64-битных — в 2 раза меньше. В случае игровых карт скорость вычисления относительно FP32 существенно ограничивается: для FP64 — в 32 раза, а для FP16 — в 64 (!). Это позволяет NVidia чётко сегментировать видеокарты. Кому нужно профессиональное устройство, вынужден платить в несколько раз больше.
Почему же тогда профессиональные видеокарты показывают себя в играх хуже аналогичных игровых? Здесь дело в разных драйверах. Мало кто решится использовать профессиональную карту для игр, поэтому драйверы «затачиваются», в первую очередь, под специализированный софт, для которого и позиционируются.
Видеокарта
CrAsssH:
спам
Пожизненный бан
maxorog меня смущает одно, есть тесты «Quadro FX и FirePro», есть тесты «GeForce и Radeon», а тест хотя бы между одной профессиональной и игровой картой найти не могу.
Отсюда у меня вопрос, если взять профессиональную и игровую карту по одной цене, то объем памяти и полоса пропускания у Quadro FX и FirePro будет меньше, чем у GeForce и Radeon, тогда в чем их преимущество. Или на работу во вьюпорте влияет, что то другое?
Растризация и количество полигонов в сцене имеет связь?
Тест 3dmark можно не рассматривать.
Буиш так ругаца-зобаню
Абиснял же- дрова,драйверы(программы отдающие приказы железу делать то или другое действие) -вот в чём основное различие.Но Опыта у НВидиа гораздо больше,программы более отлажены,меньше косяков и т. д.
И в ДОРОГИХ FX,выше 1800 больше блоков РАСТРИЗАЦИИ -именно они рисуют трианглы-плоскости определяемые тремя точками пространства-полигоны,а значит их во вьюпе можно плавно крутить бОльшее количество чем в геймерских видюхах,где больше ШЕЙДЕРНЫХ конвейеров,отвечающих за красоту и эффекты(именно то за что борятся в 3д mark).
Это теория-как я её понимаю.А вот сам хотел бы убедиться на практике,но пока не юзал профвидюху.
Сам собираюсь взять НВидию,чтобы хоть phisiсX плагин поставить для физрасчётов,на АТИ он не пашет.
Но опять НО.На последних Х58 И Х55 материнках появилась новая технология-можно совмещать Видеокарточки АТИ и НВидия.Это можно будет и играть с комфортом и работать тоже.Вроде как.
Чтоб видюху заценить надо много поликов с надетыми текстурами покрутить-чтобы оценить ещё и систему в целом-полики и текстуры как я понимаю создаёт ГП,а СВЯЗЬ между ними осуществляет ЦП.
Ищи тему в «Железо» мы там начинали тестить видюхи на шариках).У Нейлгана недорогая профкарта не показала преимуществ.
Если договоришься с продавцами о возврате денег в случае что проф не понравился создай во вьюпе 40 млн поликов в виде копий(не инстансов) геосфер или боксов,включи отображение сетки и покрути,замерь FPS на проф и на обычной.Если наложишь текстуры уже и процессор нагрузку получит достаточную чтобы помешать «чистоте» эксперимента).И на всякий возьми у кого-нибудь АТИ 5ХХХ серии-на ней тоже проверь.
есть стравнительный тест по игровым и про видеокартам. там вконце сравнение fx 4800 и 280gtx, так вот 280gtx проигрывает в 10 раз.
http://www.thg.ru/graphic/nvidia_quadro_fx_4800/index.html
вот коротенькое видео и описание, почему про видеокарты круче работают в программах
http://www.arbyte.ru/cadcam/solutions/profvideo.shtml
Ша! marhak не морочьте мне голову!
лучше я буду хайдить объекты и слои за мои 4 тысячи рублей, чем вы будете точно также хайдить слои и объекты на своей про-карточке но уже за 60 тысяч рубликов.
я вас умоляю, не смешите мои пейсы.
зы.
да и тесты там сделаны непонятно кем, непонятно на каком максе, сцене не имеющей ничего общего с моей работой и непонятно за какие деньги.
(себе под нос: хм. этож надо? тридцать серебренников. давно все знают, у тхг рыльце в пушку)
Я с помощью RivaTuner перепрошил свою geforce 8800gtx на quadro fx 4600. Знаете, пока день толко работаю, но поотрывал уже все тяжелые файлы, сижу кручу. )) Ненарадуюсь. Прирост скорости в максе ну навскидку в 2 раза. Пока ещё рано конечно говорить, но я доволен очень.
VovkaJocker
я сам не тестил и вряд ли б раскошелился на fx 4800, и уж после переделки карты за 250 долларов в карту за полторы штуки, и уж точно квадру покупать не буду. Но тем не менее тесты есть и пост именно об этом, так что ваши пейсы я не морочу уж точно.
Дело в том, что можно просто на википедии в quadro на английсом языке посмотреть, какая qadro какому джифорсу соответствует. посему щас задумался сразу над покупкой geforce gtx260 palit 1792mb, так как у нее такой же чип, как у quadro fx 5800. Ото радости мне будет, когда в диспечере устройств карта за 3500$ «светиться будет.
Правда есть одно но. Есть ещё так называемые драйвера для 3дмакса, называються maxtreme. на оф сайте есть. Но у меня виндоус 7 стоит и 3дмакс 2009, а там на 2009 макс дрова только до висты. а на семерку уже есть толко на 2010 макс.. Но туту уже с виреем накладочка будет)) но и в обычном direct3d тоже хорошо работает. И в автокаде тоже