Semenalidery.com

IT Новости из мира ПК
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Переделка видеокарты в профессиональную

Форум МИРа NVIDIA

техподдержка, решение проблем

Какие видеокарты можно переделать в профессиональные?

  • Перейти на страницу:

Какие видеокарты можно переделать в профессиональные?

Сообщение boban » 06.02.2006 8:26

Сообщение DrEvil » 06.02.2006 14:14

Сообщение max-sever » 06.02.2006 14:42

Сообщение boban » 06.02.2006 20:04

Сообщение DrEvil » 06.02.2006 21:17

Сообщение max-sever » 07.02.2006 10:08

Сообщение DrEvil » 08.02.2006 17:36

Сообщение Леонид » 16.02.2006 2:03

Сообщение boban » 18.02.2006 14:15

Сообщение DrEvil » 18.02.2006 17:27

Сообщение boban » 19.02.2006 8:49

Сообщение max-sever » 19.02.2006 10:35

Сообщение DrEvil » 19.02.2006 12:03

Никакого. Нет никакого способа визуально определить, какая там ревизия чипа. Надо или проверять карту в компьютере, или снимать систему охлаждения, что большинство продавцов врядли разрешит сделать до покупки.

Серьезно, единственный реальный вариант с учетом нынешнего ассортимента в магазинах — это 6800 GS AGP.

Чему верить?

Сообщение caine » 19.02.2006 15:28

Rivatuner пишет, что у меня на GF6600 ревизия чипа A4:

$0100000000 Graphics core : NV43 revision A4 (8×1,3vp)
$0100000001 Hardwired ID : 0141 (ROM strapped to 0141)

Что же тогда означает надпись в DeviceManager’е винды:

PCIVEN_10DE&DEV_0141&SUBSYS__81991043&REV_A2

значит ревизия все-таки A2 или это ревизия платы, а не чипа?
Чему верить?

Сообщение max-sever » 19.02.2006 15:39

Сообщение caine » 19.02.2006 15:43

Сообщение DrEvil » 19.02.2006 18:18

Сообщение Virgo1881 » 19.02.2006 19:18

Сообщение Леонид » 20.02.2006 1:25

Сообщение DrEvil » 20.02.2006 1:39

Сообщение boban » 22.02.2006 19:08

Сообщение DrEvil » 23.02.2006 0:43

Сообщение Леонид » 23.02.2006 3:09

Сообщение boban » 24.02.2006 10:23

Сообщение DrEvil » 24.02.2006 14:04

Сообщение roman78 » 01.03.2006 13:02

Сообщение Леонид » 01.03.2006 15:15

DrEvil,
преимущество конечно же не в этих мелочах. У NV3x более эффективный блок T&L FP. Есть несколько предположиний о его структуре — и это широко известно и обсуждалось на beyond3d, ixbt и др. NV40 AGP побеждает исключительно грубой силой (возможно эмулирует T&L FP не одним а несколькими Vertex конвеерами — я этого не знаю). Однако при переходе на PCI-E этой грубой силы уже недостаточно для преимущества над NV35/NV36 AGP.
G70 (FX 4500) PCI-E продолжает давление грубой силой. Все это конечно мое субъективное мнение и подлежит критике.

P.S.
я сравнивал 6800GT PCI-E преобразованную в «недо-quadro» при помощи RivaTuner и настоящую FX1100. Результат в таком старом тесте как ProCDRS-03:
6800GT

Quadro (Athlon64 3000+) — 120,
FX1100 (P4 3000) — 140.

Сообщение roman78 » 01.03.2006 18:39

4 мифа о видеокартах

Любое технически сложное устройство порождает множество мифов и пересудов. Не избежали этой участи и видеокарты. Далее рассмотрим 4 мифа, которым много лет, но они до сих пор актуальны.

Читать еще:  Как определить работоспособность видеокарты

Скорость видеокарты зависит от количества видеопамяти

Несомненно часть вины лежит на маркетологах: установить на видеокарту бо́льший объём видеопамяти и продать дороже это не то же самое, что разрабатывать заново печатную плату.

Но дело не только в этом. Как далёкий от темы человек поймёт, чем GeForce GTX 1070 лучше GeForce GTX 1050? Понятно, что разница в цене свидетельствует о том, что первая карта должна быть быстрее. А как это понять по коробке? Вспомним лицевую сторону и что на ней размещено. Обычно привлекательный рисунок (или изображение видеокарты), полное название, фирма-производитель, указание каких-то маркетинговых технологий и… объём видеопамяти. Покупатель смотрит на коробку с GTX 1050 — видит 2 ГБ, затем смотрит на GTX 1070 — 8 ГБ. Вроде как логично, что последняя продаётся дороже. А раз так, вот и родился миф.

На самом деле, сколько видеопамяти в конкретный момент используется зависит от самой игры, настроек и разрешения. Если памяти не хватает, то под нужды видеокарты выделяется часть ОЗУ — это медленнее, но в хорошо оптимизированных проектах разница на глаз будет незаметна. А в играх, где разработчики поленились делать оптимизацию, достаточно снизить графические настройки чтобы всё нормализовалось.

От разгона видеокарта может сгореть

Миф, как минимум не отрицаемый разработчиками видеокарт. Здесь всё понятно: им не выгодно, чтобы пользователь купил устройство, разогнал его и получил производительность более старшего и дорогого решения. Кстати, именно по этой причине GeForce GTX 1070 Ti удачно вписалась аккурат между GTX 1070 и GTX 1080, хоть по количеству CUDA-ядер она близка к последней и легко обходит её базовую (стоковую) версию в разгоне.

На самом деле, чтобы сжечь современную видеокарту нужно очень сильно постараться. Нынешние видеокарты буквально нашпигованы температурными датчиками. Если температура достигнет заданного порогового значения, начнётся троттлинг — автоматическое сбрасывание частот. Если температура продолжит свой рост, при достижении критического значения произойдёт отключение устройства.

Установка второй видеокарты удваивает производительность

И снова спасибо маркетологам, которые могут предлагать увеличение производительности «до двух раз». По факту, основная нагрузка ложится на плечи разработчика игр. Если они выполнят оптимизацию — ускорение будет, нет — работа двух видеокарт может оказаться медленнее, чем одной. И часть ответственности всё же находится на драйверописателях (разработчике GPU).

Ну и, наконец, чисто «продажная» логика: зачем терять прибыль, создавая две видеокарты дешевле и производительнее, чем одну? Видимо, исходя из таких соображений NVidia отказалась от поддержки SLI в видеокартах GTX 1060 и RTX 2070. Нужно либо довольствоваться младшей картой, либо покупать одну дорогую.

Профессиональные видеокарты лучше игровых

И в это легко поверить, взглянув на цены. По факту, всё гораздо проще, и профессиональные Quadro P5000 или Tesla P4 имеют тот же чип, что игровая GeForce GTX 1080 — GP104. Существенная разница достигается за счёт блокировок (на игровых картах сильно урезается скорость вычислений FP16 и FP64).

Читать еще:  Cpu z не показывает видеокарту

По́мните статью про GFLOPS видеокарты ? Этот параметр приводится потому, что для построения графики в играх производятся операции по вычислению 32-битных вещественных чисел (FP32).

В профессиональных картах, реальная производительность (те самые GFLOPS) для 16-битных чисел в 2 раза больше, а для 64-битных — в 2 раза меньше. В случае игровых карт скорость вычисления относительно FP32 существенно ограничивается: для FP64 — в 32 раза, а для FP16 — в 64 (!). Это позволяет NVidia чётко сегментировать видеокарты. Кому нужно профессиональное устройство, вынужден платить в несколько раз больше.

Почему же тогда профессиональные видеокарты показывают себя в играх хуже аналогичных игровых? Здесь дело в разных драйверах. Мало кто решится использовать профессиональную карту для игр, поэтому драйверы «затачиваются», в первую очередь, под специализированный софт, для которого и позиционируются.

Видеокарта

CrAsssH:
спам

Пожизненный бан

maxorog меня смущает одно, есть тесты «Quadro FX и FirePro», есть тесты «GeForce и Radeon», а тест хотя бы между одной профессиональной и игровой картой найти не могу.
Отсюда у меня вопрос, если взять профессиональную и игровую карту по одной цене, то объем памяти и полоса пропускания у Quadro FX и FirePro будет меньше, чем у GeForce и Radeon, тогда в чем их преимущество. Или на работу во вьюпорте влияет, что то другое?
Растризация и количество полигонов в сцене имеет связь?

Тест 3dmark можно не рассматривать.

Буиш так ругаца-зобаню

Абиснял же- дрова,драйверы(программы отдающие приказы железу делать то или другое действие) -вот в чём основное различие.Но Опыта у НВидиа гораздо больше,программы более отлажены,меньше косяков и т. д.
И в ДОРОГИХ FX,выше 1800 больше блоков РАСТРИЗАЦИИ -именно они рисуют трианглы-плоскости определяемые тремя точками пространства-полигоны,а значит их во вьюпе можно плавно крутить бОльшее количество чем в геймерских видюхах,где больше ШЕЙДЕРНЫХ конвейеров,отвечающих за красоту и эффекты(именно то за что борятся в 3д mark).

Это теория-как я её понимаю.А вот сам хотел бы убедиться на практике,но пока не юзал профвидюху.

Сам собираюсь взять НВидию,чтобы хоть phisiсX плагин поставить для физрасчётов,на АТИ он не пашет.

Но опять НО.На последних Х58 И Х55 материнках появилась новая технология-можно совмещать Видеокарточки АТИ и НВидия.Это можно будет и играть с комфортом и работать тоже.Вроде как.

Чтоб видюху заценить надо много поликов с надетыми текстурами покрутить-чтобы оценить ещё и систему в целом-полики и текстуры как я понимаю создаёт ГП,а СВЯЗЬ между ними осуществляет ЦП.

Ищи тему в «Железо» мы там начинали тестить видюхи на шариках).У Нейлгана недорогая профкарта не показала преимуществ.

Читать еще:  Как оптимизировать старый ноутбук

Если договоришься с продавцами о возврате денег в случае что проф не понравился создай во вьюпе 40 млн поликов в виде копий(не инстансов) геосфер или боксов,включи отображение сетки и покрути,замерь FPS на проф и на обычной.Если наложишь текстуры уже и процессор нагрузку получит достаточную чтобы помешать «чистоте» эксперимента).И на всякий возьми у кого-нибудь АТИ 5ХХХ серии-на ней тоже проверь.

есть стравнительный тест по игровым и про видеокартам. там вконце сравнение fx 4800 и 280gtx, так вот 280gtx проигрывает в 10 раз.
http://www.thg.ru/graphic/nvidia_quadro_fx_4800/index.html

вот коротенькое видео и описание, почему про видеокарты круче работают в программах
http://www.arbyte.ru/cadcam/solutions/profvideo.shtml

Ша! marhak не морочьте мне голову!

лучше я буду хайдить объекты и слои за мои 4 тысячи рублей, чем вы будете точно также хайдить слои и объекты на своей про-карточке но уже за 60 тысяч рубликов.

я вас умоляю, не смешите мои пейсы.

зы.
да и тесты там сделаны непонятно кем, непонятно на каком максе, сцене не имеющей ничего общего с моей работой и непонятно за какие деньги.
(себе под нос: хм. этож надо? тридцать серебренников. давно все знают, у тхг рыльце в пушку)

Я с помощью RivaTuner перепрошил свою geforce 8800gtx на quadro fx 4600. Знаете, пока день толко работаю, но поотрывал уже все тяжелые файлы, сижу кручу. )) Ненарадуюсь. Прирост скорости в максе ну навскидку в 2 раза. Пока ещё рано конечно говорить, но я доволен очень.
VovkaJocker
я сам не тестил и вряд ли б раскошелился на fx 4800, и уж после переделки карты за 250 долларов в карту за полторы штуки, и уж точно квадру покупать не буду. Но тем не менее тесты есть и пост именно об этом, так что ваши пейсы я не морочу уж точно.

Дело в том, что можно просто на википедии в quadro на английсом языке посмотреть, какая qadro какому джифорсу соответствует. посему щас задумался сразу над покупкой geforce gtx260 palit 1792mb, так как у нее такой же чип, как у quadro fx 5800. Ото радости мне будет, когда в диспечере устройств карта за 3500$ «светиться будет.
Правда есть одно но. Есть ещё так называемые драйвера для 3дмакса, называються maxtreme. на оф сайте есть. Но у меня виндоус 7 стоит и 3дмакс 2009, а там на 2009 макс дрова только до висты. а на семерку уже есть толко на 2010 макс.. Но туту уже с виреем накладочка будет)) но и в обычном direct3d тоже хорошо работает. И в автокаде тоже

Ссылка на основную публикацию
Adblock
detector