Совместима ли видеокарта geforce
Как узнать подойдет ли видеокарта к материнской плате
Перед покупкой новой видеокарты каждый владелец персонального компьютера обязан подготовиться – заранее распределить бюджет, изучить доступных производителей и выяснить, какие трудности встрется на пути к мечте. Разобраться с поставленной задачей смогут и новички, главное – внимательно пройти по пунктам описанной ниже инструкции и не отвлекаться.
Типы видеокарт
Видеокарта – графическая плата, преобразующая сигналы, передаваемые системой, в визуализированный образ, выводимый на экран монитора: развлекательный контент, таблицы, текст, видеоролики – в нынешнее время без подобного адаптера точно не обойтись. Но насколько действительно важна мощность видеокарты и сможет ли встроенный чип справиться с возлагаемой нагрузкой? Изучить тонкости можно с помощью формальной классификации видеокарт:
- Тип. Официально выделяют два варианта – дискретные и интегрированные. В первом случае речь идет о об отдельно закупаемом оборудовании, которое занимает разъем материнской платы. Во втором случае – карта интегрирована в процессор (подобное явление встречается у чипов Intel) и справляется исключительно с офисными задачами: помогает просматривать электронные документы, видеоролики и взаимодействовать с браузером (хотя в некоторых случаях, если процессор мощный и поддерживает Intel HD Graphics 610-630, то запустятся и Overwatch, и World of Tanks и даже Dota 2). Если денег на карточку недостаточно и компьютер собирается по частям, то на первое время мощного процессора Intel хватит с головой. А уже дальше, ради мощных блокбастеров, получится купить актуальный по характеристикам чип.
- Цена. Стоимость оборудования в сегменте компьютерных сборок можно с легкостью разделить на три равные части: офисные, «рабочие лошадки» и игровые модели, способные выдержать «высокие настройки» в течение 3-4 лет.
- Референс и нереференс. После презентаций NVidia и AMD карточки официально появляются на прилавках магазинах в «стандартном» дизайне – турбина, корпус, помеченный логотипами и заводские характеристики. Подобные видеокарты называются референсными. В дальнейшем производители передают права на сборку и остальным компаниям – к примеру, MSI, Gigabyte, Sapphire. Такие новинки уже называются нереференсными и отличаются от оригинала в первую очередь характеристиками и внешним видом. Вместо турбин – пара из мощных кулеров. Заводские параметры – разогнаны и улучшены, а энергопотребление уменьшено. Как правило, рынок переполнен именно нереференсными предложениями, но иногда имеет смысл обратиться к вариантам от NVidia или AMD – особенно, если цена намного ниже и обновить компьютер захотелось здесь и сейчас.
Лучшие производители видеокарт
Вывести однозначную и не субъективную статистику сторонних производителей, разрабатывающих новый дизайн для карт NVidia и AMD (то есть, нереференсные решения) весьма проблематично. И главная тому причина – нестабильность. MSI, ASUS, Gigabyte, Zotac, Palit – каждый бренд норовит то вырваться вперед, то непременно отстать от заданных сообществом трендов. А потому судить о производителях стоит в рамках определенной видеокарты, сравнивая три показателя:
- Частоту ядра. Измеряется в МГц и обязательно указывается в характеристиках. Чем характеристика выше – тем лучше.
- Цену. Держаться стоит усредненного баланса – гнаться за дорогостоящими версиями стоит в тех случаях, когда частота намного выше, охлаждение продумано лучше, а сбои и технические неполадки исключены.
- Комментарии и обзоры. Современное сообщество на новинки реагирует бойко – YouTube, социальные сети, тематические паблики тут же обрастают положительными и отрицательными отзывами. Хотя бы изредка, но взглянуть на подобные текстовые послания все-таки стоит. Иногда там описаны подводные камни. То размеры больше, чем заявлено, то частоты сбрасываются, а то тесты заканчиваются перегревом.
Если оттолкнуться от описанных выше показателей не получилось, то остановить внимание однозначно стоит на MSI, ASUS, Gigabyte – беспроигрышные варианты с доступным ценником.
Основные критерии выбора видеокарты к материнской плате
Критерий, которого стоит придерживаться при выборе видеокарты, один – разъемы материнской платы:
- AGP. Устаревший графический порт, последний раз пользовавшийся хоть какой-то популярностью в 2008 году. Уже к 2009 и NVidia и AMD перестали работать с таким разъемом и сосредоточились на PCI. Если компьютер не менялся с 2005 года и материнская плата оснащена AGP, то для новых видеокарт придется сменить платформу – тут уж ничего не изменить.
- PCI-E. Периферийная шина, ставшая единственным типом разъемов, представленных на рынке. Версий PCI две – 2.0 и 3.0. И каждая отличается общей пропускной способностью. Вариант с тройкой «в названии» формально быстрее и подходит под игровые карточки. Но, как показывает практика, даже на карточках уровнях GTX 980 TI от NVidia разница между 2.0 и 3.0 едва ли заметна – 3-5 FPS под максимальной нагрузкой. А потому если появилась возможность купить новую видеокарту, а денег на смену материнской платы уже не осталось, не беда – PCI-E 2.0 с задачей справится и не позволит заскучать.
Разъемы на видеокарте
Доступные интерфейсы можно классифицировать следующим образом:
- DVI. Стандартный разъем, доступный на всех современных видеокарт. Необходим для подключения к мониторам.
- HDMI. Разъем, который встречается на картах среднего и высокого ценового диапазона. Помогает также подключать оборудование к монитору или телевизору. Передает и графику, и звук.
- VGA – стандарт для подключения мониторов, проекторов;
- DisplayPort – частично устаревший разъем, редко использующийся в нынешнее время, но по-прежнему встречающийся на офисных картах.
- 6 и 8-pin. На видеокартах в некоторых случаях, кроме стандартного подключения к материнской плате через PCI-E, требуется еще и дополнительное питание, которое «раздается» блоком питания.
Как определить какие видеокарты совместимы с материнской платой
С задачей определения подходящего оборудования справится любой инструмент, способный собрать статистическую информацию о компьютере. Из неплохих вариантов – AIDA64. Утилита подскажет, какая материнская плата выбрана, какие разъемы доступны (AGP или PCI-E, определяется, как контроллер), и находится ли в системе интегрированный чип, способный справляться с графической обработкой. Кроме того, не возникнет проблем и с «угадыванием» бренда. Узнать о текущем разъеме можно в разделе «Системная плата», пункт «Чипсет». Проверка займет ровно 10 секунд, а далее можно возвращаться к процессу выбора подходящего оборудования.
Совместимость видеокарты и материнской платы
Промежуточный итог таков – совместимость материнской платы и видеокарты в современном мире технологий обеспечена на 100%. Более не придется разглядывать оборудование, выбирать между AGP и PCI, часами фильтровать предложения в интернет-магазинах и рисковать. Отныне можно мельком взглянуть на форматы PCI-E 2.0 и 3.0, расположенные на матплате, и, не сильно беспокоясь за итоговый результат (разница действительно минимальная), выкупить понравившуюся видеокарту.
С установкой и использованием проблем точно не возникнет. Беспокоиться скорее стоит о дополнительных компонентах ПК – к примеру, слабый процессор не раскроет мощную видеокарту, а оперативная память станет камнем преткновения перед игровыми блокбастерами. Во всем нужен баланс…
Стоимость видеокарт
Цены на компьютерные компоненты зависят от множества показателей – выбранного бренда, мощности, серии и даже производителя. И, если собрать каждую характеристику в некую совокупность, результат получится следующий:
- Офисные варианты или частично устаревшие модели. Выкупить предыдущее поколение карт от NVidia или AMD можно от 5000 и до 15000 рублей. При правильно подборе можно надеяться на работу с офисными программами и легкое взаимодействие с некоторыми, не особенно требовательными развлечениями. Производительность и энергоэффективность в таком ценовом сегменте находится в «зачаточном» состоянии, однако и шансы обнаружить любопытные комплектующие высоки. Та же GTX 1050 TI поможет запустить и CS: GO и даже The Witcher 3.
- Средний ценовой сегмент. Разброс цен внушительнее – от 15000 рублей до 35000. В указанные рамки попадают и варианты вроде GTX 1060 3 GB и старые решения вроде 980 и даже 980 TI. С подобным «помощниками» трудностей на пути к развлечениям однозначно не возникнет, особенно, в разрешении Full HD (1080p) и в 60 FPS. Опять же, проверять совместима ли видеокарта с материнкой не придется – поставить видеокарту и запустить ПК получится с вероятностью в 99%.
- Максимальная результативность. Последний раздел посвящен игровым решениям и оборудованию, нацеленному на профессиональное использование (монтаж видео, изображений, работа с графикой и дизайнерскими платформами). Цены начинаются от 40 тысяч и не заканчиваются. Предложения в 80-90 тысяч никому не кажутся завышенными, а наоборот – пользуются уверенным спросом. И причин тому две – запредельная мощность (об апгрейде не придется беспокоиться ближайших 3-5 лет, а в некоторых случаях и намного больше) и наличие требуемых технологий. Стоит ли обращать внимание на такие варианты – зависит исключительно от бюджета. Если денежных средств достаточно, то отказываться от подобного апгрейда точно не стоит.
Поддержка нескольких видеокарт
Выбор видеокарты под материнскую плату, способную работать в CrossFire или SLI чуть сложнее, важно учитывать следующие параметры:
- Поддерживает ли матплата подобные технологические решения. Иногда разъем доступен, но возложенные функции не выполняет. Перед покупкой стоит убедиться и в наличии дополнительных PCI-E разъемов, и в поддержке технологий CrossFire или SLI. О подобной возможности всегда написано в характеристиках.
- Видеокарты обязаны быть одинаковы с точки зрения модели и принадлежать одному «семейству» — AMD или NVidia. То есть, связка из 2-ух GTX 1060 точно заработает, а вот 970 и 980 TI – нет.
- Потенциал. Развлечений, поддерживающих, технологию SLI и CrossFire мало. И, если денежных средств недостаточно, организовывать комбинацию из пары видеокарт не слишком-то и практично. Мощности и производительность, которые вырисовываются в голове, могут быть такими только на бумаге.
Материнская плата и видеокарта давно превратились в единое целое, где сложно заплутать или случайно в чем-то не разобраться.
Другие интересные статьи можете прочитать на нашем сайте WI-Tech.ru
Спасибо всем, кто дочитал до конца.
Не забывайте ставить лайк, подписываться на канал и делиться публикациями с друзьями.
Nvidia vs AMD. На чьей ты стороне?
Фанатская любовь практически всегда перерастает в слепое безумие. Человек закрепляется за своим выбором и следует ему, не замечая откровенных провалов, ведь он не может быть ошибочным. Нужно всем доказать, что именно твоя команда лучшая. Эта «болезнь» не обошла и рынок компьютеров. Ведь, казалось бы, одно дело болеть за любимую команду в игре, а другое просто за производителя. Вы слышали, чтобы кто-то спорил о том, какая компания лучше по производству зубной пасты или спичек? Не думаю! Если вы спросите у консольного геймера, что лучше Xbox One X или PS4 Pro? То приготовьтесь к долгим рассказам о технических характеристиках, эксклюзивах и т.д. Уверен, такой диалог может длиться часами и в конечном итоге не приведет ни к чему. У ПК геймеров есть аналогичная вражда, которая длится уже долгие годы. Одни из основных соперников — это производители видеокарт Nvidia и AMD.
реклама
реклама
Любой прохожий скажет вам, что AMD широко известен своей доступностью, а Nvidia – производительностью и высокими ценами. Но действительно ли это так?
Ну, вроде бы как Nvidia GeForce RTX 2080Ti продается по цене $1.199, RTX 2070 в районе $799. Самая доступная карта Turing – GTX 1660, начинается от $279, что на российском рынке выходит в немалую сумму.
реклама
реклама
Когда вы собираете компьютер, важно установить самую мощную видеокарту. О стоимости многие не задумываются, но в период кризиса и постоянно растущих цен, начинаются поиски максимальной производительности за минимальные деньги. Нужно прочитать кучу форумов, посмотреть сотни бенчмарков. Сколько моя карта будет выдавать FPS? Сможет ли запустить Crysis на ультра настройках? А Metro?
На текущий момент в игровой сфере доминирует RTX 2080Ti. Вкупе с 11GB GDDR6 памяти и RT ядрами, которые позволяют выполнить трассировку лучей в реальном времени, ей просто нет равных. AMD, для конкуренции прямо сейчас, не может предоставить ровным счетом ничего, но имеет ли это значение? AMD всегда старалась предлагать доступные продукты для массового потребителя, в то время как Nvidia, обычно славилась мощными решениями.
реклама
Два гиганта на рынке графических решений находятся порой в довольно равномерном положении. Графические решения бюджетного сегмента во многом лучше у серии Radeon, в то время как, перешагивая диапазон 350$ — доминируют карты GeForce. Возможно, с приходом моделей Navi и middline Turing баланс сил изменится. У AMD нет продуктов, которыми можно перекрыть средний и премиум сегмент рынка, у Nvidia на сегодняшний день тут монополия.
Графические решения от Nvidia, как известно, используют более продвинутые технологии. Они быстрее выполняют вычислительные задачи, имеют меньше энергопотребление и соответственно меньшее тепловыделение. Карты от AMD делают ставку на пропускную способность памяти. Тем не менее, их решения потребляют больше энергии, выделяют больше тепла и не могут соперничать по производительности в high сегменте. Конечно, с годами разрыв сокращается, и «красные» вплотную подбираются к «зеленым». Линейка AMD Polaris включает в себя в основном 14nm GPU и одну модель на 12nm, в то время как последние карты Turing – 12nm GPU. По последним сводкам, мы знаем, что новое поколение AMD Navi будет на 7nm, любопытно каким техпроцессом на это ответит Nvidia в будущем.
CUDA Core vs Stream Processors.
Многие фанаты спорят, что из них лучше. Скажем объективно – ничего! Обе вышеперечисленные технологии используются в AMD и Nvidia и являются по существу одним и тем же. Это обычные ядра GPU, ни один из них по природе не лучше и не хуже другого. Их производительность нельзя сравнивать по количеству ядер и другим критериям. Они являются одним целым с чипом, и полная реализация порой зависит от оптимизации программного обеспечения. Таким образом, единственная область, где вы увидите разницу в производительности, это применение в играх собственных технологий, таких как Nvidia PhysX.
Все мы знаем, что оптимизированное программное обеспечение обеспечивает работу аппаратной части с максимальной отдачей. Для видеокарт так же есть драйвера и панели управления. Оба гиганта постоянно обновляют свое программное обеспечение, но одинаково ли оно удобно и эффективно? Панель управления Nvidia выглядит довольно устаревшей, она мало изменилась еще со времен Windows XP. Возможно, она и функциональна, но согласитесь, в эпоху 3D графики и огромных финансов компании, подобный интерфейс не приемлем. Центр управления AMD выглядит намного лучше, имеет современный дизайн, имеет размытости фона и гораздо приятнее глазу. Что же касается удобства управления – она ничуть не хуже. По поводу драйверов, судить сложно, они разработаны под конкретные устройства и несравнимы между собой. Если разобрать драйверы и посмотреть глубже, то в техническом плане Nvidia демонстрирует более прогрессивные технологии. Их драйверы совершеннее и гораздо лучше реализуют аппаратную часть, нежели у конкурента. К тому же драйверы AMD всегда славились своими проблемами с совместимостью и плохой стабильностью. В конце концов, весомого перевеса в программном обеспечении между ними нет, и выбирать по этому критерию не стоит.
Фишки.
Дополнительным программным обеспечением у Nvidia является GeForce Experience. Он обеспечивает обновление драйверов, позволяет транслировать геймплей и делать скриншоты. Программа удобна в управлении и интуитивно понятна. AMD, не желая отставать, анонсирует Radeon Adrenalin 2019 Edition. Последнее обновление позволяет производить автоматический разгон и передачу потокового геймплея на VR или ваш телефон. Козырь в рукаве «зеленых» — это оптимизация игр. Исходя из комплектующих вашего компьютера, система сама подбирает параметры в любой игре, для достижения максимально баланса качества и производительности. У AMD на этот счет есть приложение Raptr. Он далеко не идеален и по отзывам владельцев, не может да должном уровне конкурировать с Experience.
Современные игроки все чаще испытывают необходимость делиться своей игровой сессией с друзьями или подписчиками. Если вы не готовы покупать достойную карту видеозахвата, то ваш лучший выбор будет Shadowplay и ReLive от Nvidia и AMD. Согласно тестам, Shadowplay имеет явное преимущество с точки зрения качества видео. Также в решении от Nvidia выше стабильность, гораздо быстрее скорость передачи потокового видео.
Для любителей максимального синхронизированного FPS на экране монитора, существуют решения Nvidia Gsync и AMD FreeSync. Обе технологии совместимы только с видеокартами собственного производства, а также с мониторами, поддерживающими конкретно их технологию. Технология G-Sync более сложная и трудоемкая в реализации, она выходит за рамки обычной синхронизации, добавляет такие функции как снижение размытия движений, устранение ореолов и т.д. Этим производители мониторов с данной технологией и объясняют их дороговизну. Технология FreeSync более проста в реализации и нацелена на бюджетный сегмент рынка. Мониторы с ее поддержкой стоят на порядок дешевле решений от Nvidia. Однако она не всегда безупречно работает, и поддерживается только в узком диапазоне кадров, который задан производителем монитора. FreeSync имеет куда большую популярность на рынке, является отличным выбором для бюджетного сегмента.
Итак, какой же производитель лучше с учетом всех критериев?
Ответ – ни один! Суть по-прежнему в том, что AMD нацелена в большей степени на low-end и mid-range сегмент. Видеокарты Radeon представляют лучшее соотношение цена-качество по всем параметрам. Если же вам нужна максимальная производительность в QHD и 4К, то Nvidia является выбором номер один. Ее технологии во многом превосходят оппонента и позволят вам насладиться максимально красивой графикой с сумасшедшим FPS.
В конце концов, каждая компания делает все возможное, чтобы не отставать от других, внедрять новые технологии как можно быстрее, использовать лояльную ценовую политику. Именно эта конкуренция заставляет их двигаться вперед, устранять ошибки и бороться за голоса потребителей.
Nvidia vs AMD. На чьей ты стороне?
Фанатская любовь практически всегда перерастает в слепое безумие. Человек закрепляется за своим выбором и следует ему, не замечая откровенных провалов, ведь он не может быть ошибочным. Нужно всем доказать, что именно твоя команда лучшая. Эта «болезнь» не обошла и рынок компьютеров. Ведь, казалось бы, одно дело болеть за любимую команду в игре, а другое просто за производителя. Вы слышали, чтобы кто-то спорил о том, какая компания лучше по производству зубной пасты или спичек? Не думаю! Если вы спросите у консольного геймера, что лучше Xbox One X или PS4 Pro? То приготовьтесь к долгим рассказам о технических характеристиках, эксклюзивах и т.д. Уверен, такой диалог может длиться часами и в конечном итоге не приведет ни к чему. У ПК геймеров есть аналогичная вражда, которая длится уже долгие годы. Одни из основных соперников — это производители видеокарт Nvidia и AMD.
реклама
реклама
Любой прохожий скажет вам, что AMD широко известен своей доступностью, а Nvidia – производительностью и высокими ценами. Но действительно ли это так?
Ну, вроде бы как Nvidia GeForce RTX 2080Ti продается по цене $1.199, RTX 2070 в районе $799. Самая доступная карта Turing – GTX 1660, начинается от $279, что на российском рынке выходит в немалую сумму.
реклама
реклама
Когда вы собираете компьютер, важно установить самую мощную видеокарту. О стоимости многие не задумываются, но в период кризиса и постоянно растущих цен, начинаются поиски максимальной производительности за минимальные деньги. Нужно прочитать кучу форумов, посмотреть сотни бенчмарков. Сколько моя карта будет выдавать FPS? Сможет ли запустить Crysis на ультра настройках? А Metro?
На текущий момент в игровой сфере доминирует RTX 2080Ti. Вкупе с 11GB GDDR6 памяти и RT ядрами, которые позволяют выполнить трассировку лучей в реальном времени, ей просто нет равных. AMD, для конкуренции прямо сейчас, не может предоставить ровным счетом ничего, но имеет ли это значение? AMD всегда старалась предлагать доступные продукты для массового потребителя, в то время как Nvidia, обычно славилась мощными решениями.
реклама
Два гиганта на рынке графических решений находятся порой в довольно равномерном положении. Графические решения бюджетного сегмента во многом лучше у серии Radeon, в то время как, перешагивая диапазон 350$ — доминируют карты GeForce. Возможно, с приходом моделей Navi и middline Turing баланс сил изменится. У AMD нет продуктов, которыми можно перекрыть средний и премиум сегмент рынка, у Nvidia на сегодняшний день тут монополия.
Графические решения от Nvidia, как известно, используют более продвинутые технологии. Они быстрее выполняют вычислительные задачи, имеют меньше энергопотребление и соответственно меньшее тепловыделение. Карты от AMD делают ставку на пропускную способность памяти. Тем не менее, их решения потребляют больше энергии, выделяют больше тепла и не могут соперничать по производительности в high сегменте. Конечно, с годами разрыв сокращается, и «красные» вплотную подбираются к «зеленым». Линейка AMD Polaris включает в себя в основном 14nm GPU и одну модель на 12nm, в то время как последние карты Turing – 12nm GPU. По последним сводкам, мы знаем, что новое поколение AMD Navi будет на 7nm, любопытно каким техпроцессом на это ответит Nvidia в будущем.
CUDA Core vs Stream Processors.
Многие фанаты спорят, что из них лучше. Скажем объективно – ничего! Обе вышеперечисленные технологии используются в AMD и Nvidia и являются по существу одним и тем же. Это обычные ядра GPU, ни один из них по природе не лучше и не хуже другого. Их производительность нельзя сравнивать по количеству ядер и другим критериям. Они являются одним целым с чипом, и полная реализация порой зависит от оптимизации программного обеспечения. Таким образом, единственная область, где вы увидите разницу в производительности, это применение в играх собственных технологий, таких как Nvidia PhysX.
Все мы знаем, что оптимизированное программное обеспечение обеспечивает работу аппаратной части с максимальной отдачей. Для видеокарт так же есть драйвера и панели управления. Оба гиганта постоянно обновляют свое программное обеспечение, но одинаково ли оно удобно и эффективно? Панель управления Nvidia выглядит довольно устаревшей, она мало изменилась еще со времен Windows XP. Возможно, она и функциональна, но согласитесь, в эпоху 3D графики и огромных финансов компании, подобный интерфейс не приемлем. Центр управления AMD выглядит намного лучше, имеет современный дизайн, имеет размытости фона и гораздо приятнее глазу. Что же касается удобства управления – она ничуть не хуже. По поводу драйверов, судить сложно, они разработаны под конкретные устройства и несравнимы между собой. Если разобрать драйверы и посмотреть глубже, то в техническом плане Nvidia демонстрирует более прогрессивные технологии. Их драйверы совершеннее и гораздо лучше реализуют аппаратную часть, нежели у конкурента. К тому же драйверы AMD всегда славились своими проблемами с совместимостью и плохой стабильностью. В конце концов, весомого перевеса в программном обеспечении между ними нет, и выбирать по этому критерию не стоит.
Фишки.
Дополнительным программным обеспечением у Nvidia является GeForce Experience. Он обеспечивает обновление драйверов, позволяет транслировать геймплей и делать скриншоты. Программа удобна в управлении и интуитивно понятна. AMD, не желая отставать, анонсирует Radeon Adrenalin 2019 Edition. Последнее обновление позволяет производить автоматический разгон и передачу потокового геймплея на VR или ваш телефон. Козырь в рукаве «зеленых» — это оптимизация игр. Исходя из комплектующих вашего компьютера, система сама подбирает параметры в любой игре, для достижения максимально баланса качества и производительности. У AMD на этот счет есть приложение Raptr. Он далеко не идеален и по отзывам владельцев, не может да должном уровне конкурировать с Experience.
Современные игроки все чаще испытывают необходимость делиться своей игровой сессией с друзьями или подписчиками. Если вы не готовы покупать достойную карту видеозахвата, то ваш лучший выбор будет Shadowplay и ReLive от Nvidia и AMD. Согласно тестам, Shadowplay имеет явное преимущество с точки зрения качества видео. Также в решении от Nvidia выше стабильность, гораздо быстрее скорость передачи потокового видео.
Для любителей максимального синхронизированного FPS на экране монитора, существуют решения Nvidia Gsync и AMD FreeSync. Обе технологии совместимы только с видеокартами собственного производства, а также с мониторами, поддерживающими конкретно их технологию. Технология G-Sync более сложная и трудоемкая в реализации, она выходит за рамки обычной синхронизации, добавляет такие функции как снижение размытия движений, устранение ореолов и т.д. Этим производители мониторов с данной технологией и объясняют их дороговизну. Технология FreeSync более проста в реализации и нацелена на бюджетный сегмент рынка. Мониторы с ее поддержкой стоят на порядок дешевле решений от Nvidia. Однако она не всегда безупречно работает, и поддерживается только в узком диапазоне кадров, который задан производителем монитора. FreeSync имеет куда большую популярность на рынке, является отличным выбором для бюджетного сегмента.
Итак, какой же производитель лучше с учетом всех критериев?
Ответ – ни один! Суть по-прежнему в том, что AMD нацелена в большей степени на low-end и mid-range сегмент. Видеокарты Radeon представляют лучшее соотношение цена-качество по всем параметрам. Если же вам нужна максимальная производительность в QHD и 4К, то Nvidia является выбором номер один. Ее технологии во многом превосходят оппонента и позволят вам насладиться максимально красивой графикой с сумасшедшим FPS.
В конце концов, каждая компания делает все возможное, чтобы не отставать от других, внедрять новые технологии как можно быстрее, использовать лояльную ценовую политику. Именно эта конкуренция заставляет их двигаться вперед, устранять ошибки и бороться за голоса потребителей.
SLI: подключение видеокарт для совместной работы
После руководства по подключению в Crossfire двух видеокарт AMD Radeon пришел черед и компании Nvidia. Ее графические процессоры GeForce пользуются не меньшей популярностью среди игроков, чем продукция конкурента. Обе компании нога в ногу шагают на рынке, предлагая клиентам решения, схожие по уровню производительности и цене. Поэтому было бы несправедливо посвятить материал построению конфигурации CrossFire, но обойти стороной аналогичные возможности продуктов Nvidia.
Немного истории
Началом эры SLI можно считать 1998 год. Тогда компания 3dfx впервые сумела реализовать возможность объединения нескольких видеокарт для решения одной задачи. Однако развитие интерфейса AGP затормозило разработки в этом направлении, так как все материнские платы того времени оснащались только одним слотом для видеоплаты.
SLI от 3DFX — «дедушка» современной технологии
После того, как в 2001 году 3dfx были куплены компанией Nvidia, все разработки в этом направлении ожидали своего часа, который наступил только в 2004 году. Именно тогда, в 6000-й серии GeForce (первые видеокарты, разработанные специально под новейший на то время интерфейс PCI-Express) имеющиеся разработки были усовершенствованы и внедрены в продукты массового потребления.
SLI из двух GeForce 6600GT
Сперва объединить можно было две видеокарты GeForce 6600 или 6800, с выходом 7000-й серии (в которой была представлена первая полноценная двухпроцессорная плата от Nvidia, 7900GX2) появилась возможность построения четырехпроцессорной конфигурации (из 2 карт), а позже стало возможным и сочетание 3 или 4 раздельных ГП.
Как объединить видеокарты в SLI: требования
Как и для CrossFire, недостаточно купить две видеокарты Nvidia, чтобы сконфигурировать их в SLI. Существует ряд требований к компьютеру, которые следует соблюдать для обеспечения нормального функционирования связки.
- Совместимые видеокарты . Как и для CrossFire, платы не обязательно должны быть идентичными, но построенными на одном процессоре. То есть, можно объединить видеокарты GeForce GTX960 от Asus и Gigabyte, но нельзя построить SLI из GTX750Ti и GTX960 от Palit. Рекомендуется использовать GPU с идентичными объемами памяти. Конфигурация из карт на 1 и 2 Гб если и заработает – использоваться будет меньший объем, а при различиях в скорости памяти (например, 2 Гб DDR3 и 1 Гб GDDR5) существует риск возникновения программных ошибок, приводящих к некорректному формированию изображения. Для обеспечения функционирования SLI требуются карты, оснащенные интерфейсом SLI и соединенные с помощью мостика. Возможно и объединение их программным путем, но в таком случае быстродействие системы будет ниже.
- Подходящая системная плата . В плане поддержки чипсетами ситуация со SLI обстоит лучше, чем с CrossFire. Advanced Micro Devices решили обойтись без «палок в колесах» геймерам, использующим платы на наборах логики конкурентов, поэтому на чипсетах AMD 900-й серии присутствует поддержка обеих технологий объединения видеокарт. Чипы Intel тоже совместимы со SLI, что немаловажно. Само собой, в Nvidia не могли обойти стороной «родные» наборы микросхем серии NForce, топовые версии которых делают изначально SLI-совместимыми. Конечно, наличия подходящего чипсета недостаточно: на самой плате должно быть соответствующее количество гнезд PCI-Express. Рекомендуется использовать продукты, созданные для геймеров, где к каждому слоту подведено 16 или 8 линий PCI-E. В случае с бюджетными системными платами следует быть особо внимательным: подавляющее большинство геймеров, покупающих такие гаджеты, функций SLI никогда не использует, а «материнки» с двумя слотами PCI-E приобретаются ими «на всякий случай». Производители знают это и потому часто делают второй разъем неполноценным: подводят к нему 4, 2 или даже 1 линию, вместо 16 или 8. SLI на таких платах если и будет функционировать (не факт: нужно смотреть на коробке платы логотип SLI), то возможности видеокарт не будут раскрыты до конца.
Несмотря на наличие трех полноразмерных слотов X16, все 16 линий подведены только к первому. Слот 2 оснащен восемью линиями, слот 3 — только четырьмя
Таким логотипом маркируются SLI-совместимые комплектующие
Какие видеокарты можно объединить в SLI
Подключение двух видеокарт SLI -мостиком возможно, только если для этого мостика предусмотрен интерфейс на плате. Программными средствами объединить их тоже можно попытаться, но без «плясок с бубном» в таком случае не обойтись. Да и не имеет смысла строить тандем из двух GT610 или GT720. Одна карточка, быстродействие которой окажется выше, чем у подобной связки, в 2 или 3 раза, обойдется дешевле, чем комплект из пары офисных карт и совместимой материнской платы. То есть, отсутствие на младших представителях графических ускорителей SLI-интерфейса вызвано вовсе не жадностью производителя. Мостики никто не ставит, потому что это сделает карту дороже, но смысла от них никакого не будет. Таким образом, подключение двух видеокарт SL I возможно для моделей среднего и топового класса. К таковым относятся ГП, вторая цифра названия которых – 5 и выше (GTX5 5 0Ti, GTX9 6 0, GTX6 7 0, GTX7 8 0 и т.д.).
У GeForce GT 720 нет мостика для SLI
Перед тем , как подключить SLI две видеокарты , стоит убедиться в том, что они построены на одной версии графического процессора. К примеру, GeForce GTX650 и GTX650Ti, несмотря на схожесть названий, функционируют на базе совершенно разных ГП и потому в тандеме работать не смогут.
Есть ли практическая польза от SLI?
Перед тем, как объединить видеокарты в SLI, желательно ознакомиться с опытом использования таких конфигураций другими геймерами и изучить спецификации своих карт, а также характеристики более производительных решений в линейке. Нередко ни в плане экономии, ни по производительности, выигрыша двухкарточная конфигурация не дает. К примеру, две GTX950 в SLI демонстрируют результаты, сравнимые с одной GTX970. Разница в цене (около 200 и 400 долларов, соответственно) самих карт оправдана, но если учесть дополнительные затраты на мощный БП, двухслотовую материнскую плату, качественный и хорошо вентилируемый корпус – выглядит она сомнительно.
Совсем иная ситуация, если подключение двух видеокарт SLI – составляющая часть процедуры апгрейда имеющегося ПК, купленного пару лет назад. Карточки уровня GTX650Ti или GTX750 все еще можно встретить в продаже по разумной цене (разница с новыми моделями примерно эквивалентна различиям по быстродействию), а технический прогресс за 3 года не преподнес ничего революционного для видеокарт (разве что память HBM, представленную AMD, но Nvidia это пока не касается). Поэтому добавление еще одного графического процессора – вполне рациональный шаг для таких игроков.
SLI: подключение видеокарт
Если компьютер соответствует требованиям для создания SLI-конфигурации, подходящая вторая видеокарта куплена – можно переходить к сборке. После выключения ПК следует снять крышку системного блока, установить вторую плату в соответствующий слот, подключить к ней дополнительный кабель питания (если таковой требуется) и соединить две карты мостиком, идущим в комплекте. Аппаратное подключение двух видеокарт в SLI на этом завершено и можно переходить к программной настройке.
Кабели питания, подключенные к связке SLI
Подключение двух видеокарт SLI в Windows
Для того, чтобы связка из двух ГП могла нормально функционировать – нужно установить на ПК Windows версии Vista или новее (7, 8, 8.1 или 10). Рекомендуется также скачать с сайта Nvidia самую свежую версию драйвера для видеокарты. После этого можно переходить к настройке.
- Нужно кликнуть по рабочему столу правой клавишей мыши и в появившемся окне выбрать пункт «Панель управления Nvidia».
- В подменю «Настройки 3D» следует выбрать пункт «Настроить SLI, PhysX».
- В открывшейся вкладке необходимо установить галочку «Максимальная производительность 3D».
Включение SLI в Windows
После применения установок связка готова к работе. Возможно, для корректной настройки работы SLI в некоторых играх придется задать им особые параметры в подменю «Программные настройки». Но, как правило, большинство современного ПО в этом не нуждается.
Большой поклонник качественной китайской техники, любитель четких экранов. Сторонник здоровой конкуренции между производителями. Чутко следит за новостями в мире смартфонов, процессоров, видеокарт и другого железа.
AMD Radeon или Nvidia GeForce — муки выбора
Мощная и современная видеокарта – очень важная составляющая вашего компьютера, особенно если вы любитель сыграть в новейшие компьютерные игры или посмотреть кино в формате HD. А покупка хорошей видеокарты – довольно серьезный удар по бюджету. Поэтому, к вопросу ее выбора стоит подойти максимально вдумчиво, проанализировав все плюсы и минусы выбранных вариантов.
Прежде чем начать сравнивать признанных лидеров рынка среди видеокарт и решать, что лучше Nvidia GeForce или AMD Radeon, давайте уточним пару моментов. Собственно, GeForce и Radeon – это чипы (или графические процессоры) для видеокарт, производителями которых являются, соответственно, компании Nvidia и AMD. А вот на базе этих чипов собирают видеокарты уже многочисленные фирмы, такие как Asus, HIS, Gigabyte, MSI, Sapphire и другие.
Nvidia GeForce или AMD Radeon
Давайте попробуем абстрагироваться от конкретных производителей видеокарт и сравнить именно технологии Nvidia и AMD. Только вспомним и тот момент, что процентов на восемьдесят производительность нашей видеокарты зависима от процессора, так что в этом плане производитель может мало на что повлиять, даже если видеокарта существенно улучшена и доработана в плане охлаждения, возможностей интеграции.
Производительность и технологии. В этой категории лидера в паре «nvidia vs radeon» выделить очень сложно. Обе компании активно развивают и улучшают свои технологии, выпуская все более мощные модели.
Что же предлагают Nvidia и AMD современным продвинутым юзерам в плане технологий?
Технологии Nvidia SLI и AMD Cross Fire предназначены для объединения двух и более видеокарт в одном компьютере, существенно расширяя возможности производительности системы. Обе работаю одинаково хорошо.
Технологии Nvidia CUDA и AMD FireStream способствуют тому, что графический процессор участвует в вычислениях, тем самым значительно повышая производительность системы в целом. Тут нужно отметить, что Nvidia CUDA является более универсальной технологией и используется гораздо более широко, нежели аналог от AMD.
Очень интересную технологию PhysX SDK предлагает своим пользователям Nvidia. Это движок, позволяющий симулировать физические явления (обработка твердых тел, тканей, жидкостей). У AMD аналогичный движок носит название Havok Physics (он был реализован ирландской компанией Havok), но, надо отметить, он менее популярен и так и не стал полноценной заменой Nvidia PhysX.
Nvidia предлагает технологию 3D Vision Surround, при помощи которой можно при наличии трёх мониторов Full HD добиться эффекта 3D. У AMD есть конкурентная технология AMD Eyefinity, которая позволяет подключать до шести, а в некоторых – и до 24 мониторов, создавая целый стенд с мощными объемными стерео- и аудио-эффектами.
Некоторые вариации подключения мониторов с помощью технологии AMD Eyefinity:
Можно сделать например вот так:
Или даже так! Но это уж совсем перебор, на мой взгляд (или холя бы мониторы без рамки нужно):
Цена
Тоже немаловажный фактор при выборе видеокарты, согласитесь? Порой даже решающий. AMD использует более гибкую ценовую политику, позволяя свои покупателям приобретать модели с хорошей производительностью по достаточно демократичным ценам. А вот Nvidia задает изначально более высокие цены.
Совместимость
При выборе видеокарты этот аспект также является очень важным. Не возникнет ли проблем по совместимости новой видеокарты с уже имеющимися у вас компьютерными комплектующими? Лучше озаботиться этим вопросом заранее, чтобы потом не тратить кучу нервов и времени, пытаясь найти решение в интернете или обменять карту в магазине на другую. Стоит отметить, что совместимость – как раз сильная сторона чипов Nvidia. Эти карты отлично подходят к большинству устройств. Кстати, именно они используются в продукции Apple. А вот при покупке карты с процессором AMD вы можете столкнуться с проблемой совместимости, особенно если вы предпочитаете работать на линуксе.
Энергопотребление и тепловыделение
Тут AMD лидирует, как это говорится, в «одни ворота», так как потребление энергии, а соответственно и выделение тепла, у видеокарт AMD Radeon в среднем на 50 ватт меньше, чем у GeForce. Поэтому эти карты стоит рассмотреть как вариант для ноутбука – они меньше греются и позволят батарее дольше прожить без подзарядки. Забавно: видеокарты Nvidia маркируются аббревиатурой GTX, которая при написании Русскими буквами, превращается в «ПЕЧ» ….
Какие еще требования предъявляют пользователи к видеокартам?
Конечно, очень часто мощная карта приобретается очень целенаправленно – для того чтобы без помех играть в современные компьютерные игры, полностью погружаясь в игровой мир. Или же смотреть фильмы в Full HD формате, например. В этой категории, пожалуй, лидирует карта с процессором от Nvidia. Как раз потому, что она поддерживает такие технологии, как PhysX (и 3DVision).
Кроме того, надо отметить, что эти видеокарты отличает более логичная и грамотная оптимизация драйверов. Геймеры-эксперты отмечают, что зачастую карты AMD отличает и более низкое качество картинки, худшая перспектива, например, теней в игре. Но при этом при покупке карты с чипом Radeon вы получаете несколько бесплатных лицензионных игр, что, безусловно, является преимуществом.
На картинке ниже вы можете посмотреть результаты теста производительности разных видеокарт GeForce и Radeon в одной из самых требовательных игр Crysis:
Надо сказать, что при покупке видеокарты, как и при выборе процессора, стоит ориентироваться на свои потребности и возможности. Опять же нужно учитывать один момент, который описан выше — это цена.
Интересный факт: тесты конечно выглядят хорошо и показательно, но из за разницы в цене, видеокарты Nvidia и AMD Radeon одной ценовой категории по производительности отличаются не так сильно.
Если вы располагаете ограниченной суммой – отличным выбором станет карта AMD Radeon. Она будет иметь отличное соотношение цена/производительность.
Если же предпочитаете брать от жизни все и играть в игры на УЛЬТРА настройках и не париться о замене лет 5-7, то придется раскошелиться и приобрести топового монстра от Nvidia GeForce, аля GTX 970 или Titan.