Geforce gtx 660 требования

Nvidia Geforce GTX 660

Как и следовало ожидать, после выхода Geforce GTX 660 Ti появляется Geforce GTX 660. Однако если раньше компания Nvidia следовала некоему условному правилу: один чип — одна серия, то есть все карты в рамках серий x70, x60, x50 были основаны на одном и том же ядре, которое просто имело разную степень сокращения блоков, а также могли быть отличия в частотах, то теперь уже все смешалось. Если GTX 660 Ti основан все еще на том же флагмане GK104 (на котором базируется и GTX 680), то GTX 660 имеет свое ядро, отдельный чип — GK106. Именно поэтому данный базовый материал может быть особо интересным, ведь изучаем новый кристалл, новый GPU.

Как обычно, продолжит тему Алексей Берилло.

Часть 1: Теория и архитектура

Во время анонса предыдущих видеокарт Nvidia мы писали о том, что сразу же после выхода модели Geforce GTX 680, многие пользователи начали ждать и выпуска менее мощных и дорогих вариантов, вроде хорошо известных Geforce GTX 460 и GTX 560. Но Nvidia не торопилась выпускать ничего на базе новых чипов, только на основе топового GK104. А ведь даже урезанный вариант Geforce GTX 660 Ti все равно продается по довольно высокой цене. И вот, к осеннему периоду массовых продаж компания выпустила две новые модели, предназначенные для ценового сегмента менее $300.

Выход таких решений сейчас актуален, поскольку рынок игр для ПК переживает свой очередной расцвет, о чем мы не раз говорили. Этакая «эпоха возрождения» началась не только потому, что консоли нынешнего поколения технически устарели, но и потому, что ПК предоставляет больше возможностей и для пользователей и для разработчиков с издателями. Многие из крупных издателей считают ПК наиболее быстрорастущей игровой платформой, что подтверждается и статистикой.

Возрождение ПК-игр выражается сразу в нескольких аспектах. Например, технологической стороне, ведь именно ПК является технологическим локомотивом игровой индустрии. Сейчас в игровых проектах все чаще и активней применяются аппаратные возможности, появившиеся в последних поколениях GPU — такие как поддержка DirectX 11 функциональности. Большинство самых популярных игр поддерживают возможности этой версии графического API, в их числе такие игры как World of WarCraft: Mists of Pandaria, Call of Duty Black Ops 2, MechWarrior Online и Assassin’s Creed III — все они будут использовать DX11-функции. И количество игр с такой поддержкой постоянно растет:

Именно благодаря возможностям современных ПК-видеокарт, игровые разработчики могут не только использовать давно имеющиеся возможности, но и включать в свои проекты такие технологии, как DirectX 11 и GPU PhysX. Уже сейчас разработчики, благодаря ПК, заглядывают в будущее и делают игры для следующего поколения консолей, используя ПК-«железо». А заодно встраивают некоторые из этих возможностей и в ПК-версии нынешних проектов, что мы и видим по современным играм.

Со стороны игровых издателей ПК привлекателен тем, что позволяет использовать новые бизнес-модели вроде «free to play» — способа распространения игр, позволяющего играть без оплаты за саму игру. Доход же получают от внутриигровых микротранзакций. Этот способ распространения сейчас широко используется и позволяет расширить игровой рынок. Так, 4 из 10 наиболее популярных онлайновых игр распространяются по методу «free to play», среди них такие известные проекты как World of Tanks и League of Legends.

Эти игры все чаще отличаются богатой и технологичной графикой — в качестве примеров Nvidia приводит такие игры, как Planetside 2 и Hawken, использующие технологию PhysX, а также Mechwarrior Online, который отличается поддержкой функций DirectX 11 и сглаживания методом TXAA. Кроме этого, среди преимуществ ПК можно отметить и распространение игровых модификаций — так называемых «модов», изменяющих визуальную часть и игровой процесс, а также возможности по трансляции игровых матчей в прямом эфире — все это работает на популяризацию игр на персональных компьютерах.

К сожалению, большая доля игроков до сих пор имеет в составе своих ПК видеокарты предыдущих поколений и они не могут насладиться всеми прелестями современных ПК-версий. По статистике Steam Hardware Survey, более половины игроков до сих пор имеют видеокарты с поддержкой возможностей лишь DirectX 10 API. И, как надеется Nvidia (да и AMD), для получения полной отдачи от современных игр, все они просто обязаны побежать в магазины и поскорее приобрести современные видеокарты на базе GPU с поддержкой DirectX 11.

Как видите, 53% пользователей Steam еще не обновили свои системы. Собственные данные Nvidia также говорят о том, что типичные пользователи игровых ПК обновляют систему в среднем раз в три года и даже больше, и половина из них до сих пор не сделала этого. И тем более это касается среднего и низшего ценовых диапазонов рынка. Совершенно неудивительно, что после выхода первых решений на основе архитектуры Kepler, на новые видеокарты перешла лишь малая часть пользователей — старшие модели линейки (вроде Geforce GTX 670 и GTX 680) слишком дороги для большинства.

Высокопроизводительный сегмент видеокарт для энтузиастов, цены на котором начинаются от $300 (от 10-12 тыс. руб.) занимает менее 10% от общего объема рынка, а более 90% игроков покупают видеокарты за $100-$300 (если не брать интегрированные решения). Согласно все тому же отчету Steam Hardware Survey, подавляющая часть пользователей довольствуется видеокартами с ценой ниже $300, а доля более дорогих решений весьма невелика.

Естественно, что многие пользователи ждали менее дорогих решений на удачной архитектуре Kepler. И вот, сегодня были представлены модели Geforce GTX 660 и Geforce GTX 650. Новая видеокарта модели Geforce GTX 660 обеспечивает оптимальную комбинацию производительности, цены и потребления энергии. Именно такие решения и становятся наиболее массовыми в среде любителей ПК-игр. А сравнительно недорогая Geforce GTX 650 предлагает начальный уровень игровой производительности и все возможности более мощных решений.

Более слабый вариант, основанный на уже известном нам чипе GK107, мы рассмотрим несколько позднее, а вот Geforce GTX 660 разберем максимально подробно уже сегодня. Эта модель призвана укрепить позиции Nvidia в сегменте недорогих видеокарт — там, где несколько лет назад крайне удачно выступали такие известные модели как Geforce 8800 GT и 9800 GT. Напомним, что Geforce 8800 GT была анонсирована осенью 2007 года и объявленные цены были в рамках $199—$249, хотя поначалу те видеокарты продавались несколько дороже.

Благодаря отличному сочетанию производительности и цены, модель Geforce 8800 GT стала одной из самых популярных. К слову, эти видеокарты до сих пор одни из наиболее распространенных в Steam. Затем появилась модель Geforce 9800 GT, которая во многом повторяла предшественницу, позднее выходили и другие известные модели, и вот уже почти через пять лет в продолжение традиций данного ценового сегмента выпущена Geforce GTX 660.

Чтобы привлечь пользователей устаревших моделей видеокарт, Nvidia приводит средние цифры прироста производительности по сравнению с Geforce 9800 GT и Geforce GTX 460. Практический смысл такого сравнения в том, что по диаграмме пользователи могут понять, что они получат, заменив старые решения представленной сегодня новинкой.

По тестам компании, Geforce GTX 660 быстрее старой модели более чем вчетверо, а GTX 460 уступает ей почти в два раза. В дополнение к скоростным характеристикам, GTX 660 отличается от 9800 GT поддержкой DirectX 11 (старые Geforce 8800/9800 ее не имеют), в несколько раз большей математической мощью, скоростью текстурных выборок и филлрейта, а также большим объемом и пропускной способностью локальной видеопамяти. Все это совершенно логично и понятно, ведь между датами анонсов Geforce 8800 GT и GTX 660 прошло почти целых 5 лет! Немудрено, что за это время многие показатели видеокарт этого ценового диапазона выросли в 3-5 раз. Вместе с итоговой производительностью.

Так как анонсированные сегодня новые продукты Nvidia основаны на базе графических процессоров архитектуры «Kepler», о которой мы уже подробно рассказывали и которая близка к родственной архитектуре «Fermi», то читателям будет полезно ознакомиться со статьями о других моделях графических решений компании:

  • [10.05.12] Nvidia Geforce GTX 670 — 7/8 от однопроцессорного лидера GTX 670: много это или мало?
  • [22.03.12] Nvidia Geforce GTX 680 — новый однопроцессорный лидер 3D-графики
  • [09.11.10] Nvidia Geforce GTX 580 — новый король 3D-графики на закате 2010 года
  • [27.03.10] Nvidia Geforce GTX 480 — архитектура нового графического процессора изнутри; как реализована поддержка DirectX 11

Рассмотрим подробные характеристики выпущенной сегодня видеоплаты Geforce GTX 660, основанной на графическом процессоре GK106.

Графический ускоритель серии Geforce GTX 660

  • Кодовое имя чипа GK106;
  • Технология производства 28 нм;
  • 2,54 миллиардов транзисторов;
  • Унифицированная архитектура с массивом процессоров для потоковой обработки различных видов данных: вершин, пикселей и др.;
  • Аппаратная поддержка DirectX 11 API, в том числе шейдерной модели Shader Model 5.0, геометрических и вычислительных шейдеров, а также тесселяции;
  • 192-битная шина памяти, три независимых контроллера шириной по 64 бита каждый, с поддержкой GDDR5-памяти;
  • Базовая частота ядра 980 МГц;
  • Средняя турбо-частота ядра 1033 МГц;
  • 5 потоковых мультипроцессоров, включающих 960 скалярных ALU для расчетов с плавающей запятой (поддержка вычислений в целочисленном формате, с плавающей запятой, с FP32- и FP64-точностью в рамках стандарта IEEE 754-2008);
  • 80 блоков текстурной адресации и фильтрации с поддержкой FP16- и FP32-компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • 3 широких блока ROP (24 пикселя) с поддержкой режимов антиалиасинга до 32 выборок на пиксель, в том числе при FP16- или FP32-формате буфера кадра. Каждый блок состоит из массива конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг;
  • Интегрированная поддержка RAMDAC, двух портов Dual Link DVI, а также HDMI и DisplayPort;
  • Интегрированная поддержка четырех мониторов, включая два порта Dual Link DVI, а также HDMI 1.4a и DisplayPort 1.2;
  • Поддержка шины PCI Express 3.0.
Читайте так же:  Требования к моделям в системном анализе

Спецификации референсной видеокарты Geforce GTX 660

  • Базовая частота ядра 980 МГц;
  • Средняя турбо-частота 1033 МГц;
  • Количество универсальных процессоров 960;
  • Количество текстурных блоков — 80, блоков блендинга — 24;
  • Эффективная частота памяти 6008 (1502×4) МГц;
  • Тип памяти GDDR5, 192-битная шина памяти;
  • Объем памяти 2 ГБ;
  • Пропускная способность памяти 144,2 ГБ/с;
  • Теоретическая максимальная скорость закраски 23,5 гигапикселей в секунду;
  • Теоретическая скорость выборки текстур 78,4 гигатекселей в секунду;
  • Два разъема Dual Link DVI-I, один HDMI, один DisplayPort;
  • Двойной SLI-разъем;
  • Шина PCI Express 3.0;
  • Энергопотребление до 140 Вт;
  • Один 6-контактный разъем питания;
  • Двухслотовое исполнение;
  • Рекомендуемая цена для России 8499 руб. (для рынка США — $229)

Новая модель Geforce GTX 660 в линейке решений компании Nvidia занимает место между старшей Geforce GTX 660 Ti и младшей Geforce GTX 650, анонсированной сегодня же. Она замещает платы предыдущего поколения среднего уровня, вроде Geforce GTX 560 (Ti), предлагаемые до выхода решений на базе архитектуры Kepler. Принцип наименования видеокарт Nvidia все тот же, среднеценовая модель получила цифру «6» в середине индекса, но без суффикса «Ti», который остался за платой на урезанном GK104, выпущенном недавно.

Выпуск давно ожидаемого чипа GK106 говорит о том, что с производством на TSMC дела налаживаются, да и старые решения серии GTX 500 уже стыдно продавать, так как серия Radeon HD 7800 конкурента присутствует на рынке уже почти полгода. Кстати, две модели этой серии и стали главными конкурентами для GTX 660. Ее рекомендованная цена уложилась ровно посередине между ценами моделей Radeon HD 7850 и HD 7870. С ними двумя мы и будем сравнивать новинку. Цена для российского рынка была установлена равной 8499 руб., что несколько выше североамериканских $229, но есть предположение, что реальные цены в наших магазинах будут ниже.

Как и самая слабая видеокарта на базе чипа GK104, новая модель имеет 192-битную шину памяти, но объем видеопамяти остался равным 2 ГБ. Подробнее о таком решении написано ниже, а для платы такого уровня это — оптимальный объем локальной памяти. Лишь в условиях самых современных приложений и максимальных настроек качества с полноэкранным сглаживанием высокого уровня его может иногда не хватить. Впрочем, партнеры могут выпустить и модификации с 3 ГБ памяти, так как 192-битная шина позволяет сделать это легко и просто.

В отличие от предыдущих видеокарт семейства Geforce GTX 600, анонсированная сегодня модель GTX 660 основана на базе нового видеочипа среднего уровня, получившего название GK106. Этот GPU поддерживает все возможности, появившиеся в топовом GK104, на котором основана видеокарта Geforce GTX 680 и все особенности архитектуры Kepler относятся к нему в полной мере, включая организацию мультипроцессоров SMX и технологию повышения частоты GPU Boost. Архитектура Kepler давно нам известна и все ее особенности мы уже рассматривали. В данном материале мы лишь остановимся на отличиях чипа GK106 и вкратце повторим базовую информацию.

Архитектура Kepler была практически полностью переработана, а основной задачей при ее разработке было повышение энергоэффективности. SMX — это маркетинговое наименование новой организации мультипроцессоров. По сравнению с SM, которые мы видели в предыдущем поколении Fermi, новые SMX обеспечивают большую производительность как математических операций, так и текстурных выборок, и все это — при сниженном потреблении энергии. Мультипроцессоры SMX, на которых основаны все чипы семейства Kepler, обеспечивают до двух раз лучшую энергоэффективность (соотношение производительности и потребления энергии), по сравнению со старыми семействами Geforce.

Интересно, что хотя модель Geforce GTX 660 основана на полной (не урезанной) версии чипа GK106, она включает пять мультипроцессоров SMX, состоящих из 960 потоковых вычислительных ядер и 80 текстурных модулей. Причем, эти пять SMX собраны в три кластера графической обработки Graphics Processing Clusters (GPC), как в этом можно убедиться на диаграмме, предоставленной компанией Nvidia:

Мало того, что это решение с нечетным количеством блоков, так оно еще и несимметричное. Любому взглянувшему на диаграмму выше сразу станет понятно, что намного логичнее было бы использование пусть тех же трех GPC, но с шестью мультипроцессорами SMX — по два на каждый кластер GPC. С другой стороны, технически ничто не мешало Nvidia сделать так, как показано на диаграмме — и вполне возможно, что аппаратно так оно и есть, благо, что похожий пример мы уже видели на диаграмме следующего топового чипа GK110, который также состоит из нечетного количества мультипроцессоров SMX (15 штук). Хотя он еще не вышел на рынок в виде готовых изделий, но некоторые сведения о нем были раскрыты на конференции GTC 2012.

Впрочем, пользователю от этого не жарко и не холодно — ну пять их, так и ладно! А нам интересны причины, побудившие Nvidia поступить настолько нелогично. То ли проектированием чипов в Nvidia занялась женщина шестой SMX не входил в запланированный размер кристалла или потребление чипа среднего уровня, то ли производительность GK106 с шестью SMX была бы слишком близкой к той же Geforce GTX 660 Ti, основанной на урезанном GK104. Нам кажется, что дело как раз в этом.

Как и указанное выше решение, Geforce GTX 660 имеет три 64-битных контроллера памяти, что в сумме составляет 192-битный доступ к локальной видеопамяти. Так как блоки растровых операций ROP «привязаны» к контроллерам, то их количество также не изменилось с GTX 660 Ti и составляет 24 блоков. Как и в случае со старшим решением на базе GK104, контроллер памяти Geforce GTX 660 умеет работать с чипами памяти смешанной емкости. Именно это решение позволило сделать объем памяти не 1.5 или 3 ГБ, а 2 ГБ, при использовании 192-битного доступа.

Мы писали в прошлый раз о том, как это сделано технически. Контроллеры памяти используют восемь чипов памяти, первый 64-битный контроллер получает четыре микросхемы общим объемом 1 ГБ и 16-битным режимом доступа к каждой их них, а остальные два контролера управляют двумя чипами памяти каждый, и они имеют 32-битный доступ и емкость по 512 МБ на чип. Тонкости решения Nvidia не раскрывает, но схематически это работает так — три контроллера распределяют память на три фрагмента объемом в 512 МБ (общий размер этого фреймбуфера получается 1,5 ГБ), а к оставшимся 512 МБ памяти доступ осуществляется по 64-битной шине одного из контроллеров.

Таким образом, появляется возможность использовать все 2 ГБ памяти, хотя некоторые потери в производительности по сравнению с полноценным решением вполне возможны. Хотя ничто не может помешать производителям видеокарт ставить на свои варианты Geforce GTX 660 по 3 ГБ GDDR5 памяти — такие варианты вполне возможны. Рабочая частота GDDR5-видеопамяти в новой модели идентична значению частоты, на которой она работает во всех топовых платах компании — (1502)6008 МГц.

Совершенно неудивительно, что Geforce GTX 660 поддерживает такую технологию, как GPU Boost. Это комбинация программно-аппаратных решений, позволяющая автоматически увеличивать рабочие частоты GPU, в зависимости от его энергопотребления для достижения максимальной производительности. Мы уже подробнейшим образом рассматривали работу GPU Boost — технология обеспечивает работу на максимально возможных частотах в рамках выбранного теплопакета и работает независимо от драйверов или иного ПО.

Базовая частота GK106 в составе Geforce GTX 660 равна 980 МГц — это минимальная и гарантированная частота для работы 3D-приложений, даже с учетом специализированных стресс-тестов, нагружающих систему питания видеокарт настолько, насколько это возможно. Среди характеристик последних видеокарт Nvidia есть и «турбо-частота» (Boost Clock) — это средняя частота, на которой GPU работает в реальных 3D-приложениях и играх, требующих меньшей энергии. Средняя турбо-частота для Geforce GTX 660 равна 1033 МГц, что на 5% выше базовой — это лишь типичный прирост, получаемый пользователем, но зачастую GPU работает и на более высокой частоте.

Производительность

Переходим к вопросу производительности представленной модели Geforce GTX 660. В теоретической части мы приводим лишь данные самой Nvidia, и по сравнению с теми конкурентами, которых они сами себе назначили. Посмотрим сначала на производительность новинки в паре свежих игр, в одной из которых применяется GPU PhysX. В будущей игре Borderlands 2 при максимальных настройках с включенными физическими эффектами и в разрешении 1920×1080, новая видеокарта оказывается более чем в пять раз быстрее старой Geforce 9800 GT:

Читайте так же:  Срок действия справки форма 7

Сравнение с Geforce GTX 460 уже не такое радужное, но это видеокарта не такого уж давнего прошлого, а 64% прироста все-таки имеются. Несколько меньшая разница наблюдается и в игре Guild Wars 2 (это все также данные самой Nvidia):

Предполагаем, что и в других играх результаты Geforce GTX 660 будут достаточно сильными, особенно относительно старых Geforce 8800 GT пятилетней давности. По сравнению со старыми видеоплатами Nvidia из этого ценового сегмента, новинка компании показывает значительное превосходство. По тестам компании, преимущество над видеокартами схожей цены из поколения Geforce 8800/9800 в среднем составляет 3-5 раз, а не такую уж давнюю GTX 460 новинка опережает примерно в 1,6-1,8 раза, что тоже неплохо.

Понятно, что по сравнению с GPU предыдущих поколений, Geforce GTX 660 обеспечивает приличный прирост скорости в условиях современных игр. Благодаря применению чипа GK106 архитектуры Kepler, имеющего высокие частоты, производительность 3D-рендеринга заметно возросла. Переходим к сравнению в широком наборе игр, где Nvidia приводит следующие цифры в виде диаграммы, сравнивая новинку с такими ранними DX11-совместимыми решениями как Geforce GTX 460 и GTX 560:

На диаграмме указан относительный прирост частоты кадров на системе с Geforce GTX 660, по сравнению со старыми платами. И новая модель оказывается примерно на 60% быстрее, чем Geforce GTX 460, и на треть производительнее модели GTX 560. Но для нас интереснее сравнение с конкурентом, и тут Nvidia сравнивает свою новую плату исключительно с Radeon HD 7850, которая является одним из конкурентов новинки по цене:

В среднем, по тестам компании, Geforce GTX 660 оказывается на 16% быстрее, чем ее ближайший соперник из стана AMD. Иногда разница больше, иногда меньше, мы обязательно проверим это в следующих частях материала. Интересно, что Nvidia, кроме привычных уже выгодных отличий своих решений в виде PhysX, Adaptive VSync и TXAA, отдельно отмечает еще одно преимущество Geforce GTX 660 перед Radeon HD 7850 — все платы с чипом калифорнийской компании будут иметь 2 ГБ видеопамяти, а самые дешевые платы AMD Radeon HD 7850 поставляются лишь с 1 ГБ локальной памяти. Вполне естественно, что при игре в современные игры с максимальными настройками и в высоких разрешениях это может привести к нехватке памяти у платы Radeon, что выльется в падение частоты кадров ниже комфортного уровня.

А вот Geforce GTX 660 лучше подходит для игр в высоких разрешениях, вроде получившего широкое распространение разрешения 1920×1080. Ведь давно настали времена разрешения Full HD, которое пять лет назад было совсем не так широко распространено, в отличие от вариантов вроде 1280×1024, являющихся тогда наиболее массовыми. Судя по статистике все того же Steam, разрешение 1920×1080 стало доминирующим, и популярность его продолжает расти. Близко к нему еще одно разрешение — 1920×1200. Эти два варианта использует около 60% игроков, имеющих видеокарты семейства Geforce GTX 560:

Лишь 2% обладателей Geforce GTX 560 играют на более высоких разрешениях, такие пользователи чаще всего приобретают и видеокарты более высокого класса, вроде Geforce GTX 670 или GTX 680. А Geforce GTX 660 отлично подходит для своей целевой аудитории — тех, кто предпочитает решения среднего уровня как из видеокарт, так и из устройств отображения. И в выбранных Nvidia играх и условиях, новое решение оказалось быстрее как одного из конкурентов, так и собственных видеокарт прошлых поколений. Что касается современных решений, то мы обязательно проверим данные о сравнительной производительности в практической части.

Печатная плата Geforce GTX 660 весьма короткая и для нее возможно применение сравнительно компактных кулеров. PCB эталонного дизайна заметно упрощена по сравнению с топовыми решениями, в том числе из-за других требований по питанию. Длина эталонной платы Geforce GTX 660 составляет 24 см, для дополнительного питания используется лишь один 6-контактный разъем питания.

Выше мы писали о том, что GPU Boost обеспечивает высокую тактовую частоту графического процессора. И типичная частота GK106 в играх в номинальном режиме составляет 1033 МГц, но это не максимальное значение. Во многих случаях видеочип платы Geforce GTX 660 будет работать на еще большей частоте, чем 1033 МГц. И для рассматриваемой видеокарты вполне типичны частоты порядка 1084 МГц и даже выше.

Это вполне объяснимо, так как Geforce GTX 660 при типичной игровой нагрузке потребляет лишь 115 Вт энергии. Такое значение достигается при установке настройки «power target» на 100% (значение по умолчанию). При разгоне же Geforce GTX 660 потребуется поднять это значение. К примеру, при значении +110% плата будет потреблять уже до 127 Вт в тех же самых условиях. Несмотря на довольно высокую тактовую частоту GPU, представленная модель вполне может обеспечить любителям разгона неплохие возможности по дальнейшему поднятию частот.

Как часто получается в последнее время у Nvidia, сразу после анонса в продаже у партнеров компании появятся фабрично разогнанные варианты Geforce GTX 660, так как они получили возможность разработать платы собственного дизайна и продавать их с начала продаж. Различные модели Geforce GTX 660 могут иметь оригинальный дизайн печатных плат, систем питания и охлаждения, а также повышенные тактовые частоты. Подобные решения появятся у многих партнеров Nvidia, вот лишь малая их часть:



Вероятно, некоторые из указанных моделей имеют усиленные системы питания, с увеличенным числом фаз и т. п. То же самое касается и систем охлаждения — как видите на фото, многие из разогнанных вариантов Geforce GTX 660 довольно компактны и имеют эффективные кулеры с увеличенным количеством вентиляторов большого диаметра, что позволяет улучшить эффективность охлаждения.

В остальном, Geforce GTX 660 похожа на предыдущие модели видеокарт Nvidia. Для вывода изображения на референсной плате имеется два выхода Dual Link DVI и по одному полноразмерному HDMI и DisplayPort, как и в старших модификациях линейки. Такое решение позволяет вывести стереоизображение сразу на несколько мониторов при помощи технологии 3D Vision Surround, что ранее было доступно лишь в SLI-конфигурации.

Новая модель поддерживает и все остальные технологии компании Nvidia, в том числе Adaptive VSync и PhysX. Обо всех этих технологиях мы уже писали в базовом обзоре Geforce GTX 680 — первой видеокарты семейства Kepler, но сейчас мы покажем, что дает пользователю адаптивная вертикальная синхронизация (Adaptive VSync). Эта технология значительно улучшает плавность вывода движущейся картинки на экран — при частоте кадров выше 60 FPS работает обычная вертикальная синхронизация, но когда FPS падает ниже отметки 60, то адаптивная вертикальная синхронизация временно отключает VSync, позволяя частоте кадров достигнуть своего обычного значения, а не «уполовиненного» синхронизацией. Результат хорошо видно в следующем видеоролике:

Подведем краткий итог. Имея в своей основе графический процессор GK106 на основе архитектуры Kepler, новая модель Geforce GTX 660 предлагает все современные возможности в виде DirectX 11, PhysX, TXAA, адаптивного VSync и других технологий, а также уровень производительности, который немногим уступает старшей модели GTX 660 Ti на базе урезанного GK104. При этом новая видеоплата предлагается по более привлекательной цене и может стать одной из наиболее массовых видеокарт на рынке ПК. Владельцы устаревших игровых систем, имеющих DirectX 10-совместимое аппаратное обеспечение, получили еще один шанс приобрести отличную видеокарту с серьезным приростом производительности за сравнительно небольшие деньги.

На этом теоретическая часть сегодняшнего материала закончена. Следующая часть статьи посвящена практической части исследования в синтетических тестах, в которой мы сравним производительность новой видеокарты Geforce GTX 660 со скоростью других решений компании Nvidia, а также конкурирующих видеокарт компании AMD.

Nvidia Geforce GTX 660 — Часть 2: видеоплаты и синтетические тесты →

GeForce GTX 660

GeForce GTX 660

Оружие, которое выбирают геймеры.

Видеокарта GeForce GTX 660 сочетает мощность, производительность и доступность цены. GPU Boost динамически ускоряет тактовую частоту процессора для дополнительной производительности. Новые режимы сглаживания устраняют неровности изображения без ущерба для частоты смены кадров, а технология NVIDIA Surround позволяет играть на трех мониторах с одной видеокарты.

Архитектура Kepler

Kepler является нашей самой продвинутой архитектурой GPU. Оптимизированная для DirectX 11, архитектура Kepler не только быстрая, но и необычайно энергоэффективная.

Графика быстрее

GPU Boost динамично повышает тактовую частоту, чтобы раскрыть лучшую производительность в каждой игре.

Adaptive V-Sync плавно воспроизводит каждый кадр, чтобы минимизировать разрывы изображения, при этом доводя производительность до максимума.

Впечатления ярче

Насладись играми для ПК на трех мониторах в режиме NVIDIA Surround. Включи технологии PhysX и 3D Vision для дополнительного погружения в игру.

Архитектура GPU Kepler

Архитектура NVIDIA GPU Kepler была создана с нуля не только для максимальной производительности в последних играх с поддержкой DirectX 11,но и для оптимальной производительности на ватт. Новая структура потокового мультипроцессора в два раза эффективнее структуры мультипроцессоров предыдущего поколения, а новый геометрический движок строит треугольники в два раза быстрее. В результате – производительность мирового уровня и высокое качество изображения на элегантной и энергоэффективной видеокарте.

Читайте так же:  Построил дом почему должен платить налог

NVIDIA GPU Boost

До сегодняшнего дня GPU работали с постоянной тактовой частотой при воспроизведении 3D игр, даже если у них был потенциал для более быстрой работы. Технология GPU Boost отслеживает графическую нагрузку и увеличивает тактовую частоту, когда это возможно. В результате GPU всегда работает на пике своей производительности и обеспечивает самую возможную высокую скорость передачи кадра. Смотреть видео про GPU Boost

NVIDIA Adaptive Vertical Sync

Ничто не отвлекает так, как дрожание кадров и разрывы изображения. Первое происходит, когда частота смены кадров низкая, второе – когда она слишком высокая. Технология Adaptive V-Sync – прекрасный способ обработки кадров. При высокой частоте смены кадров V-sync включается для устранения разрывов изображения, при низкой – отключается, чтобы свести дрожание до минимума. Это позволяет не отвлекаться, поэтому ты можешь продолжить игру.

Поддержка NVIDIA 3D Vision 1

Технология NVIDIA 3D Vision Vision обеспечивает пользователям невероятно захватывающую работу со стереоскопическим 3D. Решение 3D Vision представлено комбинацией высокотехнологичных беспроводных очков и продвинутого ПО и превращает сотни игр для ПК в настоящее стереоскопическое 3D. Более того, ты можешь насладиться сногсшибательным кристально четким качеством при просмотре 3D фильмов и цифровых фотографий в 3D с 3DVisionLive.com.

NVIDIA Surround с возможностью подключения до четырех мониторов 2

Нет ничего более захватывающего, чем играть в любимую игру на трех экранах. При разрешении 5760х1080 расширенное поле обзора полностью захватывает периферическое зрение и обеспечивает самые захватывающие ощущения в гоночных и летательных симуляторах. Добавь четвертый дисплей, чтобы следить за чатом, электронной почтой или просматривать веб страницы во время игры.

Два новых режима сглаживания: FXAA и TXAA

Сглаживание выравнивает зубчатые границы изображения, но может быть очень требовательным к частоте смены кадров. FXAA – это новая технология сглаживания, которая обеспечивает прекрасные плавные линии при минимальном влиянии на производительность. Благодаря GPU на базе архитектуры Kepler ты можешь включить FXAA в сотнях играх через Панель управления NVIDIA.

Второй режим, TXAA, является внутриигровой опцией, которая объединяет MSAA, временную фильтрацию и постобработку для еще более высокой точности изображения.

Технология NVIDIA SLI 3

Используемая самыми требовательными геймерами по всему миру, технология SLI позволяет объединять до трех GeForce GTX 660, чтобы добиться сногсшибательной производительности. Благодаря опыту работы NVIDIA с быстрым и частым обновлением ПО ты получишь лучшую производительность не только в существующих играх, но и в будущих.

Технология NVIDIA PhysX

Полная поддержка технологии PhysX становится основой совершенного нового класса физических взаимодействий в играх, обеспечивая еще более динамичную и реалистичную графику при работе с видеокартами GeForce.

Видеокарта GeForce GTX 660 Ti

Внешний вид видеокарты «эталонного» дизайна GeForce GTX 670, © NVIDIA

Карта GeForce GTX 660 Ti DirectCU II TOP от ASUS, © ASUS

Карта GeForce GTX 660 Ti от MSI, © MSI

Карта GeForce GTX 660 Ti от Zotac, © Zotac

Карта GeForce GTX 660 Ti от eVGA, © eVGA

Карта GeForce GTX 660 Ti от eVGA (задняя сторона), © eVGA

Мощное однопроцессорное решение NVIDIA обеспечивает высокую производительность практически для всех современных компьютерных игр, обходя прямого конкурента в лице видеоплаты Radeon HD 7870 компании AMD (а в ряде случаев карта соревнуется и с Radeon HD 7950). Поддержка стереоизображения NVIDIA 3D Vision позволяет шагнуть на новый уровень реалистичности компьютерной графики, а поддержка NVIDIA Surround позволяет играть на нескольких мониторах с одной видеокарты.

Похожие видеокарты

Кодовое название микроархитектуры графического процессора

Шина памяти , бит

Новости про GeForce GTX 660 Ti 14

Драйверы для GeForce GTX 660 Ti 17

  • Данил Пухов 4 августа 2014 года, 19:08

Надумал видюху обновить, стоит ли эту брать (бюджет позволяет) или есть варианты получше?

    Сергей Семёнов 25 октября 2014 года, 16:13

Денис Иванов 27 апреля 2014 года, 18:01

Кирилл Волиник 8 февраля 2013 года, 14:28

Святослав Пробало 16 декабря 2012 года, 00:57

Александр Ишмятов 30 ноября 2012 года, 14:12

Андрей Князевич 21 августа 2012 года, 11:29

Обзор видеокарты NVIDIA GTX 660 Ti

Компания MSI представила новый вариант графической карты NVIDIA GTX 660 Ti, которая теперь может похвастаться заводским разгоном и модернизированной системой охлаждения. Мы проверили, насколько хорошо кулер Twin Frozr IV позволяет разгонять карту от MSI нового поколения. Мы будем сравнивать её с моделями Radeon HD 7950, разогнанной Radeon HD 7870 и GeForce GTX 670.

Корпорация Microstar International (MSI) — известный производитель компьютерного железа, основанная в 1986 году в Тайвани. Первоначально занимающаяся разработкой и производством материнских плат для настольных ПК, компания MSI расширила сферу бизнеса до производства Barebone –систем, серверов и рабочих станций, устройств передачи данных, потребительской электроники, ноутбуков, нетбуков, графических карт и других видов электронной продукции. Девиз компании — «качественный товар рождает верных клиентов», — лежит в основе корпоративной стратегии в разработке и создании качественных устройств для различных сегментов рынка электроники. Репутация мирового производителя позволяет MSI завоевать доверие и уважение покупателей по всему миру.

Сегодня в нашем тесте мы рассмотрим действующий флагман MSI серии MSI GTX 660 Ti — новейшую видеокарту MSI GeForce GTX 660 Ti Power Edition (N660Ti PE 2GD5/OC)

NVIDIA GeForce GTX 660 Ti

Nvidia представила свою новую GeForce GTX 660 Ti под кодовым названием «Kepler» 16 августа 2012 года. Архитектура Kepler, реализованная в виде чипа «GK104» сильно похожа на своего предшественника Fermi. GeForce GTX 660 Ti имеет 7 SMX кластеров, которые также содержат 192 ядра CUDA. Данный графический процессор создан по 28нм технологии.

NVIDIA GeForce GTX 660 Ti включает в себя 3.54 миллиарда транзисторов в 1344 ядрах CUDA, с тактовой частотой по умолчанию 915Мгц. NVIDIA GeForce GTX 660 Ti также имеет ускоренные частоты, которые будут гарантировать частоту по меньшей мере 980Мгц в требовательных к графике приложениях. В общей сложности видеочип содержит 8 кластеров универсальных процессоров, 112 текстурных процессора и 24 блока растровых операций.

Эта видеокарта также использует новый полиморфный движок (PolyMorph 2.0 Engine), в отношении которого NVIDIA заявляет о 4-кратном приросте производительности в тесселяции по сравнению с Radeon HD 7970.

GeForce GTX 660 Ti оснащается 2Гб видеопамяти стандарта GDDR5 в паре с 192 –битной шиной памяти. Память тактуется с частотой 1502MHz (6 ГГц с учётом стандарта памяти GDDR5) и обеспечивает максимальную ширину полосы пропускания в 144.2Гб в секунду. Типичная потребляемая мощность под нагрузкой составляет 170Ватт, а улучшенная диагностика обеспечит более высокую эффективность и снижение общего энергопотребления. Стандартная GeForce GTX 660 Ti требует лишь два 6 –pin PCI-E коннектора. При этом карта может поддерживать работу до 4 дисплеев одновременно, используя для этого один Dual Link DVI-I разъем, один Dual Link DVI-D коннектор, один разъем HDMI и выход DisplayPort.

MSI GTX 660 Ti PE

Видеокарта MSI GTX 660 Ti PE буквально напичкана всевозможными разработками компании MSI. Они, в частности, представлены системой охлаждения Twin Frozr IV, которая вновь и вновь проявляет себя как одна из самых эффективных на рынке. Видеокарта MSI GTX 660 Ti PE также поступает с заводским разгоном, с тактовой частотой ядра в 1020Мгц и 1098Мгц в режиме Boost, и 2Гб видеопамяти с базовой частотой на уровне 1502Мгц (6Гбс, учитывая тип памяти — GDDR5).

Система охлаждения Twin Frozr включает в себя несколько частей. Это 5 никелированных медных тепловых трубок, которые обеспечивают лучшее рассеивание тепла. Эти тепловые трубки непосредственно соприкасаются с поверхностью чипа и растягиваются вдоль радиатора, что несколько увеличивает длину видеокарты.

Радиатор оснащен маленькими ребрами, что обеспечивает большую площадь поверхности для лучшего рассеивания тепла. Нагретый воздух разгоняют два 10см вентилятора, управляемых методом широтно–импульсной модуляции. Пара 10см PWM-вентиляторов обеспечивают на 40% более сильный воздушный поток, чем два 9см вентилятора, и позволяют видеопроцессору, памяти и схеме питания оставаться холодными.

Новая система охлаждения также используют обновленную структуру лопастей крыльчатки, которая позволяет создать на 20% более сильный поток воздуха, чем традиционные вентиляторы.

Система охлаждения Twin Frozr также оснащена технологией защиты от пыли. Когда вы включаете компьютер с установленной видеокартой MSI GTX 660 Ti PE, вентиляторы с максимальной скоростью начинают вращаться в обратном направлении. Это помогает избавиться от пыли, скопившейся на радиаторных пластинах и лопастях вентилятора. Такая функция не только гарантирует оптимальное охлаждение, но также увеличивает ресурс видеокарты. Помимо этого, видеоадаптер снабжен радиаторными пластинами на обратной стороне, которые помогают рассеивать тепло и защищают компоненты, установленные на оборотной стороне карты.

MSI GeForce GTX 660Ti PE можно приобрести в Компьютерном супермаркете НИКС с гарантией 30 месяцев.