Максимальная температура видеокарты nvidia gtx 650

Максимальная температура видеокарты nvidia gtx 650

В середине осени прошлого года компания NVIDIA представила очередной графический процессор нижнего ценового диапазона, основанный на базе архитектуры Kepler. GPU получил название GeForce GTX 650 и был призван заменить бюджетные модели предыдущих поколений, начиная с GeForce GTS 450 и ниже. Основными конкурентами данного решения из стана конкурирующей компании будут графические процессоры AMD Radeon HD 7750 и AMD Radeon HD 7770.

NVIDIA GeForce GTX 650, как и GeForce GT 640, создан на основе ядра с кодовым именем GK107 и имеет всего один Graphics Processing Cluster (GPC), включающий в себя два потоковых мультипроцессора (SMX).

Согласно архитектуре Kepler, ядро GK107 состоит из 384 потоковых вычислительных процессоров, участвующих в расчётах с плавающей запятой, 32 текстурных и 16 растровых блоков. Подсистема памяти представлена 128-битной шиной, состоящей из двух независимых контроллеров шириной по 64 бита каждый. Объём видеопамяти типа GDDR5, которая функционирует на эффективной частоте в 5000 МГц, может быть 1 или 2 ГБ. Теоретически пропускная способность достигает при этом 80 ГБ/с, что вполне достаточно для бюджетной модели.

Чип GK107 не поддерживает технологию GPU Boost, автоматически увеличивающую частоты GPU в зависимости от энергопотребления. Специалистами NVIDIA была установлена фиксированная номинальная частота ядра, составляющая 1058 МГц. Таблица наглядно показывает основные параметры GeForce GTX 650 в сравнении с рядом других графических процессоров.

GeForce GTX 650 Ti

GeForce GTX 650

GK107

Технологический процесс, нм

28

Количество потоковых процессоров

384

Количество блоков растровых операции (ROP)

16

Количество блоков текстурирования (TMU)

32

Разрядность шины памяти, бит

128

Частота ядра, МГц

1058

Частота памяти (тип), МГц

1250 (GDDR5)

12

Помимо настольных решений ядро NVIDIA GK107 широко используется в мобильных устройствах, поэтому величина потребляемой электроэнергии крайне мала и составляет в простое около 5 Вт. При нагрузке энергопотребление вырастает до 64 Вт. Однако, для увеличения стабильности системы на «референсной» плате NVIDIA был оставлен один дополнительный разъём питания.

Графический процессор NVIDIA GeForce GTX 650 поддерживает такие технологии как Adaptive VSync, DirectX 11 (включая Shader Model 5.0), TXAA, PhysX. Присутствует встроенная поддержка шины PCI Express 3.0, двух портов Dual Link DVI, HDMI 1.4a, DisplayPort 1.2.

Рассматриваемый графический адаптер GIGABYTE GV-N650OC-1GI относится к серии HD Experience. Видеокарта создана на базе процессора GeForce GTX 650 с увеличенной частотой работы ядра с 1058 до 1110 МГц. Также инженерами тайваньской компании была разработана собственная система охлаждения с огромным вентилятором в основе. Важнейшие технические характеристики можно увидеть в представленной спецификации.

GeForce GTX 650

Количество шейдерных процессоров

Количество текстурных процессоров

Число блоков растровых операций

Частота работы ядра, МГц

Объем (тип) памяти, МБ

Частота работы памяти реальная (эффективная), МГц

Ширина шины обмена с памятью, бит

PCI Express 3.0 16х

2х DVI-D
1х HDMI
1х D-Sub

DirectX 11
OpenGL 4.2

NVIDIA PhysX, CUDA, DirectCompute 11, Open CL 1.0

Минимальные требования к блоку питания, Вт

Последние драйверы можно найти на сайте производителя видеокарты

Видеокарта GIGABYTE GV-N650OC-1GI продается в небольшой картонной коробке горизонтального исполнения. Половину передней части занимает синий глаз, окаймленный чешуйчатой кожей. Данное оформление используется компанией GIGABYTE для обозначения продуктов, выполненных на основе серии ядер NVIDIA GeForce 600. Рядом с этой картинкой находится вставка с точным указанием применяемого графического процессора. Кроме этого, представлена информация о том, что видеокарта поддерживает интерфейс PCI Express 3.0, а в ее системе охлаждения используется 100-миллиметровый вентилятор.

С обратной стороны коробки на разных языках приведена краткая спецификация графического адаптера. Вставка в верхней части описывает характеристики и возможности позолоченного разъема HDMI.

Открыв упаковку можно обнаружить, что в комплекте с видеокартой GIGABYTE GV-N650OC-1GI, упакованной в антистатический пакет, идут два носителя информации: краткая инструкция по установке и диск с драйверами и программным обеспечением. В соседнем отсеке находится переходник питания 6-pin PCI-e – 2x периферийных, часто называемых Molex. Не много, но вполне ожидаемо, учитывая низкую стоимость решения.

Печатная плата видеокарты GIGABYTE GV-N650OC-1GI синего цвета и с первого взгляда не очень походит на «референс». По длине она около 146 мм, плюс система охлаждения, выступающая за пределы текстолита на 42 мм. Итого общая длина рассматриваемого графического адаптера – 188 мм. Высота текстолита вместе с системой охлаждения составляет 120 мм. С подобными габаритами видеокарта отлично уместится внутри большинства небольших корпусов.

На обратной стороне графического адаптера можно увидеть четыре микросхемы памяти.

На интерфейсной панели имеются четыре видеовыхода:

Присутствие старого интерфейса VGA, как и второго разъема DVI-D, является бесспорным преимуществом видеокарты. HDMI-разъем покрыт позолотой, что, по уверениям разработчиков, обеспечивает отличное качество передачи сигнала. Максимальные разрешения и частоты по аналоговому интерфейсу составляют 2048х1536 и 85 Гц, по цифровому (для разъемов Dual Link DVI и HDMI) – 2560х1600 и 60 Гц.

После демонтажа системы охлаждения появилась возможность взглянуть на компонентную базу графического адаптера GIGABYTE GV-N650OC-1GI. Передовая концепция Ultra Durable 2 обязывает при производстве видеокарт применять только высококачественные дроссели с ферритовыми сердечниками и особые твердотельные конденсаторы с увеличенным жизненным сроком. Тепловыделение цепей питания понижено, а разгонный потенциал увеличен.

Силовая часть платы представлена транзисторами компании Renesas Electronics K03B7 и K0393. Также отметим, что бюджетные видеокарты на базе процессоров от NVIDIA не имеют поддержки технологии SLI.

Примерно в центре платы расположен графический процессор NVIDIA GeForce GTX 650, выполненный по 28 нм технологическому процессу. Он содержит 1300 миллионов транзисторов. Площадь чипа составляет 118 кв.мм.

Дополнительное питание видеокарты GIGABYTE GV-N650OC-1GI представлено в виде одного разъема 6-pin PCI-e, расположенного в верхнем углу платы. Для такой видеокарты рекомендуется минимальная мощность блока питания в 400 Вт.

Микросхемы памяти видеокарты GIGABYTE GV-N650OC-1GI изготовлены компанией Samsung и имеют маркировку K4G10325FG-HC03 (GDDR5). Микросхемы рассчитаны на максимальную рабочую частоту 1500 (6000) МГц. Чтобы получить итоговые 1024 МБ их понадобилось восемь штук, четыре из которых расположены на обратной стороне печатной платы.

Крепление кулера выполнено с помощью четырех подпружиненных винтов с обратной стороны платы. Основой двухслотовой системы охлаждения служит алюминиевый монолитный радиатор, к которому тремя винтами крепится пластиковый кожух и 100-мм вентилятор Triangle Cool с прозрачными лопастями. Элементы стабилизатора напряжения питания и микросхемы памяти охлаждаются воздушным потоком, поступающим от вентилятора. Контакт с графическим ядром NVIDIA GeForce GTX 650 осуществляется через серебристо-серый слой термопасты. Тепловых трубок не видно. В целом, перед нами стандартная система охлаждения от GIGABYTE. Однако судить о ней будем по результатам тестов.

Читайте также:  Как увеличить значки на экране телефона

Работа системы охлаждения видеокарты GIGABYTE GV-N650OC-1GI проверялась с помощью программного пакета MSI Afterburner v2.3.0.

После длительного прогона видеокарты под максимальной нагрузкой, температура графического ядра зафиксировалась на 60 градусах, что является очень неплохим результатом. Вентилятор при этом работал в автоматическом режиме и увеличил число оборотов до 72% от максимума (2070 оборотов в минуту). Шума от 100-мм вентилятора не слышно, и это, бесспорно, отличная новость.

Следующим испытанием стало отключение автоматического режима управления оборотами вентилятора и установление их в максимально возможное значение (2400 оборотов в минуту). Температура ядра NVIDIA GeForce GTX 650 снизилась всего на 2 градуса. Неудивительно, учитывая небольшую разницу в приросте оборотов. Шум от вентилятора по-прежнему оставался едва слышимым.

Режим простоя охарактеризовался охлаждением чипа до 31 градуса. Скорость вентилятора понизилась до 1530 оборотов в минуту (48% от максимума). [MORE]

Тестирование

При тестировании использовался Стенд для тестирования Видеокарт №3

Процессор Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц
Материнская плата MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX)
Кулер Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ)
Оперативная память 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX)
Жесткие диски 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB)
Блок питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
Корпус Antec LanВoy Air Yellow (MidiTower, Transformer)
Монитор ASUS VG236H (Full HD, 1920×1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit
Операционная система Microsoft Windows 7 64-bit

Выберите с чем хотите сравнить GeForce GTX 650 1GB GDDR5 GIGABYTE OC

По результатам тестов становиться ясно, что графический процессор GeForce GTX 650 из семейства Kepler способен показать вполне приемлемый уровень производительности в современных играх. При средних и высоких настройках приложения будут комфортно запускаться вплоть до разрешения 1920х1080.

В сравнении с видеокартой на базе GeForce GTX 650 Ti, рассматриваемый продукт от GIGABYTE получилась существенно медленнее, что объясняется использованием разных чипов: GK107 для GeForce GTX 650 и более мощного GK106 для GeForce GTX 650 Ti. Зато графический процессор GeForce GTX 650 оказывается быстрее GeForce GT 640, хотя эти GPU имеют одинаковые ядра. Производительность GeForce GT 640 оказывается ниже в основном за счет использования устаревшей памяти DDR3. А если сравнивать новый графический чип с решениями компании AMD, то тут GeForce GTX 650 находится ближе всего к решениям на AMD Radeon HD 7750, которые, к слову, несколько дешевле.

Наличие же заводского разгона у GIGABYTE GV-N650OC-1GI не оказывает существенного влияния на расстановку сил, т.к. обеспечивает лишь мало заметные в среднем чуть более 3% увеличения производительности. Статус разогнанной версии больше присвоен этой карте для оправдания чуть большей стоимости.

Разгон

Для разгона видеокарты GIGABYTE GV-N650OC-1GI использовалась программная среда MSI Afterburner v2.3.0. Ручной оверклокинг позволил достичь рабочей частоты графического ядра GeForce GTX 650 в 1285 МГц. 15,8% прироста относительно номинальной частоты свидетельствует об отличном разгонном потенциале нового чипа NVIDIA. Разгон памяти составил 1365 МГц или 9,2% прироста, что несколько хуже. Как это отразилось на производительности рассматриваемого адаптера GIGABYTE GV-N650OC-1GI в различных приложениях и играх можно увидеть, проанализировав таблицу.

Разгон

Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce GTX 6xx осуществляется несколько в ином формате. Чтобы не повторяться, приведу ссылку на подробное описание всех тонкостей из обзора NVIDIA GeForce GTX Titan.

Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.

Общий план работы карты.

реклама

Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.

Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.

реклама

Для определения максимального штатного TDP достаточно провести тест. Здесь понадобятся знания и школьный курс математики. Берем официальные данные TDP, скажем, 140 Вт. Вставляем видеокарту и запускаем любую игру. Щипцы амперметра покажут нам какое-то число в Амперах. Чтобы посчитать количество Вт надо просто умножить напряжение (лучше брать результат непосредственно с кабеля питания видеокарты) на силу тока (А). К полученному результату прибавить 75 Вт, отдаваемых видеокарте из слота PCI-e. Для примера: 75 Вт (PCI-e)+12.2 В (кабель питания)*4.5 А=129.9 Вт.

Перейдем к синтетическим тестам энергопотребления, запустив тот же Furmark или EVGA OC Scanner, и получим другие результаты: 75 Вт (PCI-e)+12.2 В (кабель питания)*5.25 А=139.05 Вт. Особо внимательные читатели обратят внимание на одну интересную особенность. В тесте сила тока колеблется от 4.5 А до 5.25 А, и снижение происходит точно у отметки 5.25, это означает лишь одно – срабатывает защита (или, говоря иначе, достигнут предел энергопотребления). Если мы сдвинем ползунок Power Target, то скачок вниз произойдет уже на отметке 5.77 А. Таким образом, повышая граничное значение Power Target, можно увеличить запас для разгона. А посчитать предельное энергопотребление проще простого.

Потенциал графического ядра в зависимости от подаваемого на него напряжения.

Как видно из диаграммы, у тестируемой видеокарты присутствует некоторое искусственное ограничение разгона. Номинальная частота GPU Boost в среднем оказалась выше заявленных 1033 МГц, составив целых 1058 МГц. Дальнейший разгон невозможен из-за достигнутого максимального TDP (напомню, что под разгон заложены дополнительные 10% TDP).

Читайте также:  Prestigio multiphone pap5300 duo

А управлять напряжением на видеокартах NVIDIA со штатным BIOS невозможно, поскольку технология сама автоматически в рамках TDP регулирует значения. В качестве примера покажу, что происходит с напряжением в зависимости от частоты:

  • 1071 МГц – 1.175 В;
  • 1058 МГц – 1.162 В;
  • 1045 МГц – 1.137 В;
  • 1032 МГц – 1.125 В;
  • 1019 МГц – 1.112 В;
  • 1006 МГц – 1.100 В.

Чтобы хоть как-то взять дело в свои руки, вам придется модифицировать BIOS. Существует множество способов, один из самых верных легко находится в интернете, и там же доступны уже готовые образцы для записи во флеш-микросхему видеокарты. Но после всех манипуляций вы не сможете поднять напряжение выше определенного значения, обычно оно как раз и составляет 1.175-1.212 В и 150% лимит разгона.

С другой стороны, память разгоняется просто отлично – с 1500 МГц до 1700 МГц. Увы, дальнейший ее разгон сказывается на максимальных частотах GPU, ведь общий лимит TDP распространяется и на графический процессор, и на память одновременно.

Температура графического ядра в зависимости от разгона.

Температура графического ядра напрямую зависит от нескольких условий. Во-первых, большую роль играет эффективность системы охлаждения и ее настройки. Во-вторых, не менее важно напряжение Vgpu.

Простая, но эффективная конструкция не позволяет прогреться GPU выше 74-75°C, а вентилятор при этом усердно дует со скоростью 1800 об/мин, что несколько выше ожидаемых мною цифр.

Температура VRM в зависимости от частоты GPU.

реклама

Важная составляющая любой видеокарты – силовая часть. Если не следить за ее температурой, то срок службы ускорителя сильно сокращается. Максимальные температуры зависят от многих факторов, в числе которых: эффективность и скорость вентиляторов, расчетная максимальная температура мосфетов. И чем качественнее сделана силовая часть, тем большие температуры без ухудшения КПД она сможет выдержать.

В случае GeForce GTX 650 Ti Boost четыре фазы расположены в непосредственной близости от вентилятора и полностью обдуваются воздухом. Поэтому и температура их находится далеко от критической отметки.

Обороты вентилятора/ов в зависимости от частоты графического ядра.

реклама

Энергопотребление в зависимости от разгона.

Несложно заметить, что максимальное энергопотребление GeForce GTX 650 Ti Boost ограничено на отметке

163 Вт. Это практически потолок TDP карт. И этим числом ограничен разгон с учетом должного охлаждения. Даже при самых тщательных расчетах и с применением токовых клещей у меня никак не получилось меньше 153 Вт в пиковых режимах. С другой стороны, прекрасно понятно, что без точных измерительных устройств измерить энергопотребление видеокарты невозможно, но для сравнительного анализа это лучше, чем указывать энергопотребление всей системы.

Результаты разгона

реклама

Частота GPU, ГГц 1.060 1.075 1.100 1.125 1.150
Power Target 100 100 100 106 110
Temp Target
GPU Clock offset 15 50 65 65
Напряжение, мультиметр, В 1.275 1.275 1.275 1.275 1.280
Температура GPU, °C 74 74 74 74 75
Температура VRM, °C 57 57 57 57 58
Обороты вентилятора (max), об/мин 1800 1800 1800 1800 1800
Максимальное энергопотребление, Вт 158 158 158 162 163

GeForce Experience

Это инструмент для обыкновенных пользователей, у которых нет желания разбираться в настройках игр и скорости своей же видеокарты. По замыслу разработчиков, данная утилита самостоятельно определит и найдет игры (в рамках поддерживаемых игр, полный список программ доступен на странице NVIDIA), а потом предложит вам оптимальные настройки в зависимости от мощности видеоподсистемы, CPU и разрешения монитора. Но это все в теории. На практике v1.1 не лишена некоторых недоработок.

Во-первых, программа по умолчанию не воспринимает пути к иным дискам кроме «С». При необходимости другой диск придется добавлять вручную.

реклама

Во-вторых, не для всех игр предусмотрено прямое сравнение установленных пользователем настроек с предлагаемыми «оптимальными». Или, как минимум, программа посоветует вам запустить игру.

Но и после загрузки игры из-под оболочки GeForce Experience настройки так и не определились

Как определяются оптимальные настройки?

  • Эксперты NVIDIA вручную тестируют игры на предмет тяжести игры в определенных местах, составляют общую схему производительности.
  • Определяют наиболее сложные сцены.
  • Назначают комфортный порог играбельности – в среднем это 40-60 кадров в секунду (в зависимости от типа игры: для стратегий

40, для шутеров >60).

  • Проверяют, как воздействуют игровые настройки на качество картинки и производительность. Каждой настройке присваивается определенный коэффициент.
  • Далее суперкомпьютер определяет оптимальное сочетание графических настроек с учетом заданного fps (40-60 к/с) и лучшего качества картинки.
  • Для каждой игры проверяется масса конфигураций ГП + ЦП + разрешение дисплея и составляются таблицы с оптимальными настройками. Конечная цель GFE – обеспечить максимальное качество картинки при заданном fps на конкретной конфигурации.
  • реклама

    Не зря NVIDIA подписывает данную версию «1.1 бетой», как можно заметить, процесс идет, работа кипит. Безусловно, утилита станет полезной для миллионов обычных пользователей, а энтузиасты, как всегда, будут рассчитывать только на свои силы и опыт .

    Подведение итогов

    По дизайну печатной платы.

    Недочеты:

    • Общее ограничение максимального TDP (характерно для всех ускорителей серии GeForce GTX 6xx);

    реклама

    По системе охлаждения.

    Недочеты:

    • Высокий уровень шума в 2D/3D;

    Приятные мелочи:

    • Низкая температура GPU и VRM.

    реклама

    Приятные мелочи:

    • Низкие температуры при разгоне.

    Недочеты:

    • Шум и ограничение максимального TDP.

    Заключение

    Выпуская референсную видеокарту, в компании NVIDIA преследуют одну важную цель – обкатать дизайн печатной платы и предложить его партнерам. Следить за системой охлаждения, а точнее за уровнем шума, дело вторичное. Конечно, он не будет похож на звуки, издаваемые самолетом при взлете, но и желать бесшумности не стоит. В то же время система питания не перегревается, температура графического процессора не переходит планки 74-75°C, а на фоне эталонных моделей GeForce GTX 660 Ti/GTX 670/GTX 680 как раз GTX 650 Ti Boost стала самой тихой в арсенале NVIDIA.

    Но есть одна претензия. Это явное ограничение максимального TDP и, как следствие, низкий уровень разгона. 10% это

    Читайте также:  Материнская плата asus p6t deluxe v2

    17-20 Вт, которые на деле превращаются в 5 Вт запаса! На первый взгляд, ничтожная цифра, за которой скрывается небольшая хитрость. Производительность разогнанной GeForce GTX 650 Ti Boost вплотную приближается к старшей модели GTX 660, а конкуренция с более дорогой картой недопустима.

    Выражаем благодарность за помощь в подготовке материала:

    • Компании NVIDIA за предоставленную на тестирование видеокарту GeForce GTX 650 Ti Boost;
    • Компании MSI за комплектацию стенда.
    • А также лично donnerjack.

    Страница 24: Заключение

    Между видеокартами GeForce GTX 650 и GeForce GTX 660 (Ti) до сих пор существовала довольно крупная брешь — и по производительности, и по цене. И новинка NVIDIA GeForce GTX 650 Ti как раз призвана закрыть эту брешь. Новая видеокарта NVIDIA по производительности располагается между двумя упомянутыми моделями, хотя чуть ближе к GeForce GTX 660 (Ti), а не к "младшей" версии. По сути, у NVIDIA GeForce GTX 650 Ti есть намного больше общего с видеокартами GeForce GTX 660 (Ti), чем с GeForce GTX 650. Новинка использует тот же самый GPU GK106, который применяется в двух видеокартах GeForce GTX 660. Но в распоряжении пользователей осталось только четыре кластера SMX, которые в общей сложности обеспечивают 768 потоковых процессоров, объём памяти GDDR5 составляет 1024 Мбайт, она подключена по 128-битной шине.

    NVIDIA позиционирует новую видеокарту "Kepler" против Radeon HD 7770. В наших тестах новинка отлично состязалась с конкурентом AMD, часто выходя вперёд. Иногда GeForce GTX 650 Ti опасно приближалась к Radeon HD 7850, в частности это верно для двух моделей с заводским разгоном. Он позволил ASUS GeForce GTX 650 Ti DirectCU II TOP на несколько процентов обойти эталонную модель, а видеокарта EVGA GeForce GTX 650 Ti SSC оказалась ещё чуть быстрее. Впрочем, у последней ещё и памяти в два раза больше, так что она лучше показывает себя на высоких разрешениях по сравнению с эталонной моделью и видеокартой ASUS. Особенно выигрыш от дополнительной памяти заметен в игре The Elder Scrolls V Skyrim.

    Даже по максимальному энергопотреблению новая видеокарта ближе к семейству GeForce GTX 660 — по крайней мере, если верить информации, предоставленной NVIDIA. Калифорнийский производитель GPU указывает уровень до 110 Вт. Видеокарта GeForce GTX 650 потребляет всего 64 Вт, для GeForce GTX 660 заявлено 140 Вт. Впрочем, на практике система с GeForce GTX 650 Ti при полной нагрузке потребляла до 251,3 Вт энергии, а две упомянутых модели — 243,9 и 288,6 Вт. В обычном 2D-режиме энергопотребление системы составило 103,9 Вт.

    Уровень шума видеокарт GeForce GTX 650 Ti оказался довольно низким. Под полной нагрузкой мы получили уровень шума до 48,4 дБ(А), что приемлемо. Видеокарта ASUS GeForce GTX 650 Ti DirectCU II TOP, несмотря на заводской разгон, оказалась заметно тише, с уровнем шума до 46,9 дБ(А).

    В целом, система охлаждения NVIDIA GeForce GTX 650 Ti отличается от ранее применявшихся кулеров с радиальным вентилятором на более быстрых видеокартах, начиная с GeForce GTX 600. У новинки мы получили осевой вентилятор, который работает с приемлемым уровнем шума. Охлаждение он обеспечивает достаточное. Кулер с 80-мм вентилятором эталонной видеокарты обеспечивал температуры до 33 или 62 °C в режиме бездействия и под нагрузкой. Две другие видеокарты показали результаты до 67 °C (ASUS) и 58 °C (EVGA) под нагрузкой.

    Фанаты NVIDIA и сторонники максимальной производительности по минимальной цене будут встречать GeForce GTX 650 Ti с распростёртыми объятиями. NVIDIA планирует продавать видеокарту в Европе по цене около 145 евро или 5 тыс. рублей в России. Цена приятная, но сегодня ненамного дороже вы можете приобрести 1-Гбайт видеокарту Radeon HD 7850 — от 5,8 тыс. рублей в России, а работает она всё же чуть быстрее. Если вам требуется тихая видеокарта, то обратите внимание на ASUS GeForce GTX 650 Ti DirectCU II TOP, которая предлагает заводской разгон, немного увеличивающий её производительность. Если вы готовы смириться с чуть более высокими температурами и уровнем шума, но сможете выиграть от удвоенного объёма памяти в играх на высоком разрешении, то EVGA GeForce GTX 650 Ti SSC станет тоже весьма достойным вариантом. Видеокарта EVGA стоит в Европе около 165 евро. Чуть дешевле обойдётся версия с 1024 Мбайт памяти, в комплект поставки с которой также входит игра Assassin’s Creed III.

    Тестируемые видеокарты GeForce GTX 650 Ti
    Модель NVIDIA GeForce GTX 650 Ti ASUS GeForce GTX 650 Ti DirectCU II TOP EVGA GeForce GTX 650 Ti SSC
    Розничная цена около 115 евро в Европе от 6,3 тыс. рублей в России
    Сайт производителя NVIDIA NVIDIA NVIDIA
    Технические спецификации
    GPU GK106 (GK106-220-A1) GK106 (GK106-220-A1) GK106 (GK106-220-A1)
    Техпроцесс 28 нм 28 нм 28 нм
    Число транзисторов 2,54 млрд. 2,54 млрд. 2,54 млрд.
    Тактовая частота GPU 925 МГц 1033 МГц 1076 МГц
    Частота памяти 1350 МГц 1350 МГц 1350 МГц
    Тип памяти GDDR5 GDDR5 GDDR5
    Объём памяти 1024 Мбайт 1024 Мбайт 2048 Мбайт
    Ширина шины памяти 128 бит 128 бит 128 бит
    Пропускная способность памяти 86,4 Гбайт/с 86,4 Гбайт/с 86,4 Гбайт/с
    Версия DirectX 11.1 11.1 11.1
    Потоковые процессоры 768 (1D) 768 (1D) 768 (1D)
    Текстурные блоки 64 64 64
    ROPs 16 16 16
    Пиксельная скорость заполнения 14,8 Гпиксель/с 16,5 Гпиксель/с 17,2 Гпиксель/с
    SLI/CrossFire SLI SLI
    Уровень шума
    В режиме бездействия 37,3 дБ(A) 33,9 дБ(A) 38,3 дБ(A)
    Под нагрузкой 48,4 дБ(A) 46,9 дБ(A) 49,1 дБ(A)
    Энергопотребление
    В режиме бездействия 103,9 Вт 104,7 Вт 103,5 Вт
    Под нагрузкой 251,3 Вт 255,0 Вт 259,7 Вт
    Температура
    В режиме бездействия 33 °C 31 °C 33 °C
    Под нагрузкой 62 °C 58 °C 67 °C

    Преимущества NVIDIA GeForce GTX 650 Ti:

    • Достаточно производительная для последних игр
    • Хорошая эффективность охлаждения

    Недостатки NVIDIA GeForce GTX 650 Ti:

    • Доплатив немного, можно приобрести более производительные видеокарты
    Ссылка на основную публикацию
    Люстра с пультом управления светодиодная инструкция
    Идея установить и подключить люстру с пультом замечательна тем, что хозяева квартиры получают возможность управлять освещением, не привязываясь к выключателю....
    Линза для лазерного диода
    Асферические линзы используются для коррекции сферических аберраций. Вместо применения сложных линз такие аберрации могут быть снижены до минимума при использовании...
    Линукс для нетбука acer aspire one
    Автор — Андрес Брачо (Andrés Bracho) Я не технарь, не компьютерщик и не программист. Я всего лишь среднестатис-тический пользователь, кото-рый...
    Ля рош позе скидки
    12 актуальных предложений март 2020 Сэкономьте 10% с промокодом при покупке более 3000 рублей Приобретите в интернет-магазине La Roche Posay...
    Adblock detector