Ремонт gtx 660 gigabyte

Gigabyte GeForce GTX 660 2GB GDDR5 (GV-N660OC-2GD)

10 лет на сайте
пользователь #392220

Кому в лапы попадется — отпишитесь. Тишина работы, производительность, особенности — интересно все.

13 лет на сайте
пользователь #101566

Интересно было бы ее погонять, при нагреве и потреблении GK106 с такой охладкой с нее сосульки должны свисать через полчаса пользования
Но за эти деньги совсем не интересно, ждем окончания периода снятия сливок с новинки нашей розницей.

10 лет на сайте
пользователь #392220

Да, цена пока не ее. Но знать, хотеть ли ее, нужно) Потому может кто ее полапает и отпишется, нам они пока не приходили, а интерес есть.

10 лет на сайте
пользователь #355384

По 250 пойдет как горячие пирожки, а за эту цену купят единицы, прибыли никакой, где логика?

10 лет на сайте
пользователь #392220

Логика в том — что всегда есть энтузиасты готовые переплачивать, чтобы быть первыми владельцами. Потом цена уже регулируется для массового рынка.

10 лет на сайте
пользователь #355384

romularis, Что ж пускай развлекаются)
MSI будет еще дороже, я так понимаю?
НЕ могу дождаться, на WoT вышла обнова 0.8.0 а у меня FPS выше 40 не поднимается(

13 лет на сайте
пользователь #101566

Я Palit GTX660 взял и в ус не дую, отличная версия вышла, цена для первой партии была весьма адекватная

И видать та партия моментом разошлась, нынешняя цена на обычную версию выше чем на Palit 660OC

10 лет на сайте
пользователь #355384

bilet, Вы батенька уже миллион карт юзали, вам эстетика уже не важна, а вот нам)) обычным медвежеуглянским парням красоту подавай. Палит какой-то убогий, невзрачный, одно-пропеллерный, пластиковый хлам, то ли дело эМэСАй или ГиГа, смотришь- слеза наворачивается, в руки берешь — на душе весна)))

Источник

Ремонт gtx 660 gigabyte

Один из кулеров почти не крутится и при нагреве карты обороты на нем не растут. Со вторым все хорошо.
В чем причина, как думаете?
Можно его реанимировать, или заменить? Кто видел по этому какой-то небольшой мануал. Скиньте пожалуйста ссылку. Буду очень благодарен за информацию.

Также видео драйвер стал перезагружаться (драйвер успешно восстановлен). Где-то здесь читал что это отвал графического чипа. Я сейчас это лечу понижением частот. Но можно это отремонтировать?

Спасибо Кирилл за быстрый ответ!

Я твои слова проверил тестом. Выкрутил все кулеры в корпусе и на проце на максимум. Так чтобы охлаждения видюхи не было нужным.
В MSI Afterburner снял ограничения частоты ГП. Запустил игруху.
Температура 62 градуса
Кулер на карте 43% (хотя 43% один, второй тупит. Хотя справляется — 62 градуса)
Частота ГП 1032 MHz
Частота пам 3005 MHz
Здесь сказано что можно смело до 1098 MHz подымать. А память вопще до 6008 MHZ
https://ua.msi.com/Graphics-card/N660_Gaming_2GD5OC.h..
Подимаю ГП до 1095 MHz вылет
Подимаю пам 3600 MHz вылет
Я раньше так руками не разгонял. Но утилитами MSI гнал и все было норм.

Попробую кулер мазать. Спасибо за совет.

Но почему продолжаются вылеты? Карта не перегревается.

Андрій, 62 градуса на GPU? А графические артефакты не появлялись? Возможно отвал чипа или, так как один вентилятор не работает, возможен локальный перегрев какой-то области. Например питальника или памяти. Я могу лишь предположить. А по вентилятору: сними вентилятор, отлепи наклейку, сними стопорную шайбу и хорошенько протри старую густую смазку(как на втулке, так и на валу) потом собери в обратном порядке и капни машинного масла. Обычно такими действиями я продлеваю жизнь вентилятора еще на год, полтора.

По поводу отвала: представь ситуацию — один из вентиляторов замедляется допустим ввиду старой смазки. Воздушный поток падает и повышается температура, видюха видит что температура растет и начинает увеличивать обороты вентилятора. От этого вентилятор приходит в негодность еще быстрее. И начинается перегрев видюхи. Как результат — отвал. Отвал лечится временно. Прогревом видеокарты. Никто тебе гарантию не даст. После него видюха может проработать от пары дней до пары лет. Были у меня удачные прогревы после которых видюха работает и посей день.

Главное в духовке не прогревай, а то в интернете полно историй, что прогрел и все работает.

Источник

Видеокарты GigaByte

Найдено 81 проблем

Производитель, категория, тег

Проблемы по производителям

Проблемы по категориям

Рейтинг экспертов по видеокартам GigaByte

По моделям 44

GeForce GTX 750 TI — 2 GB

GeForce GTX 770 1137Mhz PCI-E 3.0 2048Mb 7010Mhz 256 bit 2xDVI HDMI HDCP

GeForce GTX 780 863Mhz PCI-E 3.0 3072Mb 6008Mhz 384 bit 2xDVI HDMI HDCP

GeForce GTX 1060 G1 Gaming

GeForce GTX 760 [GV-N760OC-2GD]

AMD Radeon RX 580 GAMING

GTX970 G1 Gaming

AMD Radeon R9 270

AMD Radeon R9 280X

GeForce GTX 1070 G1 Gaming

GeForce GTX 590 607Mhz PCI-E 2.0 3072Mb 3414Mhz 768 bit 3xDVI HDCP

GeForce 210 475Mhz PCI-E 2.0 1024Mb 800Mhz 128 bit DVI HDMI HDCP

GeForce GTX 660 Ti 1032Mhz PCI-E 3.0 2048Mb 6008Mhz 192 bit 2xDVI HDMI HDCP

GeForce GTX 650 1110Mhz PCI-E 3.0 2048Mb 5000Mhz 128 bit 2xDVI HDMI HDCP

GeForce GTX 680 1006Mhz PCI-E 3.0 2048Mb 6008Mhz 256 bit 2xDVI HDMI HDCP

GeForce GTX 780 1019Mhz PCI-E 3.0 3072Mb

Видюха не запускается неделю назад Видеокарты GigaByte GeForce GTX 650 1110Mhz PCI-E 3.0 2048Mb 5000Mhz 128 bit 2xDVI HDMI HDCP

Доброго времени суток! Проблема весьма интересная, есть оверклоченная видеокарта GTX 650 на 2GB от Gigabyte и есть материнка ga f2a55m-ds2. Купил.

Не работают вентиляторы на видеокарте более месяца назад Видеокарты GigaByte AMD Radeon RX 580 GAMING

Добрый день. Видеокарта Gigabyte RX580 4Gb, перестали работать вентиляторы. После чистки карты от пыли и замены термопасты не работают.

Проблемы с видеокартой geforce более месяца назад Видеокарты GigaByte GeForce GTX 1660 SUPER

Здравствуйте. Видеокарта GeForce® GTX 1660 SUPER. Вышла ошибка синего экрана, после ПК перезагрузился и цвета стали блеклые. При удалении или.

Проблемы с видеокартой признаки более месяца назад Видеокарты GigaByte GeForce GTX 670 915Mhz PCI-E 3.0 2048Mb 6008Mhz 256 bit 2xDVI HDMI HDCP

Здравствуйте. Попала в руки видеокарта gv-n670oc-2gd. Дифпары звонятся нормально, но бывший владелец затрудняется ответить что с ней не.

Перестала работать видеокарта более 3 месяцев назад Видеокарты GigaByte GeForce GTX 750 TI — 2 GB

Здравствуйте. Видеокарта GigaByte GeForce. Запустил игру — escape from tarkov. Поиграл несколько часов, но потребовалось отойти не надолго. Прихожу.

Замена чипа памяти на видеокарте более 3 месяцев назад Видеокарты GigaByte GeForce GTX 1070 WindForce OC

Здравствуйте. Видеокарта GigaByte GeForce GTX 1070 WindForce OC в mats/mods показывает ошибки на последнем чипе памяти, при его загрузке вылетают игры.

Проблемы с видеокартой на ноутбуке более 3 месяцев назад Видеокарты GigaByte

Здравствуйте, появились проблемы с работой видеокарты GV-R685OC-1GD, показывает графическую память 16 Мб, а должна 1025 Мб, что делать?

Пропала память на видеокарте более 3 месяцев назад Видеокарты GigaByte GeForce GTX 780 863Mhz PCI-E 3.0 3072Mb 6008Mhz 384 bit 2xDVI HDMI HDCP

Здравствуйте. Лет 5 работал с видеокартой GeForce GTX 780 (3 Gb видеопамяти). Вчера во время игры выкинуло. Перестала определяться.

Не включается видеокарта более 6 месяцев назад Видеокарты GigaByte GeForce GTX 760 [GV-N760OC-2GD]

Здравствуйте. Ребята электронщики, помогите, пожалуйста. Я новую видеокарту GIGABYTE, GPU, 256 бит, GDDR5, GTX 760, 2 Гб заблокировал. Просто.

Не запускается видеокарта gigabyte более 6 месяцев назад Видеокарты GigaByte GeForce GTX 1060 G1 Gaming

Здравствуйте. После замены термопасты, видеокарта GIGABYTE gtx 1060 3 gb перестала запускаться и кулеры не крутятся. При повторном вскрытии.

Не заводится на ga-990fx-gaming более года назад Видеокарты GigaByte GA-990FX-Gaming

Здравствуйте, Господа, кто знает, подскажите, почему не заводится на видеокарте GigaByte GA-990FX-Gaming бп 600, с чем это может быть связано.

Греется и шумит видеокарта более года назад Видеокарты GigaByte RTX 2070 WindForce 8G

Читайте также:  Текущий ремонт коллекторного двигателя

Добрый день! Видеокарта GigaByte GeForce RTX 2070 Windforce 2X 8G (модель GV-N2070WF2-8GD) rev.1. При запуске любой игры, температура карты поднимается до 81-го.

Артефакты видеокарты более года назад Видеокарты GigaByte GeForce GTX 750 TI — 2 GB

Здравствуйте. Проблемы с видеокартой GigaByte GeForce GTX 750 TI — 2 GB. Долго грузится система на низком разрешении экрана, при загрузке на 1400×900.

Не работает видеокарта rx 570 более года назад Видеокарты GigaByte AMD Radeon RX 570 GAMING

Здравствуйте. 1). Тест просто на обычном компе (вентиляторы крутятся, в системе не определяется). 2). Все пины платы показывают утечку.

Не работает видеокарта что делать более года назад Видеокарты GigaByte GeForce GTX 780 863Mhz PCI-E 3.0 3072Mb 6008Mhz 384 bit 2xDVI HDMI HDCP

Добрый день. При установке драйверов, вылазит черный экран и видеокарта GigaByte GeForce GTX 780 не работает. Подскажите, пожалуйста, по каким.

Не работает видеокарта GigaByte GeForce GTX 780 863Mhz более года назад Видеокарты GigaByte GeForce GTX 780 863Mhz PCI-E 3.0 3072Mb 6008Mhz 384 bit 2xDVI HDMI HDCP

Добрыый день. Во время установки драйверов, экран становится чёрным и ни чего не происходит, посоветуйте, пожалуйста, как.

Не включается видеокарта GigaByte более года назад Видеокарты GigaByte AMD Radeon RX 580 GAMING

Привет. Проблема заключается в том, что когда включаешь комп, то видеокарта пытается запустится, но не запускается и переходит на.

Проблема с видеокартой GigaByte RX580 более года назад Видеокарты GigaByte AMD Radeon RX 580 GAMING

Здравствуйте. 1903 ставится, но Винда сама накатывает старые драйвера 17,7,1 и по умолчанию вроде работает, но не совсем корректно.

Некорректно работает видеокарта GIGABYTE AMD Radeon RX 5700 более года назад Видеокарты GigaByte AMD Radeon RX 5700 GV-R57GAMING

Здравствуйте, подскажите, пожалуйста, в чём может быть проблема, перестала определятся температура фазы регулятора напряжения.

Не работает radeon rx 580 в слоте pci x16 более года назад Видеокарты GigaByte

Видеокарта GIGABYTE Radeon RX 580 4G не работает в слоте pci-x16, при подключении монитора он уходит в спящий режим. Но карта работает во втором.

Источник

Методика надежного разгона geforce gtx660 через редактирование биоса видеокарты

В этой заметке поставлено задачу раскрыть один из вариантов методики разгона видеокарт GeForce GTX660 (но ее можно применить и к другим моделям семейства Kepler) на основе редактирования и подальшей прошивки биоса видеокарт. Все подходы и этапы проверялись лично, неоднократной прошивкой биоса на КFA2 GTX660 EX OC PCI-E 2GB. Вопросы самой прошивки не входят в круг задач этой заметки.
Перед изменениями не забываем сохранить завдоскую версию биоса. Исходный файл биоса считываем при помощи GPU-Z (или берем с сайта разработчика или онлайн баз).
Для анализа биоса видеокарты используем Kepler Bios Tweaker 1.25
[ http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-600-serie-bios-files-932143.html ]. Для анализа потенциала разгона в операционной системе удобно использовать Nvidia Inspector. С этих утилит будем использовать терминологию для заметки. ASIC видеокарты считывается в GPU-Z.

Сначала немного азов. У 660-й есть ФИЗИЧЕСКИЙ лимит ограничения потребления 146 Вт, превысить который невозможно (в теории 150 Вт = 75 Вт с шины pci-e + 75Вт с 2х3 пин конектора). 39 страница сего стандарта:
http://www.pcisig.com/developers/main/training_materials/get_document?doc_id=b590ba08170074a537626a7a601aa04b52bc3fec
Лимит потребляет как GPU, так и память. Так что при разгоне чего-то одного экстремально, страдает разгон другого компонента.
Этот лимит видно как Max (mW) в правом столбце в Kepler Bios Tweaker. Увеличение его свыше 146Вт ничего не дает для прироста производительности и стабильности, проверено экспериментально. Он зашит в большинстве заводских биосов, исключение – MSI GeForce GTX 660 HAWK и Inno3D iChill HerculeZ GeForce GTX 660.

Этот предел потребления достигается на среднем ASIC (74 %) уже при 1187,5 мВ на 1202 Мгц и частоте памяти в 6600Мгц в среднем. С высшим ASIC частотный потенциал чипа выше.
Качество разгона (результаты в синтетике, провалы фпс) зависят от ровности условной линии удержания частоты/вольтажа при софтовом мониторинге (в реальной нагрузке – отсутствие микропровалов частоты буста). Важен также и мониторинг потребления, его линия также должна быть без сильних провалов (но может колебаться, в зависимости от нагрузки, то есть должна менятся синхронно с кривой нагрузки GPU). Ниже приведен пример идеально ровной линии частоты буста.

Если при ровной (однотипной) нагрузке на GPU есть провалы частоты– такой разгон – «коту под хвост».
Пример неправильной линии потребления показан ниже (бывает если прошить выше 146Вт в правом столбце, или, если выходить за физический лимит слишком высокой комбинацией вольтажа + частоты для каждого отдельного потенциала ASIC).

В левом столбце зашиты софтовые ограничители лимита потребления.

Они нужны для ручного увеличения или уменьшения лимита через драйвер в софте.
Разработчики их используют, чтоб варьировать производительность для разных моделей 660-ых. Значения в левом столбце (софтовые) не должны превышать значения в правом (физические).
Рассмотрим факторы, влияющие на производительность GPU. Она зависит от ровности удержания частоты реального буста (для избежания путаницы используем термин из Nvidia InspectorEST MAX

Для того чтобы добится увеличения EST MAX нужно сначала снять ограничения буста. Можно начать с выставления Boost Limit на 1280,5 Мгц (проверено эмпирическим путем для ASIC 74, 5%).

Буст сдвигается шагами в 13Мгц и привязан к вольтажу, который тоже повышается с шагом в 12,5мВ в соответствии с конкретными ячейками таблицы Max Table Clock. Таблица у нас на GTX660 имеет диапазон 25 ячеек (оранжевый цвет).

Важно! Чтобы получить дефолтный диапазон в 25 ячеек (нужно в Kepler Bios Tweaker сдвинуть ползунок Max Table Clock в третьей вкладке максимально влево до значения 1202,0 Мгц и нажать кнопку “Save Bios” (спасибо комраду ZETTER за подсказку).
Алгоритм буста семества кеплер работает так, что, задав соответствующий вольтаж (при снятом лимите буста), можно выйти на желаемый «реальный буст» EST MAX, который прописан в соответсвующей ячейке частот Table Clocks.
Далее следует начать подбирать вольтаж. Вольтаж задается как среднее число от комбинации вольтажей Max Voltage # 1 и Max Voltage # 2.

Для удобства воспользуемся ориентировочной таблицей (зависит от ASIC- может отклонятся на шаг в большую или меньшую сторону), за основу взята таблица комрада ZETTER
[ https://forums.overclockers.ru/viewtopic.php?p=10817825#p10817825 ]
Но рассчитана на основе моей видеокарты KFA2 GTX 660 EX OC с ASIC (74.5%).
Значения от 1137 мВ зашивались в биос на практике. Ниже 1137 шить вольтаж не было смысла.

Приметка. В таблице взят реальный диапазон нужный для разгона. Значения можно продолжить вплоть до 25 шага вниз. Нужно обратить внимание на тот факт, что после 38 ячейки и выставления вольтажа в 1,200 В идет скачек сразу к 43 ячейке (может варьироваться в зависимости от карты). Для урезания такого большого скачка есть на первой вкладке Kepler Bios Tweaker «Boost Limit». При его помощи можно урезать большой скачек, но можно и сдвинуть вниз диапазон в Max Table Clock).
Можно менять и Max Voltage # 1, тогда Real Voltage (soft monitored) тоже будет снижаться кратно 12,5мВ. Max Voltage # 1 можно изменить в онлайн редакторе
[ http://www.v3dt.com/nvidia/600/ ] или, воспользовавшись KGB — Kepler BIOS Editor/Unlocker
[ http://www.xtremesystems.org/forums/showthread.php?284014-KGB-Kepler-BIOS-Editor-Unlocker ] Можно зашить два одинаковых значения в Max Voltage # 1 и Max Voltage # 2, но это немного ухудшает стабильность, так как есть возможность при конкретном вольтаже при среднем ASIC (74%) выходить на буст на две ячейки выше сдвигом еще далее в Max Table Clock.
Пример для 1150 мВ и EST MAX 1150 Мгц

Если в примере выше сдвинуть Max Table Clock до 1306,5 Мгц, – EST MAX сдвинется до значения в той же 34 ячейке, но уже 1176 Мгц, то есть разница между вольтажем и частотой уже составит 26 единиц. Она не всегда стабильно держится, возможна ошибка «вылета» драйвера.

Для увеличения стабильности при таком сдвиге, можно добавлять (выявлено эмпирическим путем) вольтаж в стейты P00 и Р02 (low 3D), например 987,5 mV. Эти же вольтажи P00 и Р02 (low 3D) можно добавить и без прошивки в биосе, а в софте. Софтовое поднятие вольтажа работает только на этих состояниях, к сожалению, а не с Max Voltage.

Читайте также:  Как проводится ремонт грузовых вагонов

Все эти изменения касаются подбора буста и вольтажа, но следующая задача удержать этот буст без микропровалов в реальных приложениях и ровной линией в мониторинге. Здесь нужно выствить правильный лимит питания в биосе на левой вкладке Power Control.
Напомню, что на потребление видеокарты влияет и частота работы набортной памяти.
Можно выставить Def (mW) — 100%, к примеру 126500 мВт, а Мах (mW) поднять вплоть до дефолтного значения в правом столбце физического Def (mW) 143500. Выше нету смысла, так как физический лимит среднестатистической GTX660 = 146Вт. После прошивки таких значений можно в софте поднимать лимит (Msi afterburner, EVGA PrecisionX итд.), ища нужный. Но можно (как и я сделал, после долгих проверок на практике) поставить Def (mW) в 139500мВт (память 6932 Мгц).

Преимущество такого подхода в том, что карта сама возьмет нужный процент от этого лимита при определенной нагрузке.
На нагрев VRM лимит практически не влияет. Влияет комбинация вольтажа/частоты.
Разгон памяти сугубо индивидуален, но частота 6400 Мгц покоряется практически всем GK-106. Не забывайте, что высокие частоты памяти отъедают потенциал разгона чипа, так как «NVIDIA традиционно не разделяет питание MEM и PLL с помощью отдельного ШИМ-контроллера» [Дмитрий Владимирович].
Вопросы способа прошивки биоса не входят в задачи этой заметки, но сложностей с этим никаких не возникает. Флеш биоса GK-106 рассчитан на тысячи перезаписей. Сам прошил свой раз 60, экспериментируя. Никакой деградации не заметил. Но за ущереб вашим видеокартам при неправильных действиях при прошивке биоса (отключение электичества при прошивке), я ответственности не несу.

Есть еще вариант поднятия частот буста форсированием нижнего базового диапзона частоты.
Но нам он не подходит так как это значение будет и использоваться для low 3D (ускорение просмотра видео, флеш итд). Там такие высокие частоты лишние.
Спасибо комрадам zetter, Lsdmax, TwinkE, а также всем другим фанам GK-106 из ветки «Все о GeForce GTX 660/650Ti (GK106. Kepler 28nm)» за идеи и совместные эксперименты.

Источник

Gtx 660 2 gb 192 bit

Описание

NVIDIA начала продажи GeForce GTX 660 6 сентября 2012 по рекомендованной цене 229$. Это десктопная видеокарта на архитектуре Kepler и техпроцессе 28 нм, в первую очередь рассчитанная на геймеров. На ней установлено 2 Гб памяти GDDR5 на частоте 6.0 Гб/с, и вкупе с 192-bit GDDR5 интерфейсом это создает пропускную способность 144.2 Гб / s.

С точки зрения совместимости это двухслотовая карта, подключаемая по интерфейсу PCIe 3.0 x16. Длина референсной версии – 24.1 см. Для подключения требуется дополнительный 1x 6-pin кабель питания, а потребляемая мощность – 140 Вт.

Она обеспечивает слабую производительность в тестах и играх на уровне 9.57% от лидера, которым является NVIDIA GeForce GTX 1080 SLI (мобильная).

Из предыдущего обзора наши постоянные читатели знают, что 13 сентября 2012 года компания NVIDIA презентовала графические ускорители на GPU NVIDIA GeForce GTX 660, как оптимальный выбор в среднеценовом сегменте для геймеров с ограниченным бюджетом, желающих приобрести или обновить уже устаревшую видеоподсистему на более мощную. К сожалению, в нашу тестовую лабораторию ещё не попал «референсный» образец, однако в очередной раз партнёры калифорнийского гиганта порадовали нас, предоставив в короткие сроки семпл альтернативной версии ускорителя на основе графического процессора NVIDIA GeForce GTX 660.

В этом обзоре мы рассмотрим и протестируем видеокарту GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE OC (GV-N660OC-2GD), имеющую фирменную систему охлаждению, переработанный дизайн платы и заводской разгон.

GIGABYTE GV-N660OC-2GD

NVIDIA GeForce GTX 660 (GK106)

Microsoft DirectX 11, OpenGL 4.3

Поддержка фирменных технологий

GPU Boost, Adaptive V-Sync, PhysX, SLI, NVIDIA Surround, 3D Vision, CUDA

Частота ядра, МГц

1033 (1098 МГц средняя частота с учетом использования технологии GPU Boost)

Частота памяти (эффективная), МГц

Объём памяти, МБ

Шина памяти, бит

До 2560×1600 Dual-link DVI
До 2048×1536 VGA (через переходник)
До 2560×1600 DisplayPort
До 2560×1600 HDMI

1x DVI-I Dual-Link DVI

1x DVI-D Dual-Link DVI
1x DisplayPort 1.2
1 x HDMI 1.4a

Поддержка HDCP и декодирования HD-видео

Есть
Декодирование MPEG-2, MPEG-4, DivX, WMV9, VC-1 и H.264/AVC. Дополнительный блок аппаратного декодирования NVENC.

Рекомендуемая мощность блока питания, Вт

Из данных таблицы со спецификациями можно сделать вывод, что перед нами переработанная версия графического ускорителя на основе NVIDIA GeForce GTX 660. Помимо альтернативной системы охлаждения и доработанного дизайна печатной платы, видеокарта GIGABYTE GV-N660OC-2GD имеет заводской разгон графического ядра. Его частота вместо эталонных 980 МГц составляет 1033 МГц (прирост 5%), которая в турбо режиме составляет в среднем 1098 МГц вместо «эталонных» 1033 МГц. Однако эффективная частота видеопамяти стандарта GDDR5 не была повышена в фабричных условиях и составляет «эталонные» 6008 МГц. Теперь непосредственно к упаковке.

Дизайн упаковки графического адаптера GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE OC выполнен в лаконичном фирменном стиле с преобладанием черного цвета в оформлении. На лицевой стороне расположены эмблемы, информирующие о наличие 2 ГБ видеопамяти стандарта GDDR5, графическом ядре GeForce GTX 660, его заводском разгоне, а также наличие фирменной системы охлаждения WINDFORCE.

На обратной стороне коробки приведены краткие спецификации видеокарты на 9 языках (включая русский), а также расширенное описание особенностей фирменной системы охлаждения WINDFORCE и использующейся качественной элементной базы. Здесь же перечислены требования к системе, в которую планируется установка GIGABYTE GV-N660OC-2GD. Отметим, что блок питания в такой системе должен обладать мощностью не менее 450 Вт и быть способным выдавать 24 А по линии +12В.

Помимо самой видеокарты GIGABYTE GV-N660OC-2GD, в коробке мы обнаружили лишь краткую инструкцию по установке и переходник с двух 4-контактных периферийных разъёмов питания на 6-контактный разъём питания видеокарты. Так как это лишь тестовый семпл, поставляемый нам производителем для изучения, то в версии предназначенной для продажи комплектация будет расширена и будет включать ещё диска с драйверами и переходника DVI-to-VGA.

Набор портов для вывода изображения на видеокарте GIGABYTE GV-N660OC-2GD перекочевал от своих «старших» собратьев и имеет следующие разъёмы:

Для большинства пользователей такого набора интерфейсов будет вполне достаточно для повседневной эксплуатации. Приятно отметить, что разъёмы HDMI и DisplayPort имеют полноразмерное исполнение, что избавляет от необходимости использования дополнительных переходников даже при подключении нескольких дисплеев.

Дизайн печатной платы видеокарты GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE отличается от предложенного инженерами NVIDIA. Впрочем, не возникает сомнений, что за основу при разработке был взят именно «эталонный» вариант.

Система стабилизации питания на видеокарте GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE построена по 4+1-фазной схеме (для GPU и чипов памяти соответственно) с применением ШИМ-контроллера OnSemi NCP 5395G, также, в отличие от ZOTAC GeForce GTX 660 c 2 ГБ GDDR5 рассмотренной нами ранее, на каждую фазу выделяется по три полевых транзистора (MOSFET). Отметим, что при производстве видеокарты инженерами GIGABYTE применялись только качественные твердотельные конденсаторы японского производства, что должно положительно повлиять на срок службы продукта и нагрев цепей питания.

Помимо разъёма PCI-Express 3.0 дополнительное питание видеоускорителя GIGABYTE GV-N660OC-2GD обеспечивается через один 6-контактный силовой разъём, установленный на боковой стороне видеокарты.

Наличие разъёма для мостика SLI позволяет объединять две видеокарты на графическом процессоре NVIDIA GeForce GTX 660 любого производителя для совместного расчета графических эффектов и получения повышенной производительности.

Обратная сторона платы практически лишена элементов, за исключением двух танталовых конденсаторов, расположенных напротив графического ядра, четырёх чипов памяти, крепления системы охлаждения и несколько компонентов модуля VRM.

Графический чип NVIDIA GK106, произведенный с соблюдением норм 28 нм техпроцесса, является центральной частью рассматриваемой видеокарты. Он включает 960 универсальных шейдерных процессоров (или ядер CUDA по терминологии NVIDIA) и 24 блока растеризации, а обмен данными с видеопамятью осуществляется через 192-битную шину. Остальные характеристики чипа GK106 приведены на скриншоте выше.

Видеопамять стандарта GDDR5 общим объемом 2 ГБ набрана с помощью восьми чипов по 256 МБ производства компании SAMSUNG. Чипы имеют маркировку K4G20325F0-FC03 и согласно документации могут функционировать на эффективной частоте 6000 МГц.

Одной из ключевых особенностей видеокарты GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE OC является применение фирменной системы охлаждения WINDFORCE 2X, которая, по заявлению производителя, охлаждает чип NVIDIA GK106 намного эффективнее «референсной» турбиной, издавая при максимальной нагрузке не более 31 дБ шума, что мы, безусловно, проверим чуть позже.

Читайте также:  Ремонт хонда цивик еу1

Для оптимального использования всей площади алюминиевого теплообменника, конструкция радиатора охладителя включает 4 тепловые трубки с внутренним сечением 8 мм, которые расположены на оптимальном удалении друг от друга и имеют следы пайки, как у основания, так и на рёбрах радиатора, что будет способствовать лучшему теплообмену. Обдув радиатора осуществляется с помощью двух низкооборотистых вентиляторов, которые имеют диаметр крыльчатки 100 мм. Силовые элементы преобразователя питания также взаимодействуют с радиатором через специальную термопрокладку, однако, чипы памяти не контактируют с радиаторами и охлаждаются лишь воздушным потоком.

Для оценки эффективности применяемой системы охлаждения мы провели наш стандартный набор тестов с помощью утилиты MSI Kombustor. Тесты проводились в двух режимах работы кулера: автоматическое управление и максимальная скорость вращения вентиляторов.

При автоматическом регулировании скорости вращения вентиляторов, в режиме максимальной нагрузки графическое ядро нагрелось лишь до 61 градуса, а кулер, судя по показаниям мониторинга, работал при этом на 62% своей мощности, практически не издавая шума.

При максимальных оборотах вентиляторов, температура GPU снижается на 3 градуса, при этом шум от видеокарты практически не слышен, что свидетельствует о наличии большого «запаса эффективности» охладителя, которым мы обязательно воспользуемся во время ручного разгона.

При отсутствии нагрузки частоты графического ядра и памяти автоматически понижаются, что приводит к меньшему энергопотреблению и тепловыделению. Кулер в таком режиме работает почти бесшумно, а температура графического ядра не превышает отметку 32 градусов.

К сожалению, нам пока ещё не представилась возможность протестировать графический адаптер NVIDIA GeForce GTX 660 «референсного» дизайна, поэтому сравнить эффективность системы охлаждения напрямую с эталоном не получится. Однако эффективность СО WINDFORCE не вызывает сомнения, а её очень низкий уровень шума даже при максимальной нагрузке по достоинству оценят геймеры.

При тестировании использовался Стенд для тестирования Видеокарт №3

Процессор Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц
Материнская плата MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX)
Кулер Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ)
Оперативная память 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX)
Жесткие диски 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB)
Блок питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
Корпус Antec LanВoy Air Yellow (MidiTower, Transformer)
Монитор ASUS VG236H (Full HD, 1920×1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit
Операционная система Microsoft Windows 7 64-bit

Выберите с чем хотите сравнить GeForce GTX 660 2GB GDDR5 GIGABYTE OC WINDFORCE

Благодаря небольшому заводскому разгону, по итогам тестирования, видеокарта GIGABYTE GV-N660OC-2GD продемонстрировала увеличенную производительность, в сравнении с практически «эталонными» возможностями видеокарты ZOTAC GeForce GTX 660. Однако в среднем частота смены кадров возросла не более чем на 2,5%, что никак не повлияло на итоговую расстановку сил.

Разгон

В процессе изучения эффективности системы охлаждения видеокарты GIGABYTE GV-N660OC-2GD мы выяснили, что применяемый кулер способен не только успешно справится с охлаждением энергоэффективного графического чипа NVIDIA GK106, но и имеет большой запас эффективности, который может пригодиться энтузиастам при экспериментах с оверклокингом.

Вооружившись утилитой MSI Afterburner, нам удалось разогнать графическое ядро до частоты 1086 МГц (прирост 5%), а эффективная частота памяти составила 6816 МГц (прирост 13%).Также важно отметить, что температура графического чипа не превышала 62 градуса. В таблице ниже вы можете оценить прирост производительности вследствие ручного разгона:

Futuremark 3DMark Vantage

Futuremark 3DMark 11

Crysis Warhead, DirectX 10, Maximum Quality, fps

Crysis Warhead, DirectX 10, Maximum Quality, AA4x/AF16x, fps

Far Cry 2, DirectX 10, Ultra Quality, NO AA/AF, fps

Far Cry 2, DirectX 10, Ultra Quality, fps

Aliens vs. Predator DX11 Benchmark, Maximum Quality, NO AA/AF, fps

Aliens vs. Predator DX11 Benchmark, Maximum Quality, AA4x/AF16x, fps

Colin McRae: DiRT 2, DirectX 11, Maximum Quality, NO AA/AF, fps

Colin McRae: DiRT 2, DirectX 10, Maximum Quality, AA4x/AF16x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, NO AA / AF4x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x/AF16x, fps

В среднем, благодаря ручному повышению частот нам удалось получить ещё 6,6% к производительности, что является далеко не рекордным показателем для решения среднего класса. Такую прибавку к быстродействию с трудом можно заметить невооружённым взглядом, и повлиять на итоговую расстановку сил в этом случае оверклокинг не может. Немаловажно, что разгонный потенциал нашего тестового семпла, судя по всему, ограничивался не эффективностью системы охлаждения, которая отлично справилась с рассеиванием большего количества тепла, а самими возможностями чипа NVIDIA GK106.

Выводы

Видеокарта GIGABYTE GeForce GTX 660 2 ГБ GDDR5 WINDFORCE OC (GIGABYTE GV-N660OC-2GD)в целом оставила о себе прекрасные впечатления. Фирменная система охлаждения WINDFORCE 2X отлично справляется с охлаждением чипа NVIDIA GK106, а её минимальный уровень шума позволит с полным комфортом наслаждаться звуковыми эффектами. Ещё достоинствами GIGABYTE GV-N660OC-2GD можно считать достаточно хороший уровень производительности, поддержку всех передовых технологий и полноразмерных разъёмов, как у «флагмана» GeForce GTX 680. Однако при всех его достоинствах ценовая политика, на сегодняшний день, не в пользу продуктов на GeForce GTX 660, поэтому и приобретение данной карты в ближайшее время мало оправдано с точки зрения цены/производительности. Как показывает практика, спустя некоторое время цена на видеокарты с графическим чипом GeForce GTX 660 перейдёт из разряда «новинки», из-за недавнего релиза, в разряд «оптимального средне ценового» продукта и тогда его приобретение будет более чем оправданно.

Графические карты

Новый купон пользователя по заказам US $4.00

Гарантия возврата денег Возврат за 15 дней

Насколько хорошо гонится?

какая память попадется так для hg 1920:1080 норм нисковысокие (графа)

  • Бренд: Gigabyte
  • Состояние товара: Бывший в употреблении
  • Тип интерфейса: Компьютерная шина PCI Express 3.0 X16
  • Объем видеопамяти: 2 ГБ
  • Модель графического процессора: GeForce GTX 660
  • Тип охладителя: Вентилятор
  • Производитель чипсета: NVIDIA
  • Тип видеопамяти: GDDR5
  • Состояние продукта: Бывший в употреблении
  • Тробопровод для Пикса: 960
  • Интерфейс памяти: 192 Бит
  • Ядровая Частота (МГц): 1033MHz
  • DirectX: DirectX 11
  • Номер модели: GV-N660OC-2GD
  • Техпроцесс: 28 нм
  • Упаковка: No
  • Применение: Настольный компьютер
  • Начало производства: 2013
  • Тип выходного интерфейса: DVI
  • Тип выходного интерфейса: HDMI
  • Тип выходного интерфейса: Displayport
  • Процессоры Потока: 960

GIGABYTE GV-N660OC-2GD видеокарты

GTX 650 GTX 750 GTX 750TI GTX 650TI GTX650 GTX 750 GTX 750TI GTX650TI GTX 1050 GTX 1050TI GTX1060

• 100% оригинальный чипсет GTX 660
• Используется! 95% Новый
• 100% оригинальная 2 Гб GDDR5 192 бит

• Частота ядра: 980/1046MH

• Частота памяти: 6008 МГц

• Максимальное Разрешение: 4096 × 2160

• Тип интерфейса: PCI Express 3,0 16X

• Интерфейс ввода/вывода: HDMI DVI * 2 DisplayPort

• 3D API: DirectX 11

• Поддержка HDCP: есть

• Максимальная потребляемая мощность: 130 Вт

• Разъем питания: 6 pin

• Рекомендуемая мощность: 450 Вт выше

• Поддержка технологии NVIDIA SLI, поддержка технологии PhysX physics acceleration, поддержка энергосберегающих технологий

• Напоминание: для видеокарты GTX 660 требуется источник питания мощностью 450 Вт

Другие особенности поддержка вывода до 4 экранов, программное обеспечение для разгона OC GURU II

  • 5 Звезды 83%
  • 4 Звезды 7%
  • 3 Звезды 10%
  • 2 Звезды 0%
  • 1 звезда 0%

60 гр через пару часов в играх. Чуда не ждите, карта 2012 года не может вытянуть современные новинки в full hd на высоких. Настройки в играх в full hd средне-низкие 35-50 фпс.

19 Jul 2018 08:42

Насколько хорошо гонится?

какая память попадется так для hg 1920:1080 норм нисковысокие (графа)

Эту карту можно разогнать? кто пробывал?

у меня греется и стоке, возможно термопасту хреновую нанес.

какие провода нужны для неё, я имею ввиду кабели которые к ней подключаються сбоку

там доп питание провод, с молекс на 6pin, он в комплекте

Народ у меня дикие артефакты, что делать? Температуру 65 в марке показывает. Включаю игру любую и пиздец начинается

ни чего я тоже месяц спорил а АлиЭкспресс все равно спор в пользу продавца

Источник

Поделиться с друзьями
Adblock
detector