Oc-windows.ru

IT Новости из мира ПК
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Максимальная температура видеокарты gtx 560

Обзор видеокарты nV >

В январе 2011 года nV >

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nV >Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

Читать еще:  Не ставится драйвер на видеокарту radeon

В ходе тестирования была использована следующая конфигурация оборудования:

    МП — eVGA X58 >Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11
GeForce GTX 560 TIRadeon HD 6950 1 GB
Call of Duty — Modern Warfare 2123 fps129 fps
Far Cry 281 fps76 fps
Anno 140468 fps78 fps
Crysis WARHEAD47 fps51 fps
Metro 203323 fps25 fps
Battlefield Bad Company 247 fps50 fps
Colin MC Rae Dirt 266 fps72 fps
3DMark Vantage1992517912
3DMark 1143114973

Какой вывод можно сделать из представленной выше таблицы? Видеокарта Radeon HD 6950 существенно опережает GTX 560 TI по вычислительной мощности и скорости обработки кадров. Достигается это, прежде всего, за счет большего числа текстурных блоков у радеоновской карты (88 против 64 у GTX 560 TI), стоит отметить и большее количество унифицированных исполнительных процессоров (1408 у Radeon HD 6950 против 384 у GTX 560 TI), однако это не сильно влияет на быстродействие, так как ядро Cayman Pro, на базе которого создана Radeon HD 6950 будет немногим опережать по производительности GF114.

Несмотря на разницу в бенчмарках, в играх радеоновская карта мало чем лучше джифорса. Это проясняется в результате сравнения fps в играх при работе двух видеоадаптеров, потому, учитывая их температуры при нагрузках, я бы рекомендовал все же nVidia GeForce GTX 560 TI, ведь риск перегрева у джифорса гораздо ниже, чем у оппонента из AMD.

Разгон nV >Для разгона было использовано то же тестовое оборудование, что и при сравнении GTX 560 с Radeon HD 6950. У GTX 560 TI была повышена частота ядра с 822 до 950 МГц, увеличено количество шейдерных процессоров с 1644 до 1900, а также частота видеопамяти с 4008 до 4800 МГц.

Разгон проводился утилитой Afterburner, при этом напряжение не изменялось, как и работа кулеров.

Настройки в играх ставились высокие, разрешение 1920 x 1200

GeForce GTX 560GeForce GTX560 – разгон
Call of Duty: Modern Warfare 2123 fps141 fps
Battlefield Bad Company 254 fps47 fps
3DMark 1147494311

Как видно из результатов разгона, он будет вполне оправдан, так как fps заметно повышается, как и вычислительная мощность при работе в профессиональных программах, например, Sony Vegas. Но не забывайте следить за температурным режимам, так как несмотря на все меры повышения надежности своих видеокарт, предпринимаемых NVIDIA, риск перегреть ее при разгоне остается несмотря ни на что.

На десерт:

Результаты работы NVIDIA GeForce GTX 560 в некоторых играх 2015-2016 года:

Ведьмак 3: Дикая охота (2015) – средние настройки. Одна из самых прожорливых современных игр. Внимание! 35 fps! Восхитительный результат для видеокарты 2011 года, не правда ли?

CS: GO – максимальные настройки. 200 fps!

GTA 5 (2015) – высокие настройки, разрешение 1360 x 768, вертикальная синхронизация 50%. 30 fps!

Таким образом, данная видеокарта идеально подойдет как для прикладных, так и для игровых решений и потянет подавляющее большинство прожорливых игр на средних настройках. И это с учетом ее стоимости в 4000-5000 рублей на сегодняшний день! А модификации, к примеру, от Gigabyte еще круче. Моя оценка видеокарте: 8 из 10, минус за урезанные модификации GeForce GTX 560 SE, хотя nVidia в этом плане можно понять – компания заботится не только о пользователях, но и о прибыльности дела, это вполне закономерно.

Читать еще:  Тестирование видеокарты nvidia

Максимальная температура вашей видеокарты

Мой «рекорд» — 100 градусов.

А так стандарт 70-80.

MSI N560GTX-Ti Twin Frozr II/OC

температура в простое 25-30 C, а под нагрузкой максимум 50 С при 65% вращении кулера (зима);

температура в простое 30 C, а под нагрузкой максимум 60 С при 65% вращении кулера (лето).

DD Cooper
У меня сейчас 4:два на вдув и два на выдув.Водянки нет.Температуру регулирует драйвер.Во время игры в Круизис летом заметен шум от вентеля ещё сильнее

Rad1k
Не слабо вращается.Можно в системник дополнительно вентель на вдув поставить,напротив карты.Тогда обороты сбавишь

Шучу я! Греется конечно, в играх выше 73 градусов не видел вобще! В «бублики» и прочие грелки не играю.

shrabigus
Так и должно быть.

Ну-ну.Я ее не юзал, я не знаю. вам виднее =D

Сонный Бот
Трафик обновится,с компа поищу.Статей,посвящённых данной теме,не нашёл.Значит,есть какой-то изъян

shrabigus
Может,проще скрин выложить?Да бы не было споров

Если все всё знают, к чему тогда этот цирк, вот в чем вопрос.

А вообще Den-z2011, без обид, не хотел никого провоцировать. Все это скорее относится к Overclock[er].

А вообще,я думал,что люди скрины выкладывать будут

Den-z2011
Спасибо что разъяснили)

PS чтобы полноценно замерить температуру видяхи нужна длительная нагрузка, в с скрине этого не отразить. Какой смысл засорять PGшный сервер кучей ненужных картинок)

DartMaul
PS чтобы полноценно замерить температуру видяхи нужна длительная нагрузка,
Что мешает запуск игр,нагружающих карту на 99%?

в с скрине этого не отразить
Что могут отразить слова вообще без скринов?

Какой смысл засорять PGшный сервер кучей ненужных картинок)
Вот это как раз нужные картинки

Den-z2011
Что мешает запуск игр,нагружающих карту на 99%?
То, что реальную температуру карты можно увидеть только после того как она перестанет расти, то есть после того как система охлаждения прогревшись, сможет рассеивать столько тепла сколько выделяет карта, именно карта а не только GPU.

Нагрев «мгновенный», как вы говорите просто нагрузить карты до 99% и посмотреть куда подскочит температура, показывает лишь уровень суммарное тепловое сопротивление, и узкое место с наименьшим показателем площадь контакта*теплопроводность, между кристаллом GPU и радиатором, а длительный нагрев показывает общее соотношение производительности охлаждения к тепловыделению карты, с учетом всех «узких» мест.

Что могут отразить слова вообще без скринов?
На прогрев может уйти до 8-10 минут, и для частоты эксперимента на протяжении этого времени должна сохраняться полная загрузка. На столько я знаю ни одна программка монитор не показывает график за 8-10 минут.

HD7970, референсные, 1200/1650
Это конечно не 2 часа крайзиса а всего 2 полных прогона Unigine Heaven, но учитывая что на протяжении последних 7 минут ничего не менялось, я подумал что вряд ли стоит ждать еще.

Комнатная температура на момент теста — 23 градуса.

DartMaul
Не слабо разогрелась.Вот поэтому я и просил игровые тесты.В играх всяко должна меньше греться

shrabigus
Это тебя делали с подвыподвертом,хотели посмеяться.
Я ж не говорю,что из тебя пытались сделать интеллигента,а получился недоделанный позёр

shrabigus
На самом деле не совсем.
Если речь идет о деградации, то напряжение и температура приблизительно равнозначные факторы. Я бы даже сказал что температура чуть более важный, так как известно что под экстремальным охлаждением можно безопасно использовать бешеные напряжения, а при достижении TJmax вероятность деградации чипа велика даже при типичном для чипа вольтаже.
А если говорить о VRM то там именно от перегрева все и умирает.

Читать еще:  Какой драйвер скачать для видеокарты

Кстати о температуре:
Пару месяцев назад доставал свои 3870х2. Воды у меня на них нет, но погонять все ровно хотелось.
Я поставил туда вентиляторы от референсного охлада 7970 (они вроде как такие же, но крутятся по шустрее), поменял термопрокладки, намазал туда MX-4 (на алюминиевый радиатор) и ЖМ на медный. (я даже пробовал использовать для одной карты 2 медных радиатора, но толку мало)
В итоге всех манипуляций результат следующий:
http://hwbot.org/submission/2385226_dartmaul_3dmark06_2x_radeon_hd_3870_x2_34709_marks
Максимальная температура на обоих картах — 65 градусов. С учетом разгона и того что карта 2чиповая.

получасовой бенчмарк, температура держится стабильно.

я использую MX-2. Отличная термопаста.

exlipse88
-SK.art-
DartMaul
Благодарю за советы.Всё ж вчера не удержался и вскрыл карту,пока время на неё было:

Удивило то,что видюха проработала 4 года,а на решётке турбины пыли скопилось очень мало:

На вентеле немножко:

А что вот с этим делать,я так и не понял (вырезано из первого скрина):

Как-будто под плёночками по милиметровому свою термопасты.Я эту беду трогать побоялся

Может,кто подскажет,нужно ли это всё сдирать,или нет?

Старая термопаста была очень густая.Пока воспользлвался Титаном за 150 руб.Т.к. времени совсем не было на игровой тест,вот,что показал 8-ми минутный стресс-тест Комбустор и HWMonitor:

На три градуса ниже в простое всего лишь.Когда воспользуюсь MX-2,выложу разницу

у радеон 4870х2 была зафиксирована максимальная температура в районе 110 градусов.
при этом она функционировала на ч чипа 800мгц и оборотами вертушки 70% для игорь. я посчитал что вертушка имеет 4000 об-мин макс.
штатный полет в игорях 80 градусов. причем из особенностей конструкции один чип горячее другого примерно на 10-15 градусов.
работа свыше 80% оборотов веника была признана нецелесообразной тк карта вытягивала весь воздух из корпуса и впоследствии начинала перегреваться.

у жифорс 690 была зафиксирована максимальная температура в вижмаке 2 и составляла 120 градусов.
для сравнения штатный полет в драгон уге 2 давал 90 градусов. при достижении 80 градусов автербуфер имет мягкий график после достижения его порога максимально разгоняет веник. те для жифорса это 3000 об-мин — 5% которые таинственным образом заблокирован в драйверах.

в принципе эти карты и имеют подобную температуру.

жифорс 285 для игорей я не использовал и назвал бы это холодной картой. в каком-то бенчмарке я прогревал ее до 80 гр. а так при фузиксе т-ра была в целом 65-70 гр.

ща сижу на жифорсе 650ти у нее температуру не измерял но она в принципе не может быть высокой. хотя она работает с тем жи драйвером и настройками что и 690. в сейнс ров 3 — имелись артефакты с принудительным ао и еще артефакты в некоторых игорях что говорит о фактическом перегреве.


вывод у жифорсов гумновое охлаждение. начиная с 9800х2 это был убогий обрубок который припекал до феерических температур. 295 и 590 та-же история. обрубки с хреновым неадекватным тепловыделению охлаждением. 690 цельная но за каким-то чертом на нее нее не навесили нормальную турбину по характеристикам как у радеона 6990 и теперь у этой карте на любой игре 90-100 градусов.
= у жефорсав плохое охлаждение (хотя и работают они суммарно тише чем коллер мастер в10 на принудительных максимальных оборотах).

Ссылка на основную публикацию
Adblock
detector