Reviews

[Review] MSI GTX1080 Ti Lightning – Let’s ride the lightning!

Olá pessoal, tudo bom?

Nesse review irei analisar a MSI GTX1080 TI Lightning que se trata da ultima representante da lendária série de VGAs Lightning da MSI. Essa série, que é voltada aos entusiastas e overclockers a nível extremo nasceu em 2009 com a GTX 260 Lightning, placa essa que deve fazer parte das lembranças de muitos que acompanham esse meio desde aqueles tempos.

Abaixo um breve histórico de quase todos os modelos da série sendo que a única falta é da GTX980 Ti Lightning devido a imagem oficial que encontrei estar um pouco desatualizada. 😛

https://www.msi.com/blog/the-return-of-the-king

Mas vamos falar da 1080Ti Lightning, com relação a sua embalagem, trata-se de uma grande caixa com a onipresente figura do caça F-22 que desde sempre caracterizou as VGAs dessa série. Na parte de trás da caixa temos destaque para alguns “features” integrados na placa, tais como os famigerados leds RGB, o potencial de overclock da placa, heatpipe para refrigeração do VRM e componentes de classe militar.

Com relação ao bundle, os extras vem dentro de uma caixinha e se resumem a um DVD de instalação de drivers/softwares, manual de usuário, alguns adesivos, um adaptador 8-pin para 6-pin e duas “extensões” de ponta de prova de multímetro para a medição da tensão do GPU/RAM/PLL.

Logo ao lado dos acessórios, temos a 1080Ti com o seu impactante cooler tri-slot que sozinho pesa pouco mais de 1 Kg e também os três conectores de MiniFit Jr de 8-pinos nessa placa. Ambos detalhes requerem uma atenção extra daqueles que pretendem adquirir uma monstrinha dessas pois não é qualquer fonte que possui cabos de força no número necessário e também com relação a obstrução de componentes em algumas placas-mãe tal como gabinetes que podem não comportar uma VGA mastodôntica como essa.

Sobre o GPU que equipa a 1080Ti, trata-se do GP102, que é fabricado pela TSMC usando o processo de 16nm e é o maior GPU da família Pascal destinado a linha GeForce, com um die de 471mm² e 12 bilhões de transistores.
A variante do GP102 utilizada para a 1080TI é a GP102-350-K1-A1 e vem com 3584 CUDA Cores ativados, 224 TMUs, 88 ROPs, interface de memória de 352-bits usando memórias GDDR5X e 11GB de VRAM sendo que o GP102 “Full” (GP102-450-K1-A1) apenas é utilizado nas Titan Xp e Quadro P6000 e o mesmo vem com todos os 3840 CUDA Cores, 240 TMUs, 96 ROPs e interface de memória de 384-bits e 12GB de VRAM.

Os chips de memória GDDR5X são fornecidos pela Micron, sendo esse o único fabricante para esse padrão de memória. Apesar da foto não ter ficado aquelas coisas, podemos ler “D9VRL” escrito nesses CI’s e que após uma rápida busca, identificamos esses chips como MT58K256M321JA-110 e “binados” para frequência de 1375MHz (11 Gbps portanto).

Com relação ao PCB, a GTX1080 Ti Lightning é um tanto longa (29.5cm), mais larga do que o usual e é assim para poder abrigar o robusto VRM de 14 fases de forma que o mesmo fique localizado o mais perto possível do GPU (carga) para minimizar possíveis ruídos e quedas de tensão na saída. Uma observação de cunho mais prático que devo fazer, é que devido a essas medidas um tanto quanto robustas, é necessário ficar esperto com relação as dimensões do gabinete para que não haja problemas de compatibilidade.

A MSI também implementou um sistema dual-bios nessa placa com um switch que permite alternar entre a bios padrão e outra voltada para uso extremo, no qual tratarei adiante com mais detalhes.

Sobre o VRM, a MSI fez um trabalho digno da série “Lightning” trazendo um VRM de 14+3 fases usando majoritariamente componentes da Infineon, que são de excelente qualidade.

Para o GPU, foi usado o controlador PWM digital IR3595A operando com 7+0 fases e para se obter as 14 fases foram usados os dobradores de fase IR3599, o que implica que a frequência de chaveamento de cada fase é a metade daquela encontrada na saída do IR3595A e é assim para manter a independência no acionamento de cada fase.

No estágio de alimentação, a MSI optou por usar o IR3555, que basicamente é um CI que integra mosfets low-side, high-side, driver, diodo schottky em um único encapsulamento e que é capaz de fornecer até 60A na saída. Esses CIs são normalmente encontrados em hardware high-end ou quando existe limitação espacial no pcb combinado a especificações de corrente um tanto elevados, para que tenham uma ideia, basicamente todas placas-mãe X399 disponíveis no mercado até o presente momento fazem uso desse componente no estágio de alimentação do VRM. E qual a implicação disso? Bom, esse VRM é o perfeito sinônimo de “overkill” e definitivamente foi concebido para uso em OC Extremo, onde uma 1080Ti operando com clocks acima dos 2500MHz e tensão do GPU na casa dos 1.55V consegue exceder a barreira dos 1000W sozinha, entretanto por mais que esse VRM seja tecnicamente fantástico e perfeito para uso extremo, do ponto de vista do usuário ou entusiasta que deve brincar no máximo usando um watercooler, isso não deve fazer qualquer diferença quando comparado a uma 1080Ti Founders Edition devido aos GPUs da arquitetura Pascal praticamente não escalarem com tensão extra em temperatura ambiente, o que implica que nesse caso acaba sendo mais relevante aos resultados a qualidade do GPU e a refrigeração utilizada.

Para as memórias, foi usado o controlador IR3570 operando com 3+0 fases e usando os CIs Ubiq QM3816N6 no estágio de alimentação. Esses CIs integram apenas os mosfets high-side e low-side no mesmo encapsulamento e diferentemente do IR3555, é necessário o uso de drivers externos para o seu acionamento e que no caso, trata-se do IR3537.

Além disso, a MSI também caprichou os estágios de filtragem tanto de entrada quanto de saída e não economizou nos capacitores, o que deve garantir um sinal de saída limpo e boa resposta a transientes, que basicamente são variações de tensão que ocorrem devido a alguma variação abrupta de corrente na carga.
Outra observação é que foram inclusos pontos para medição fácil das tensões de GPU, memória e auxiliar, o que é uma mão na roda na hora de congelar a placa. 🙂

Falando de todo aparato que a MSI desenvolveu para a refrigeração da sua placa, temos um conjunto composto pelo titânico dissipador com seis (!!!) heatpipes no qual a MSI chama de “Tri-Frozr”, o plate para refrigeração do VRM+VRAM com mais um heatpipe e o backplate mais funcional que já vi também com um heatpipe. Faço essa observação para o backplate pois em muitas VGAs essa peça tem caráter apenas estético ou visando servir de reforço para evitar que o pcb se envergue devido ao peso do cooler e que no caso da Lightning, além desses dois fatores, ele também faz seu papel na refrigeração do GPU tendo em vista que aquelas duas interfaces térmicas que podem ser vistas na foto abaixo estão localizadas bem atrás do GPU e em contato com o heatpipe.

Antes de partir para os resultados, cabe algumas explicações de como fazer overclock nos GPUs da arquitetura Pascal por conta de algumas particularidades em relação ao funcionamento do GPU Boost 3.0 e de outros fatores limitantes, tais como o Power Target e Temperature Limit.

Até o GPU Boost 2.0, essa curva de Frequência/Tensão (que irei chamar de Curva F/V daqui em diante) já existia desde o Kepler, no entanto não era acessível ao usuário e a única forma disponível de se fazer overclock era adicionando offsets para as frequências de GPU e VRAM. Isso mudou no Pascal e agora além dessa também existe a possibilidade de ajustar cada ponto da curva F/V individualmente, maximizando assim a performance do GPU ao longo de toda essa curva conforme pode ser visto pelos gráficos abaixo.

Para acessar a configuração da curva F/V no Afterburner como no screenshot abaixo, basta usar o atalho CTRL+F e dai ajustar os pontos conforme a necessidade. Para facilitar a otimização de todos os pontos dessa curva, outros softwares (ex: EVGA Precision XOC) trazem uma função “Scanner” que determinam offset ideal para a curva automaticamente poupando assim algum tempo no usuário na hora de otimizar ainda mais o funcionamento da GPU.

É importante salientar que fatores ambientais (ex: temperatura) e físicos (ex: tdp) desde sempre foram levados em consideração pelo algoritmo do GPU Boost, entretanto era muito mais simples de se “driblar” os mecanismos responsáveis pela leitura dos mesmos usando biosmod ou hardmod para forçar a placa a rodar sempre no clock máximo. Conforme mostrarei adiante, a abordagem ideal para se tirar o máximo de performance dos GPUs Pascal é um pouco diferente devido a como o algoritmo do GPU Boost 3.0 trabalha a curva F/V em relação a temperatura do GPU, isso implica que mesmo sem alterar quaisquer parâmetros relacionados a clock de GPU/RAM, se de alguma forma você conseguir aumentar o Power Target e manter o GPU abaixo de um certo patamar de temperatura (digamos que, 50ºC), automaticamente a placa vai manter o clock do GPU no ponto máximo por mais tempo, o que trás ganhos óbvios de performance como veremos adiante. 🙂

Isso é muito legal, mas como saber se a VGA está esbarrando nesses limites? Bom, existe um parâmetro chamado “PerfCap Reason” que pode ser monitorado pelo GPU-Z e ele indica qual a variável que está limitando a performance do GPU. No caso existem cinco variáveis e é possível esbarrar em mais de uma delas ao mesmo tempo e como mostrarei adiante, eliminar as causas do “PerfCap” podem ser muito benéficas para a performance da placa. 🙂

vRel = Reliability. Indicating performance is limited by voltage reliability.
VOp = Operating. Indicating performance is limited by max operating voltage (Hardware Limit).
Pwr = Power. Indicating performance is limited by total power limit.
Thrm = Thermal. Indicating performance is limited by temperature limit.
Util = Utilization. Indicating performance is limited by GPU utilization.

Terminado essas apresentações, vamos a configuração utilizada e os resultados!

CPU: AMD Ryzen 5 1600X (obrigado AMD!)

MOBO: ASUS PRIME B350-PLUS 

RAM: 2x4GB HyperX Savage 2800CL14 (Hynix AFR)

VGA: MSI GTX1080 Ti Lightning (obrigado Renan!)

STORAGE: SSD HyperX 3K 120GB + HD WD Blue 1TB 7200rpm

COOLER: Watercooler custom

SO: Windows 10 x64 atualizado, Windows 7 x64 SP1 para os benchmarks competitivos e Forceware 390.77 WHQL

Objetivo dos testes: Avaliar a performance a GTX1080 Ti Lightning do ponto de vista de um overclocker, ou seja, usando benchmarks que são utilizados em cenário competitivo (HWBOT), ver como a mastodôntica solução de refrigeração da MSI se sai nesses testes e mostrar algumas particularidades (leia-se, GPU Boost 3.0) da arquitetura Pascal funcionando na prática. Explicações acerca da metodologia adotada ou de como os testes foram conduzidos estão contidas nos textos que acompanham os resultados a seguir. 😉

Resultados:

Primeiramente, vamos ver se o Tri-Frozr é realmente capaz de manter as temperaturas do GP102 em ordem pois como foi explicado anteriormente, quanto menor a temperatura do GPU, maiores as chances do GPU Boost 3.0 manter a placa funcionando no ponto máximo da curva F/V. Para fazer esse teste, usei o Unigine Superposition no preset “8K Optimized”, que é um benchmark suficientemente longo e que simula bem uma carga de “uso real” do GPU, em outras palavras, não é um “power virus” como o Furmark que estressa a VGA a níveis irreais e normalmente faz a placa entrar em throttling por comando do driver.

No gráfico abaixo, temos os resultados obtidos para diferentes configurações de clock e rotação do fan, devo observar que a temperatura ambiente no dia do teste foi de 29ºC, o teste em stock com fan @ 100% foi conduzido com o PT @ 116% devido ao fato dessa placa bater no Pwr PerfCap com o PT padrão mesmo em stock, os testes com OC também foram conduzidos com o PT @ 116%, a ideia do teste com fan @ 60% foi mostrar o melhor resultado possível de se obter mantendo um nível de ruído aceitável para uso diário e por fim, em todos esses casos usei a bios padrão da placa.

E os resultados obtidos foram excelentes! A temperatura máxima foi algo abaixo dos 65ºC no pior cenário possível, o que mostra claramente o quão séria a MSI foi no projeto do Tri-Frozr. Ainda falando sobre o comportamento da placa com a curva de rotação dos fans padrão, em idle ela desliga completamente o fans e os aciona ocasionalmente quando a temperatura chega perto dos 60ºC enquanto que em full load, a rotação não passou dos 50% para manter o GPU nesses 65ºC.

Outra coisa também relevante é que essas memórias GDDR5X são extremamente sensíveis a temperatura e que usando a curva de rotação dos fans em 60%, o clock máximo obtido sem artefatos visíveis foi de algo na casa dos 1490MHz, enquanto que @ 100% foi possível esticar esse clock um pouco além dos 1500MHz.

Como é possível ver nas legendas no eixo do gráfico acima, fiz o overclock via offset para esses testes e logo na galeria abaixo, temos o comportamento da placa em termos dos clocks e temperaturas ao longo do benchmark.

Por esses gráficos fica bastante evidente o funcionamento do GPU Boost 3.0 e a influência dos fatores externos no clock do GPU, conforme expliquei anteriormente. Notem que ao eliminar duas causas para a placa estar batendo no PerfCap (Pwr e Thrm), houve uma estabilidade muito maior no clock da placa em stock e muito mais do que isso, ela segurou o clock máximo praticamente durante todo o tempo! É evidente que isso trás um impacto positivo na performance e isso pode ser visto no gráfico abaixo, que trata do resultado do benchmark em cada uma dessas condições de teste.

Agora com relação os resultados obtidos com foco competitivo no HWBOT, esse exemplar em especifico foi capaz de completar a maior parte desses benchmarks com clock do GPU entre 2050 e 2062MHz com tensão de 1.09V, VRAM @ 1510MHz e os fans ajustados em 100%.

Para esses benchmarks usei a bios LN2 e fiz os ajustes de clock usando a curva F/V conforme expliquei anteriormente. A bios LN2 difere da padrão pela possibilidade de se alterar a tensão do GPU até 1.168V (se tiver acesso ao Afterburner Extreme, até 2V), VRAM em +100mV, AUX em 100mV e por aparentemente desabilitar a proteção de sobreaquecimento e o Power Target, sendo esse primeiro o motivo na qual não posso recomendar o uso dessa bios para uso diário.

O foco foi em benchmarks com resolução mais elevada tais como o Fire Strike Ultra (4K) e o Unigine Superposition (8K !!!) com o objetivo de tornar a situação o mais “GPU Bound” possível, afinal de contas, por mais que o Ryzen 5 1600X seja competente e consiga empurrar satisfatoriamente uma VGA dessas nas condições de uso diário, para esses benchmarks competitivos e brigando com gente que tem CPUs com mais de 10 cores a coisa tende a ser um pouco diferente…

Como vi que existia ainda espaço para melhoras nesses resultados e sabendo o quão bem esse GPU escala com a temperatura, após ter a autorização do dono da placa, resolvi partir para uma solução um pouco mais arrojada (leia-se, gelo seco) que o excelente cooler stock para ver até onde era possível chegar com essa placa, só que o resultado final acabou não sendo exatamente o esperado e é isso que vamos discutir aqui.

Com o intuito de adicionar um pouco mais de clareza as explicações, dividirei as informações por tópicos.

  • Isolamento:

O primeiro passo para o OC extremo é a preparação e isolamento dos componentes, afinal de contas água e eletricidade são coisas que não costumam funcionar bem juntas. 🙂

No caso da GTX1080 Ti, optei pela tradicional borracha limpa-tipo devido a facilidade para a posterior remoção e limpeza sendo que na galeria abaixo inclui as fotos de como ficou a placa após o isolamento e destacado em vermelho, a região onde deveria ter feito algo melhor pois houve condensação ali.

Fica a observação que nesse caso não é necessário se preocupar com o VRM, ele gera calor o suficiente para evitar a condensação e o mesmo pode ser refrigerado com um fan robusto sem maiores problemas.

Outro método de isolamento que considero uma excelente alternativa a borracha é usar spray plastidip para envelopar a placa, funcionou brilhantemente com a HD6870 e com uma P35-DS3 que tenho aqui, pode ser removido se aplicado corretamente e mesmo que não remova, não compromete em nada o funcionamento do hardware.

  • Montagem do Pot

Para o bom andamento da sessão de OC Extremo tanto a montagem adequada do pot como a escolha da pasta térmica são imprescindíveis para o sucesso da empreitada.

Com relação a montagem, deve-se ter a certeza que todo o die está fazendo bom contato com a base do pot pois um erro aqui pode resultar em consequências um tanto catastróficas tais como perder vários MHz nos benchmarks ou até mesmo danificar o GPU. Uma dica que deixo e que aprendi lendo os excelentes guias do TiN é da importância de se apertar os parafusos de fixação do pot até chegar no final do curso da rosca, garantindo assim boa pressão e um contato ótimo com o GPU! Abaixo uma foto de como ficou o contato na minha montagem e que diferentemente do isolamento, pode ser usado como um exemplo positivo. 🙂

Sobre a questão da pasta térmica, para qualquer hardware capaz de dissipar quantidades insanas de calor quando submetidos a condições de operação extremas, torna-se estritamente necessário o uso dessas pastas “ultra premium” desenvolvidas para esse tipo de uso (exemplos? Thermal Grizzly Kryonaut, Kingpin Cooling KPx ou Gelid GC-Extreme) e o motivo disso é o grande stress térmico que a estrutura do composto (que no caso, é um polímero) será submetida por conta das variações abruptas na temperatura do CPU/GPU. Na prática, isso causa degradações de performance do tipo “na primeira tentativa de rodar o benchmark X, ele completava @ 2500MHz, na segunda vez o máximo já fica na casa dos @ 2450MHz e assim sucessivamente” ou em casos mais extremos, a pasta térmica simplesmente trinca, sendo isso bastante notório por conta do ruído emitido e pela perda de contato com o CPU/GPU (exemplo: o termopar marca -160ºC e o software acusa uma leitura de temperatura positiva) e para ambos os casos, é necessário parar tudo, desmontar, secar, reaplicar a pasta térmica, montar novamente e começar do zero.

E ai alguém pode perguntar: Isso ocorre mesmo usando essas pastas premium caríssimas? Sim ocorre, porém a vantagem delas é que se a aplicação for feita corretamente, elas simplesmente conseguem suportar esse tipo de stress por um pouco mais de tempo antes de falhar e também são capazes de manter uma característica aceitável de condução de calor mesmo sob condições extremas.

  • Sessão de OC Extremo:

Antes de ir para os problemas, vamos ao que deu certo! Como já comentei no review da ASUS PRIME B350-PLUS, o Ryzen de primeira geração (Summit Ridge) apresenta uma certa degradação de performance no controlador de memória quando o mesmo é submetido a temperaturas negativas, sendo que se fôssemos colocar isso em um gráfico da frequência em função da temperatura encontraríamos uma curva parecida com uma parábola com concavidade para cima e o vértice dessa parábola estaria mais ou menos ali nos -50ºC / 2400MHz, pois é, exatamente a temperatura que conseguimos chegar usando gelo seco e como bem sabemos, o clock das memórias faz grande diferença nos Ryzen, especialmente em 3D.

Como ficar preso nessas DDR4 @ 2400MHz não iria me ajudar em nada, a solução foi limitar a temperatura no mínimo em que ainda fosse possível manter a RAM @ 3200MHz e que no caso, falo de algo em torno dos -18ºC. Com essa temperatura o CPU completou o CPU Test do FSU @ 4300MHz 1.55V e RAM @ 3200MHz 12-16-16-28 1T sem problemas! 🙂

Agora com relação aos problemas, o primeiro empecilho foi o gigantesco delta de temperatura que encontrei no GPU e que na verdade era algo que pela minha experiência com a HD6870 já era esperado porém não na velocidade que aconteceu! Para terem uma ideia, o Unigine Superposition tem 17 etapas, demora cerca de 3 minutos para completar e lá pela etapa 12 a temperatura do GPU já estava batendo na casa dos -17ºC (iniciando em – 46ºC) mesmo com o pot cheio de gelo e fazendo pressão com o cabo do martelo! Então temos ai um delta de quase 30ºC que basicamente inviabilizou a sessão de OC pois cada vez que tentava rodar algum benchmark todo aquele gelo que formava atrás do GPU quando em idle (foto abaixo, da 6870) derretia, o que acabou formando um pequeno pântano ali naquela região e isso sem contar a condensação no pcb, pois bem, se queriam saber a causa exata daquela recomendação extra sobre o isolamento, ai está… :/

Lembram-se também da supracitada questão das GDDR5X serem bastante sensíveis a temperatura? Então, como esse delta de temperatura do GPU também não estava colaborando em nada com a temperatura das memórias, mantendo elas descongeladas o tempo todo e com isso comecei a experimentar artefatos mesmo com a RAM @ 1500MHz enquanto tentava rodar um 3dmark pra ficar para a posteridade e com isso achei apropriado abortar a sessão de OC por motivos de segurança, o que implica que desse vez infelizmente não tenho resultados para lhes mostrar. 😦

Sendo assim o que tentei trazer nessa parte é a experiência de um cara comum, com recursos e suporte comuns, tentando domar hardware ultra high-end na raça, trazendo as dificuldades encontradas e formas de como tentar contorna-las. Se você não tem suporte adequado, leia-se condições financeiras ou patrocínio para bancar o aprendizado e experiência necessários para se obter bons resultados com esse tipo de hardware, o que naturalmente envolve uma quantidade considerável de LN2 (gelo seco é completamente inviável nesse caso), uso dessas pastas térmicas caras, uma plataforma adequada para se obter resultados competitivos nos benchmarks usando uma placa como a 1080Ti e tempo, então receio que essa experiência vai ser algo semelhante a pegar uma Ferrari sem seguro e se meter a fazer drift em Camino a Los Yungas na Bolívia, o que definitivamente não me parece ser uma ideia lá muito aprazível para a maioria das pessoas.

Conclusão:

A MSI GTX1080Ti Lightning sem sombra de dúvidas faz jus ao nome Lightning, sendo uma placa de construção extremamente robusta com evidente foco no overclock extremo, como era de se esperar de uma VGA dessa série.

No que diz respeito aos resultados, o sistema de refrigeração original se mostrou fantástico do ponto de vista da performance assim como a VGA, que foi muito bem nos resultados especialmente se formos levar em consideração a minha limitação de CPU para esse tipo de atividade. Infelizmente não foi possível obter resultados na sessão de OC Extremo mas definitivamente não por falha do hardware, com um pouco menos de precariedade no que diz respeito aos recursos, seria possível mostrar o verdadeiro e monstruoso potencial dessa placa.

Do ponto de vista do “Custo x Beneficio”, é algo praticamente impossível de se concluir qualquer coisa razoável por conta da explosão do preço dos GPUs devido as limitações na oferta de chips de memória no mercado mundial e também do “boom” da mineração, o que inflou absurdamente o preço das VGAs. De qualquer forma, essa placa pertence a uma série especial destinada a OC Extremo, o que por si só já faz desse produto algo mais caro que os modelos mais comuns de GTX1080 Ti sendo necessário avaliar o como a placa será usada para concluir se o investimento perante um modelo mais simples será justificado.

E é isso! Dúvidas em relação a VGA, ao review, sugestões ou mesmo comentários aleatórios são bem-vindos. Mais uma vez fica meus agradecimentos ao Renan por ter cedido a placa para o review. 🙂

Até a próxima!

Anúncios

8 comentários em “[Review] MSI GTX1080 Ti Lightning – Let’s ride the lightning!”

  1. Review ultra top. Talvez 100% dos “portais de tecnologia” do Brasil deveriam aprender com você como se faz um review de QUALIDADE, demonstrando alto conhecimento técnico e uma análise prá lá de completa. Review fodastico Gian, arrebentou.

    Curtido por 1 pessoa

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

w

Conectando a %s