Categoria Ciência ao redor do mundo

O que é QOS? Entenda para que serve a tecnologia em roteadores

<strong>O que é QOS? Entenda para que serve a tecnologia em roteadores</strong>

Conheça a tecnologia presente em roteadores que permite que você crie regras e prioridades de acesso para seus dispositivos e apps

O QoS (Quality of Service, em inglês) é uma tecnologia presente em roteadores para garantir ao usuário maior controle sobre sua rede Wi-Fi. Por meio da ferramenta, é possível determinar quais dispositivos e serviços terão maior prioridade de conexão. O recurso é interessante para quem precisa racionalizar a Internet, ou simplesmente precisa dar preferência para dispositivos que venham a reproduzir vídeos em streaming, jogos online, entre outros tipos de uso.

Conheça a seguir um pouco mais do QoS, e saiba como a função pode ser utilizada por você para melhorar a conexão em dispositivos específicos.

O QoS privilegia o tráfego de dados em determinados aparelhos, que podem ser selecionados nas interfaces de configuração dos roteadores. Portanto, a prioridade para um ou outro dispositivo fica por conta do usuário.

Por exemplo: um dispositivo está baixando um arquivo grande, enquanto outro está rodando um filme no YouTube Como a função vai ser aplicada nessa situação depende de quem tiver acesso às configurações da rede. A preferência pelo streaming vai melhorar a exibição, evitando travamentos e diminuindo a chance de perda de qualidade. O download, por sua vez, vai demorar um tempo maior para terminar, mas não vai parar.

A ideia do QoS é que nem todo tipo de tráfego é igual em importância. Streaming, jogos multiplayer ou uma chamada de vídeo no Skype são exemplos típicos de atividades que precisam de melhor conexão para funcionar bem, o que não é totalmente necessário para atualizações de sistema, troca de mensagens via WhatsAPP e navegar na Internet, por exemplo.

Como o QoS funciona?

 

As regras da função são definidas pelo usuário por meio das interfaces de configuração dos roteadores. A partir disso, mapeiam o tráfego e aplicam filtros que dividem melhor a banda disponível para que os dispositivos com a prioridade tenham sempre conexão estável e uma margem maior de manobra.

Há diferentes abordagens quanto à implementação dessa tecnologia. Alguns roteadores possuem um tipo de QoS personalizável, enquanto outros modelos possuem tecnologias independentes. Nesse caso, basta acionar o recurso e o equipamento vai se encarregar sozinho de criar as regras e determinar o que importa mais. Caberá então ao usuário interferir, caso considere que as políticas de prioridade definidas automaticamente não são as ideais.

QoS permite determinar o que é prioridade dentro da sua rede — Foto: Reprodução/Yuri Hildebrand

Sem o direcionamento, o roteador trata todo tráfego de forma igual, sem estabelecer prioridades – algo que, em um cenário de conexão mais lenta ou de muitos dispositivos ligados à rede ao mesmo tempo, pode levar a oscilações na qualidade do sinal. Assim, o roteador é incapaz de perceber que o tráfego exigido pelo streaming requer mais banda e estabilidade do que um smartphone recebendo mensagens no WhatsApp, por exemplo, algo que funciona sem exigir muito do Wi-Fi.

Todos os recursos QoS dependem de alguma interação com o usuário – seja ativando-o na interface do roteador, ou configurando regras, dispositivos e serviços que devem ser prioritários. Apesar disso, há diferenças de eficiência e qualidade entre as implementações dependendo de cada fabricante.

Como usar e configurar?

Nem todo roteador suporta o QoS, portanto é importante verificar se o recurso está disponível no seu aparelho. Se for o caso, o próximo passo é determinar o que é prioridade para você, entre serviços, aplicações, tipos de uso e, por fim, os aparelhos em si.

A função varia de acordo com o modelo e fabricante do dispositivo de rede. Em algumas situações, a configuração pode ser bem mais simples que em outros, como acontece com alguns produtos da Tp-Link e D-Link

Entre as possibilidades, está a configuração por meio do número de IP ou serviços como streaming, jogos, entre outros. Basta sinalizar para o roteador que, sempre que houver algum tipo de pacote de informação de tráfego relacionado a “Netflix” ou “Skype”, por exemplo, a rede precisa ser direcionada.

O que é exatamente qualidade de serviço?

Quality of Service é uma ferramenta excelente e subutilizada que permite treinar seu roteador para dividir a largura de banda disponível entre os aplicativos. Com boas regras de QoS, você pode garantir que seu streaming de vídeo não gagueje porque um arquivo grande está sendo baixado ao mesmo tempo ou que seu laptop de trabalho não seja lento quando você tenta cumprir o prazo de última hora enquanto seus filhos estão jogando jogos online.

Pode ajudar pensar sobre Qualidade de Serviço assim: vamos fingir, por um momento, que sua conexão com a Internet é um hospital onde a largura de banda disponível é o número de médicos disponíveis para tratar os pacientes. Os pacientes são os diferentes aplicativos, e a enfermeira da triagem é o roteador.

Em uma rede normal, a enfermeira da triagem é indiferente à condição dos pacientes que chegam e simplesmente os atribui a quaisquer médicos disponíveis, espalhando progressivamente a equipe do hospital cada vez mais magra, sem levar em conta a gravidade da situação do paciente. Atirou acidentalmente na sua mão com uma pistola de pregos durante um projeto DIY? Você chama um médico imediatamente. Alguém acabou de ser atropelado por um caminhão? Eles chamam um médico imediatamente. Alguém mais apareceu com o braço quebrado? Eles chamam um médico também (mas se estiver ficando muito agitado, logo as pessoas estão compartilhando médicos e ninguém está recebendo atendimento particularmente rápido). Você pode ver como, em pouco tempo, o hospital seria uma bagunça atolada e os pacientes de alta prioridade não estariam recebendo cuidados de alta prioridade.

A mesma coisa acontece em sua rede doméstica – a largura de banda é fornecida conforme necessário, sem muita consideração para o que cada aplicativo está fazendo. Isso significa que se você estiver em uma chamada de conferência do Skype com seu chefe e seus filhos começarem a assistir ao Netflix, a qualidade da sua chamada do Skype pode cair. O roteador está fazendo o possível para compartilhar a largura de banda disponível entre os dois serviços, sem realmente considerar qual é “mais importante”

Vejamos as diferentes maneiras de fazer isso e quais você deve usar. O DD-WRT usa um sistema de “prioridade”, permitindo que você diga quais serviços ou dispositivos são mais importantes. Os valores de prioridade são:

Máximo: 60% – 100%

Premium: 25% – 100%

Expresso: 10% – 100%

Padrão: 5% – 100%

Em massa: 1% – 100%

Esses valores determinam a quantidade de largura de banda alocada para um determinado aplicativo ou dispositivo. Por exemplo, se você definir um serviço como “Máximo”, estará dizendo “Quero que este serviço tenha pelo menos 60% da largura de banda, mesmo quando a rede estiver ocupada, e 100% quando não estiver”. Se você definir um serviço para “Bulk”, você está dizendo “Não me importo se este serviço usa muita largura de banda quando a rede está ociosa, mas quando as coisas estão ocupadas, ele obtém apenas 1% da largura de banda disponível”.

Como enfatizamos acima, seja criterioso na aplicação das regras de qualidade de serviço.

Priorizar por serviço

Se você deseja que todos os dispositivos em sua rede tenham acesso prioritário a um determinado aplicativo ou serviço, você pode criar uma regra de prioridade de serviço em toda a rede. Digamos que, para fins de exemplo, você queira garantir que o Netflix tenha prioridade sobre coisas menos sensíveis à largura de banda, como navegação geral na web. Você deve primeiro selecionar o serviço no menu suspenso, conforme mostrado abaixo, e então clicar em “Adicionar”.

Depois que o serviço estiver listado, selecione a prioridade que deseja usar para ele.

Priorizar por interface

No jargão de rede, uma “interface” é o método pelo qual seu dispositivo é conectado à rede. Você pode priorizar sua rede Ethernet local, pode priorizar conexões sem fio ou pode até mesmo definir regras que tornem o tráfego de rede convidado uma prioridade baixa.

Vejamos como podemos tornar o tráfego de rede convidado uma prioridade baixa. No menu suspenso, selecionaremos “wl0.1” que, em abreviação de rede, é Wireless LAN # 0 Virtual Network 1. Clique em “Add”.

Depois de adicionar a interface, você pode especificar a velocidade máxima de upload / download e até mesmo priorizar os serviços na conexão específica, como pode ser visto na captura de tela abaixo.

A prioridade da interface é, por causa do conhecimento necessário dos esquemas de nomenclatura de rede misteriosa, um dos sistemas de prioridade mais difíceis de usar. Se você não tiver certeza de qual interface de rede é qual, recomendamos apenas deixar esta seção de lado. Você pode ler sobre interfaces de rede no wiki DD-WRT aqui.

Priorize por dispositivo com endereços IP

Digamos que você queira dar prioridade a um dispositivo específico, como seu computador de trabalho, o tempo todo. Se você usar endereços IP estáticos ou reservas DHCP em sua rede, poderá priorizar o tráfego em determinados computadores e dispositivos usando seus endereços IP. Muitos roteadores permitem isso, e o DD-WRT vai além, permitindo que você priorize um grupo de endereços IP com uma “máscara de rede”.

Digamos, por exemplo, que você deseja que seu servidor doméstico, localizado no endereço IP estático de 10.0.0.200, tenha o acesso de maior prioridade à sua rede. Você deve inserir o endereço na seção Netmask Priority e anexar o final com 32, conforme mostrado abaixo.

O elemento 32 é a máscara de rede. A discussão detalhada sobre o uso da máscara de rede está um pouco além do escopo deste tutorial, mas basta dizer que uma máscara / 32 é a abreviação de máscara de rede para “resolver apenas este único endereço IP”. Qualquer outro número menor permitirá que a máscara abranja um número maior de endereços em um determinado bloco (por exemplo, 10.0.0.200/24 ​​faria com que a regra de qualidade de serviço se aplicasse a todos os 254 endereços potenciais no bloco 10.0.0. *) . Você pode consultar este guia de referência rápida de máscara de rede para selecionar um número que funcione para a seção e tamanho do bloco de endereço que deseja priorizar.

Se você achar o sistema de máscara de rede um pouco confuso (não é exatamente intuitivo), é melhor apenas manter / 32 e inserir manualmente cada endereço IP.

Depois de clicar em “Adicionar”, você pode atribuir acesso prioritário ao endereço, como na seção anterior.

Priorize por dispositivo com endereços MAC

Se você não usa endereços IP estáticos em sua rede, ainda pode priorizar determinados computadores e dispositivos com seus endereços MAC. Consulte este guia para obter informações sobre como encontrar o endereço MAC de seus dispositivos – ele estará em uma etiqueta física anexada ao dispositivo ou em algum lugar nas configurações do software.

Com o endereço MAC em mãos, basta inseri-lo na seção de prioridade MAC, clicar em Adicionar e atribuir uma prioridade ao dispositivo como fizemos nas seções anteriores.

Agora, independentemente do endereço IP que seu roteador atribuir, digamos, você pode garantir que seu laptop de trabalho sempre terá prioridade.

Finalmente: Teste e Avalie

A melhor coisa que você pode fazer para minimizar a frustração com sua experiência de configuração de QoS é, como enfatizamos acima, desacelerar. Defina uma regra para um item caro e, em seguida, use sua rede normalmente.

Tudo corre melhor? Excelente! Você Terminou! As coisas ainda precisam de um pouco de ajuste fino? Retorne ao painel de controle de QoS. Verifique suas configurações, ajuste a forma como você alocou a largura de banda e, se necessário, crie uma regra de QoS.

Quando você encontrar a configuração Excelente que mantém sua rede funcionando sem problemas e sem travamentos, por todos os meios anote as configurações que você usou e faça algumas capturas de tela (melhor ainda, faça backup da configuração do roteador se o roteador suportar). Manter o controle das configurações do seu roteador não é bom apenas para migrar para um novo roteador, é ótimo para configurar tudo rapidamente se você precisar reinicializar o roteador no futuro.

Padrões USB e suas diferenças e semelhanças

Padrões USB e suas diferenças e semelhanças

Os padrões USB e suas especificações podem ser um pouco difíceis de entender, especialmente depois de muitas atualizações. Vamos examinar a diferença entre USB 3.1 Gen 1 e Gen 2 e falar sobre porque Gen 2 é melhor do que Gen 1, além de fornecer outras informações úteis que permitirão que você entenda tudo o que você precisa saber sobre os padrões USB.

O USB 3.0 foi lançado há mais de dez anos em 2008 e foi a terceira grande revisão do padrão USB. Foi uma grande melhoria em relação ao USB 2.0, que chegou pela primeira vez em 2000 com velocidades de transferência de apenas 480 Mbit/s. Desde então, mudamos do USB 3.0, que agora é conhecido como USB 3.1 Gen 1. Portanto, USB 3.0 é a mesma coisa que USB 3.1 Gen 1.

USB-IF, a organização responsável por manter as especificações e conformidade do USB (Universal Serial Bus), fez isso para tornar mais fácil para os desenvolvedores e fabricantes terem as mesmas informações relevantes, para ajudar a garantir que os produtos sejam desenvolvidos adequadamente para serem compatíveis com as versões anteriores. Esta organização é responsável pelas convenções de nomenclatura encontradas em cabos e dispositivos USB.

  • Velocidade de transferência – USB 3.0 adiciona um novo tipo de transferência chamado SuperSpeed ​​ou SS, 5 Gbit / s (eletricamente, é mais semelhante a PCI Express 2.0 e SATA do que USB 2.0) [9]
  • Largura de banda aumentada – USB 3.0 usa dois caminhos de dados unidirecionais em vez de apenas um: um para receber dados e outro para transmitir
  • Gerenciamento de energia – os estados de gerenciamento de energia do link U0 a U3 são definidos
  • Melhor uso do barramento – um novo recurso é adicionado (usando os pacotes NRDY e ERDY) para permitir que um dispositivo notifique de forma assíncrona o host de sua prontidão, sem necessidade de pesquisa
  • Suporte para mídia rotativa – o protocolo em massa é atualizado com um novo recurso chamado Protocolo de fluxo que permite muitos fluxos lógicos dentro de um terminal

O USB 3.0 tem velocidades de transmissão de até 5 Gbit/s, cerca de dez vezes mais rápido do que o USB 2.0 (0,48 Gbit/s ou 480 Mbp/s), mesmo sem considerar que o USB 3.0 é full duplex enquanto o USB 2.0 é half duplex . Isso dá ao USB 3.0 uma largura de banda bidirecional total potencial vinte vezes maior do que o USB 2.0.

USB 3.1 Gen 1 vs USB 3.1 Gen 2

A diferença entre USB 3.1 Gen 1 e USB 3.1 Gen 2 é apenas em termos de velocidade. O USB 3.1 Gen 1 suporta velocidades de até 5 Gbit/s, enquanto o USB 3.1 Gen 2 suporta velocidades de até 10 Gbit/s. O USB-IF planejou originalmente usar um conjunto de nomes diferentes para USB 3.1 Gen 1 e USB 3.1 Gen 2 para fins de marketing. Eles queriam nomear USB 3.1 Gen 1 “SuperSpeed ​​USB” e Gen 2 “SuperSpeed ​​USB +”, mas a indústria nunca pegou estes nomes. Frequentemente, os OEMs adicionam velocidades de 5 Gbps ou 10 Gbps às suas tabelas de especificações para diferenciar entre os dois padrões USB. O restante da indústria simplesmente se refere a eles como “USB 3.1 Gen 1” ou “USB 3.1 Gen 2”.

Chegada do USB 3.2

Desde então, a tecnologia USB avançou ainda mais com o USB 3.2 chegando em 2017. Existem quatro variações diferentes do USB 3.2 com seus próprios nomes e significados especiais. Quatro variações do USB 3.2 são:

 USB 3.2USB 3.2USB 3.2 
USB 3.2Gen 1×2Gen 2×1Gen 2×2 
Gen 1×1    
Velocidade de Transferencia5Gbps10Gbps10Gbps20Gbps
Versão AnteriorUSB 3.1 Gen 1USB 3.1 Gen 2
Conhecida Comoand USB 3.0
Opções de InterfaceUSB-A, USB-C,USB-C OnlyUSB-A, USB-C,USB-C Only
microUSBmicroUSB

Com a chegada do USB 3.2, a conexão USB-A dominante da indústria estava começando a ser eliminada em favor do USB-C. Como o USB-C suporta velocidades de transferência de dados mais altas e pode carregar outros dispositivos periféricos mais rápido, ele se tornou naturalmente o conector USB principal utilizando USB 3.2 Gen 2.

Logotipo da Thunderbolt

Thunderbolt ™ é a marca da interface de hardware desenvolvida pela Intel® em colaboração com a Apple® e conecta dispositivos periféricos a um computador. Thunderbolt 1 e 2 usam o mesmo conector que Mini DisplayPort (MDP), enquanto Thunderbolt 3 usa o conector USB-C.

USB4 é o próximo

Telefone Android com uma unidade flash USB-C conectada sentado em um teclado de laptop

O próximo avanço na tecnologia USB será o USB4. Ele oferecerá velocidades de transferência de dados de 40 Gbit / s, compatibilidade Thunderbolt 3 e usará apenas o conector USB-C. O USB4 visa aumentar a largura de banda e se concentra na convergência do ecossistema de conectores USB-C e em minimizar a confusão do usuário final.

Vários designs principais do USB4 incluem:

Funcionalidade de exibição, dados e carga / armazenamento com o uso de um único conector USB-C

Universalmente compatível com os produtos USB e Thunderbolt existentes

Defina os recursos de porta para uma experiência de usuário previsível e consistente

Aumente a flexibilidade do host para configurar largura de banda, gerenciamento de energia e outros parâmetros relacionados ao desempenho para as necessidades do sistema

O USB percorreu um longo caminho desde quando foi introduzido pela primeira vez e continuará a avançar no futuro. Quando se trata de USB 3.1 Gen 1 e Gen 2, a única diferença é a velocidade e eles são compatíveis com versões anteriores de USB 3.0 e USB 2.0. No futuro, com as novas gerações de padrões USB e a chegada do USB-C, haverá melhorias ainda melhores.

Arquitetura e recursos 

No USB 3.0, a arquitetura de barramento duplo é usada para permitir que as operações de USB 2.0 (Full Speed, Low Speed ​​ou High Speed) e USB 3.0 (SuperSpeed) ocorram simultaneamente, fornecendo assim compatibilidade com versões anteriores . A topologia estrutural é a mesma, consistindo em uma topologia em estrela em camadas com um hub raiz no nível 0 e hubs em níveis inferiores para fornecer conectividade de barramento aos dispositivos.

Transferência de dados e sincronização

A transação SuperSpeed ​​é iniciada por uma solicitação do host, seguida por uma resposta do dispositivo. O dispositivo aceita a solicitação ou a rejeita; se aceito, o dispositivo envia dados ou aceita dados do host. Se o ponto de extremidade for interrompido, o dispositivo responde com um handshake STALL. Se houver falta de espaço de buffer ou dados, ele responde com um sinal de Não Pronto (NRDY) para informar ao host que não pode processar a solicitação. Quando o dispositivo está pronto, envia um Endpoint Ready (ERDY) ao host, que então reprograma a transação.

O uso de unicast e a quantidade limitada de pacotes multicast , combinados com notificações assíncronas, permite que links que não estão passando pacotes ativamente sejam colocados em estados de energia reduzida, o que permite um melhor gerenciamento de energia.

Codificação de dados

O barramento “SuperSpeed” fornece um modo de transferência a uma taxa nominal de 5,0 Gbit / s, além dos três modos de transferência existentes. Levando em consideração a sobrecarga de codificação, a taxa de transferência de dados brutos é de 4 Gbit / s, e a especificação considera razoável atingir 3,2 Gbit / s (400 MB / s) ou mais na prática. 

Todos os dados são enviados como um fluxo de segmentos de oito bits (um byte) que são embaralhados e convertidos em símbolos de 10 bits por meio da codificação 8b / 10b ; isso ajuda o receptor a decodificar corretamente, mesmo na presença de interferência eletromagnética (EMI). O embaralhamento é implementado usando um registro de deslocamento de feedback linear de execução livre (LFSR). O LFSR é reiniciado sempre que um símbolo COM é enviado ou recebido. 

Ao contrário dos padrões anteriores, o padrão USB 3.0 não especifica um comprimento máximo de cabo, exigindo apenas que todos os cabos atendam a uma especificação elétrica: para cabeamento de cobre com fios AWG 26, o comprimento prático máximo é de 3 metros (10 pés)

Tal como acontece com as versões anteriores do USB, o USB 3.0 fornece energia a 5 volts nominal. A corrente disponível para dispositivos SuperSpeed ​​de baixa potência (uma unidade de carga) é 150 mA, um aumento em relação aos 100 mA definidos no USB 2.0. Para dispositivos SuperSpeed ​​de alta potência, o limite é de seis unidades de carga ou 900 mA (4,5 W ) – quase duas vezes os 500 mA do USB 2.0.

As portas USB 3.0 podem implementar outras especificações USB para aumentar a potência, incluindo a Especificação de carregamento de bateria USB para até 1,5 A ou 7,5 W ou, no caso de USB 3.1, a Especificação de entrega de energia USB para carregar o dispositivo host de até 100 W .

USB 3.0
Logotipo certificado SuperSpeed ​​+ USB 10 Gbps
ModeloUSB
História de produção
ProjetadoNovembro de 2010; 11 anos atrás
FabricanteGrupo de promotores de USB 3.0 ( Hewlett-Packard , Intel , Microsoft , NEC , ST-Ericsson e Texas Instruments ) [1]
SuplantadaUSB 2.0 de alta velocidade
Substituída porUSB 3.1 (julho de 2013)
Especificações Gerais
Comprimento12 mm (plugue A), 12 mm (plugue B)
Largura12 mm (plugue A), 8 mm (plugue B), 12,2 mm (plugues Micro-A e Micro-B)
Altura4,5 mm (plugue A), 10,44 mm (plugue B), 1,8 mm (plugues Micro-A e Micro-B)
Alfinetes9
Elétrico
Máx. atual900 mA
Dados
Sinal de dadossim
Taxa de bits5 Gbit/s (625 MB/s)

Disponibilidade 

Diagrama, Esquemático

Descrição gerada automaticamente

Placa de circuito interno e conectores de um hub USB 3.0 de quatro portas, usando um chipset VIA Technologies

O USB 3.0 Promoter Group anunciou em 17 de novembro de 2008 que a especificação da versão 3.0 foi concluída e fez a transição para o USB Implementers Forum (USB-IF), o órgão gestor das especificações USB. [14] Esta mudança efetivamente abriu a especificação para desenvolvedores de hardware para implementação em produtos futuros.

Os primeiros produtos de consumo USB 3.0 foram anunciados e enviados pela Buffalo Technology em novembro de 2009, enquanto os primeiros produtos de consumo USB 3.0 certificados foram anunciados em 5 de janeiro de 2010, no Las Vegas Consumer Electronics Show (CES), incluindo duas placas-mãe da Asus e Gigabyte Tecnologia . [15] [16]

Os fabricantes de controladores de host USB 3.0 incluem, mas não estão limitados a, Renesas Electronics , Fresco Logic, ASMedia , Etron, VIA Technologies , Texas Instruments , NEC e Nvidia . Em novembro de 2010, Renesas e Fresco Logic [17] passaram a certificação USB-IF. Motherboards para Intel ‘s Sandy Bridge processadores têm sido vistos com controladores de host ASMedia e Etron também. Em 28 de outubro de 2010, a Hewlett-Packard lançou o HP Envy 17 3D apresentando um controlador de host Renesas USB 3.0 vários meses antes de alguns de seus concorrentes. AMDtrabalhou com a Renesas para adicionar sua implementação USB 3.0 em seus chipsets para suas plataformas de 2011. precisa de atualização ] No CES2011, a Toshiba revelou um laptop chamado ” Toshiba Qosmio X500″ que incluía USB 3.0 e Bluetooth 3.0 , e a Sony lançou uma nova série de laptops Sony VAIO que incluiria USB 3.0. Em abril de 2011, as séries Inspiron e Dell XPS estavam disponíveis com portas USB 3.0 e, em maio de 2012, a série de laptops Dell Latitude também; ainda assim, os hosts raiz USB não funcionaram no SuperSpeed ​​no Windows 8.

Somando-se o equipamento existente 

A energia adicional para várias portas em um laptop pode ser obtida das seguintes maneiras:

  • Alguns adaptadores ExpressCard -para-USB 3.0 podem ser conectados por um cabo a uma porta USB 2.0 adicional no computador, que fornece energia adicional.
  • O ExpressCard pode ter um soquete para uma fonte de alimentação externa.
  • Se o dispositivo externo tiver um conector apropriado, ele pode ser alimentado por uma fonte de alimentação externa .
  • A porta USB 3.0 fornecida por um adaptador ExpressCard-para-USB 3.0 pode ser conectada a um hub USB 3.0 alimentado separadamente, com dispositivos externos conectados a esse hub USB 3.0.

Nas placas-mãe de PCs desktop que possuem slots PCI Express (PCIe) (ou o padrão PCI mais antigo ), o suporte USB 3.0 pode ser adicionado como uma placa de expansão PCI Express . Além de um slot PCIe vazio na placa-mãe, muitas placas de expansão “PCI Express para USB 3.0” devem ser conectadas a uma fonte de alimentação, como um adaptador Molex ou fonte de alimentação externa, para alimentar muitos dispositivos USB 3.0, como telefones celulares ou discos rígidos externos que não possuem fonte de alimentação diferente de USB; a partir de 2011, isso costumava ser usado para fornecer de duas a quatro portas USB 3.0 com 0,9 A (4,5 W) de potência total de que cada porta USB 3.0 é capaz (ao mesmo tempo que transmite dados), enquanto o slot PCI Express em si não pode fornecer a quantidade necessária de energia.

Se conexões mais rápidas com dispositivos de armazenamento são o motivo para considerar o USB 3.0, uma alternativa é usar eSATAp , possivelmente adicionando um suporte de slot de expansão barato que fornece uma porta eSATAp; algumas unidades de disco rígido externas fornecem interfaces USB (2.0 ou 3.0) e eSATAp.  Para garantir a compatibilidade entre placas-mãe e periféricos, todos os dispositivos USB certificados devem ser aprovados pelo USB Implementers Forum (USB-IF). Pelo menos um sistema de teste ponta a ponta completo para designers de USB 3.0 está disponível no mercado.

Adoção 

O USB Promoter Group anunciou o lançamento do USB 3.0 em novembro de 2008. Em 5 de janeiro de 2010, o USB-IF anunciou as duas primeiras placas-mãe USB 3.0 certificadas, uma da ASUS e outra da Giga-Byte Technology. Anúncios anteriores incluíam a lista de outubro de 2009 da Gigabyte de sete placas-mãe com chipset P55 USB 3.0, e uma placa-mãe Asus que foi cancelada antes da produção.

Esperava-se que os controladores comerciais entrassem em produção de volume no primeiro trimestre de 2010. [22] Em 14 de setembro de 2009, a Freecom anunciou um disco rígido externo USB 3.0. [23] Em 4 de janeiro de 2010, a Seagate anunciou um pequeno HDD portátil empacotado com um ExpressCard USB 3.0 adicional , direcionado para laptops (ou desktops com entrada ExpressCard) na CES em Las Vegas Nevada.

linha principal do kernel Linux contém suporte para USB 3.0 desde a versão 2.6.31, que foi lançada em setembro de 2009. 

O FreeBSD suporta USB 3.0 desde a versão 8.2, que foi lançada em fevereiro de 2011. 

O Windows 8 foi o primeiro sistema operacional da Microsoft a oferecer suporte integrado para USB 3.0. No Windows 7, o suporte não foi incluído no lançamento inicial do sistema operacional. No entanto, os drivers que habilitam o suporte para Windows 7 estão disponíveis em sites de fabricantes de hardware.

A Intel lançou seu primeiro chipset com portas USB 3.0 integradas em 2012 com o lançamento do chipset Panther Point . Alguns analistas da indústria afirmam que a Intel demorou a integrar o USB 3.0 ao chipset, retardando assim a adoção do mainstream. Esses atrasos podem ser devido a problemas no processo de fabricação do CMOS , [33] um foco para o avanço da plataforma Nehalem , uma espera para amadurecer todos os padrões de conexão 3.0 (USB 3.0, PCIe 3.0 , SATA 3.0 ) antes desenvolver um novo chipset, ou uma tática da Intel para favorecer seu novo Thunderboltinterface. Apple, Inc. anunciou laptops com portas USB 3.0 em 11 de junho de 2012, quase quatro anos depois que o USB 3.0 foi finalizado.

A AMD começou a oferecer suporte ao USB 3.0 com seus Fusion Controller Hubs em 2011. A Samsung Electronics anunciou o suporte do USB 3.0 com sua plataforma Exynos 5 Dual baseada em ARM destinada a dispositivos portáteis.

Pinagem 

O conector tem a mesma configuração física de seu predecessor, mas com mais cinco pinos.

Os pinos VBUS, D−, D + e GND são necessários para comunicação USB 2.0. Os pinos USB 3.0 adicionais são dois pares diferenciais e um terra (GND_DRAIN). Os dois pares diferenciais adicionais são para transferência de dados SuperSpeed; eles são usados ​​para sinalização SuperSpeed ​​full duplex. O pino GND_DRAIN é para a terminação do fio dreno e para controlar a EMI e manter a integridade do sinal.

Pinagem do conector USB 3.0
AlfineteCorNome do sinalDescrição
Um conectorConector B
ConchaN / DEscudoCarcaça de metal
1vermelhoVBUSPoder
2BrancoD−Par diferencial USB 2.0
3VerdeD +
4PretoGNDTerra para retorno de energia
5AzulStdA_SSRX−StdB_SSTX−Par diferencial de receptor SuperSpeed
6AmareloStdA_SSRX +StdB_SSTX +
7N / DGND_DRAINTerra para retorno de sinal
8RoxaStdA_SSTX−StdB_SSRX−Par diferencial do transmissor SuperSpeed
9laranjaStdA_SSTX +StdB_SSRX +
O conector USB 3.0 Powered-B tem dois pinos adicionais para alimentação e aterramento fornecidos ao dispositivo. [53]
10N / DDPWREnergia fornecida ao dispositivo (Powered-B apenas)
11DGNDTerra para retorno DPWR (Powered-B apenas)

Compatibilidade com versões anteriores

Os plugues e receptáculos USB 3.0 e USB 2.0 (ou anterior) Tipo A são projetados para interoperar.

Os receptáculos USB 3.0 Tipo-B, como os encontrados em dispositivos periféricos, são maiores do que em USB 2.0 (ou versões anteriores) e aceitam o plugue USB 3.0 Tipo-B maior e o menor USB 2.0 (ou anterior) Tipo-B plugue. Os plugues USB 3.0 Tipo B são maiores do que os plugues USB 2.0 (ou anterior) Tipo B; portanto, os plugues USB 3.0 Tipo B não podem ser inseridos em receptáculos USB 2.0 (ou anteriores) Tipo B.

O plugue e receptáculo Micro USB 3.0 (Micro-B) destinam-se principalmente a pequenos dispositivos portáteis, como smartphones, câmeras digitais e dispositivos GPS. O receptáculo Micro USB 3.0 é compatível com as versões anteriores do plugue Micro USB 2.0.

Um receptáculo para eSATAp , que é um combo eSATA / USB, foi projetado para aceitar plugues USB Tipo-A de USB 2.0 (ou anterior), portanto, também aceita plugues USB 3.0 Tipo-A.

USB 3.1

Em janeiro de 2013, o grupo USB anunciou planos para atualizar o USB 3.0 para 10 Gbit / s (1250 MB / s).  O grupo acabou criando uma nova especificação USB, USB 3.1, que foi lançada em 31 de julho de 2013,  substituindo o padrão USB 3.0. A especificação USB 3.1 assume a existente USB 3.0 da USB SuperSpeed taxa de transferência, também referido como USB 3.1 Gen 1 , e introduz uma taxa mais rápida de transferência de chamada SuperSpeed USB 10  Gbps , referido como USB 3.1 Gen 2, colocando a par com um único canal Thunderbolt de primeira geração . O logotipo do novo modo apresenta uma legenda estilizada como SUPERSPEED +. O padrão USB 3.1 Gen 2 também reduz a sobrecarga de codificação de linha para apenas 3%, alterando o esquema de codificação para 128b / 132b , com taxa de dados efetiva de 1.212 MB / s. A primeira implementação do USB 3.1 Gen 2 demonstrou velocidades de transferência no mundo real de 7,2 Gbit/s.

O padrão USB 3.1 é compatível com versões anteriores de USB 3.0 e USB 2.0. Ele define os seguintes modos de transferência:

  • USB 3.1 Gen 1  – SuperSpeed, taxa de sinalização de dados de 5 Gbit / s em 1 via usando codificação 8b / 10b (efetivo 500 MB / s); o mesmo que USB 3.0
  • USB 3.1 Gen 2  – SuperSpeed ​​+, nova taxa de dados de 10 Gbit / s em 1 pista usando codificação 128b / 132b (efetivo 1212 MB / s)

A taxa de dados nominal em bytes é responsável pela sobrecarga de codificação de bits. A taxa de bits SuperSpeed ​​física é de 5 Gbit / s. Uma vez que a transmissão de cada byte leva 10 bits, a sobrecarga de dados brutos é de 20%, então a taxa de bytes é 500 MB / s, não 625. Da mesma forma, na taxa SS + a codificação é 128b / 132b, então a transmissão de 16 bytes leva fisicamente 16,5 bytes ou 3% de sobrecarga. Portanto, a taxa de bytes em SS + é 128/132 * 10 Gbit / s = 9,697 GBit / s = 1212 MB / s. Na realidade, o barramento SS tem alguma sobrecarga de serviço adicional (gerenciamento de link, resposta de protocolo, latências de host), portanto, as taxas de dados alcançáveis ​​no melhor caso são cerca de 10% menores. citação necessária ]

Essa mudança da marca USB 3.0 como “USB 3.1 Gen 1” permitiu que os fabricantes anunciassem produtos com taxas de transferência de apenas 5 Gbit / s como “USB 3.1”, omitindo a geração.

USB 3.2 

Em 25 de julho de 2017, um comunicado à imprensa do USB 3.0 Promoter Group detalhou uma atualização pendente para a especificação USB Type-C , definindo a duplicação da largura de banda para os cabos USB-C existentes. De acordo com a especificação USB 3.2, lançada em 22 de setembro de 2017, os cabos USB-C 3.1 Gen 1 existentes com certificação SuperSpeed ​​serão capazes de operar a 10 Gbit / s (acima de 5 Gbit / s) e USB-C 3.1 com certificação SuperSpeed ​​+ Os cabos Gen 2 serão capazes de operar a 20 Gbit / s (acima de 10 Gbit / s). O aumento na largura de banda é resultado da operação em várias pistas sobre os fios existentes que foram projetados para recursos de flip-flop do conector USB-C.

O padrão USB 3.2 é compatível com versões anteriores de USB 3.1 / 3.0 e USB 2.0. Ele define os seguintes modos de transferência:

  • USB 3.2 Gen 1  – SuperSpeed, taxa de sinalização de dados de 5 gigabit por segundo (Gbit / s) em 1 via usando codificação 8b / 10b (efetivo 0,500 GB / s), o mesmo que USB 3.1 Gen 1 e USB 3.0.
  • USB 3.2 Gen 2  – SuperSpeed ​​+,  taxa de dados de 10 gigabit por segundo (Gbit / s) em 1 pista usando codificação 128b / 132b (efetivo 1.212 GB / s), o mesmo que USB 3.1 Gen 2.
  • USB 3.2 Gen 1 × 2  – SuperSpeed ​​+, nova taxa de dados de 10 gigabit por segundo (Gbit / s) em 2 pistas usando codificação 8b / 10b (efetivo 1 GB / s).
  • USB 3.2 Gen 2 × 2  – SuperSpeed ​​+, nova taxa de dados de 20 gigabit por segundo (Gbit / s) em 2 pistas usando codificação 128b / 132b (efetivo 2.424 GB / s).

Como na versão anterior, aplicam-se as mesmas considerações sobre codificação e taxas de dados efetivas. Embora ambos Gen 1 × 2 e Gen 2 × 1 sinalizem a 10 Gbit / s, Gen 1 × 2 usa a codificação de linha mais antiga e menos eficiente, o que resulta em uma velocidade efetiva um pouco mais baixa.

Em maio de 2018, a Synopsys demonstrou a primeira conexão USB 3.2 Gen 2 × 2, onde um PC Windows foi conectado a um dispositivo de armazenamento, atingindo uma velocidade média de 1600 MB / s. 

O USB 3.2 é compatível com os drivers USB padrão do Windows 10 e nos kernels Linux 4.18 e posteriores. 

Em fevereiro de 2019, o USB-IF simplificou as diretrizes de marketing e exigiu que os logotipos SuperSpeed ​​trident incluíssem a velocidade máxima de transferência. 

Modos de transferência USB 3.2

Nome de marketing recomendado para USB-IF 
Logo [57]Modo de transferênciaEspecificações mais antigasPista duplaCodificaçãoVelocidade nominalConectores [70]
SuperSpeed ​​USB 5 GbpsUSB 3.2 Gen  1 × 1USB  3.1 Gen  1, USB  3.0Não8b / 10b5  Gbit / s ou 0,5  GB / sUSB-A, B, micro  B e USB-C
SuperSpeed ​​USB 10 GbpsUSB 3.2 Gen  2 × 1USB  3.1 Gen  2, USB  3.1Não128b / 132b10  Gbit / s ou 1,2  GB / sUSB-A, B, micro  B e USB-C
N / DUSB 3.2 Gen  1 × 2sim8b / 10b10  Gbit / s ou 1  GB / sUSB-C
SuperSpeed ​​USB 20 GbpsUSB 3.2 Gen  2 × 2sim128b / 132b20  Gbit / s ou 2,4  GB / sUSB-C

Referências editar ]

  1. “Perguntas freqüentes (FAQ) sobre o Intel Universal Serial Bus (USB)” . Intel.com . Intel Corporation . Retirado em 26 de dezembro de 2014 .
    1. “Especificação da revisão 3.1 do barramento serial universal” . USB.org . Fórum de implementadores de USB. pp. 5–20. Arquivado do original (ZIP) em 12 de abril de 2016 . Retirado em 12 de abril de 2016 .
    1. ^ McFedries, Paul (2013). “Conexão de dispositivos USB”. PCs para adultos: Obtendo o máximo do seu computador com Windows 8 . Indianapolis: Que Publishing. ISBN 978-0-13-303501-8. Retirado em 18 de fevereiro de 2016 – via Internet Archive. A maioria dos fabricantes de PC rotula cada porta USB usando o logotipo do tipo USB … o logotipo USB 2.0 é um tridente, enquanto o logotipo USB 3.0 é um tridente semelhante com as letras ‘SS’ (que significa SuperSpeed) anexadas.
    1. Vá até:b “Diretrizes de uso da linguagem de especificação USB 3.1 de USB-IF”(PDF). USB.org. Fórum de implementadores de USB. 28 de maio de 2015. Arquivo dooriginal(PDF)em 12 de março de 2016. Retirado em 10 de março de 2016.
    1. “USB 3.1 Gen 1 e Gen 2 explicado” . MSI.com . Micro-Star International . 5 de agosto de 2015.
    1. “Especificação de USB 3.2” . USB.org . Fórum de implementadores de USB . Retirado em 30 de agosto de 2018 .
    1. “Especificação da revisão 3.1 do barramento serial universal” . USB.org . Fórum de implementadores de USB. Arquivado do original (ZIP) em 21 de novembro de 2014 . Retirado em 19 de novembro de 2014 .
    1. ^ https://usb.org
    1. ^ Engbretson, Mike (janeiro de 2009). “Medições da camada física USB 3.0” . Engenharia de avaliação . Retirado em 31 de janeiro de 2013 .
    1. “Tecnologia USB 3.0” (PDF) . hp.com. 2012. Arquivado do original (PDF) em 3 de janeiro de 2014 . Retirado em 2 de janeiro de 2014 .
    1. Vá até:d “Especificação da Revisão 3.0 do Universal Serial Bus”. Arquivado dooriginalem 19 de maio de 2014. Retirado em 19 de maio de 2014.
    1. ^ Axelson, janeiro . “Perguntas frequentes para desenvolvedores de USB 3.0” . JanAxelson.com . Página visitada em 14 de novembro de 2018 .
    1. “USB Power Delivery Specification 1.0” (PDF) . Arquivado do original (PDF) em 4 de abril de 2016 . Retirado em 14 de novembro de 2015 .
    1. “USB-IF” (PDF) . USB.org . Fórum de implementadores de USB. 17 de novembro de 2008. Arquivo do original (PDF) em 31 de março de 2010 . Página visitada em 22 de junho de 2010 .
    1. “Anunciados os primeiros produtos USB 3.0 certificados” . PC World . 7 de janeiro de 2010 . Página visitada em 22 de junho de 2010 .
    1. Vá até:c “SuperSpeed ​​USB Consumer Cert Final 2”(PDF). USB.org. Fórum de implementadores de USB. Arquivado dooriginal(PDF)em 2 de abril de 2012. Página visitada em 24 de junho de 2011.
    1. “USB-IF anuncia segundo controlador host USB 3.0 certificado” (comunicado à imprensa). USB Implementers Forum, Inc. 16 de novembro de 2010 . Retirado em 30 de agosto de 2018 .
    1. “USB 3” . Lecroy . Página visitada em 22 de junho de 2010 .
    1. “Anunciados os primeiros produtos de consumo USB Superspeed certificados” (PDF) (comunicado à imprensa). Fórum de implementadores de USB. 5 de janeiro de 2010. Arquivado do original (PDF) em 14 de janeiro de 2010.
    1. “Placas-mãe USB 3.0” . Gigabyte.com . Indianápolis: Tecnologia Gigabyte . Arquivado do original em 1 ° de junho de 2010 . Página visitada em 14 de outubro de 2019 ..
    1. “A Asus cancela sua primeira placa-mãe USB 3.0” . The Inquirer . Arquivado do original em 30 de julho de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Digitimes” . 15 de março de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Freecom.com” . Arquivado do original em 17 de junho de 2010 . Página visitada em 22 de junho de 2010 .
    1. ^ Ngo, Dong (5 de janeiro de 2010). “A Seagate fornece um kit de disco rígido externo baseado em USB 3.0 para laptops | CES” . CNET . Página visitada em 22 de junho de 2010 .
    1. “BlackArmor PS 110 com USB 3.0 | Disco rígido portátil para empresas com software de backup” . Seagate. Arquivado do original em 15 de agosto de 2010 . Retirado em 18 de janeiro de 2014 .
    1. “Novatos do kernel” . 9 de setembro de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Erste USB 3.0 Treiber” [Primeiros drivers USB 3 que vêm com o Linux 2.6.31]. Heise Online (em alemão). Alemanha: Heise Medien. 3 de dezembro de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Primeiro driver para USB 3.0” . Revista Linux. 9 de junho de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Notas de lançamento do FreeBSD 8.2-RELEASE” . FreeBSD.org . 13 de novembro de 2013 . Retirado em 5 de agosto de 2015 .
    1. ^ McVay, Bob (15 de setembro de 2011). “Compreendendo o USB 3.0 no Windows 8 | Build2011 | Canal 9” . Channel9.MSDN.com . Retirado em 19 de janeiro de 2014 .
    1. “USB no MS Windows 7 mais confiável, mas sem aumento de velocidade 3.0” . APCMag.com . Página visitada em 22 de junho de 2010 .
    1. ^ Crothers, Brooke (7 de março de 2010). “Longo atraso esperado para o suporte da Intel para USB 3.0 | Nanotech – The Circuits Blog” . CNet News . Retirado em 19 de janeiro de 2014 .
    1. “Spekulationen über Verzögerungen bei USB 3.0” . Heise Online (em alemão). Alemanha: Heise Medien.
    1. ^ Mah, Paul (23 de outubro de 2009). “Fiercecio.com” . Página visitada em 22 de junho de 2010 .
    1. “FAQ – PCI Express 3.0” . PCISIG.com . Grupo de interesse especial de interconexão de componentes periféricos. 1 ° de julho de 2009 . Página visitada em 22 de junho de 2010 .
    1. “Especificação PCIe 3.0 em breve” . Fórum de armazenamento corporativo . 5 de maio de 2010. Arquivado do original em 10 de julho de 2011 . Página visitada em 22 de junho de 2010 .
    1. “Intel adia suporte USB 3.0 até 2011” . TechSpot . 22 de outubro de 2009 . Página visitada em 22 de junho de 2010 .
    1. ^ TeamVR (23 de agosto de 2011). “Testes de velocidade de USB 3.0: Comparativo de controladores de host de 7 vias – Página 5 de 11” . VR-Zone.com . Retirado em 19 de janeiro de 2014 .
    1. “USB 3.0: Atualizações de firmware do Renesas Electronics USB 3.0” . DownloadCenter.Intel.com . Intel Corporation . Retirado em 19 de janeiro de 2014 . Essas atualizações de firmware resolvem os seguintes problemas relacionados às portas USB 3.0 nessas placas: • O BIOS e o sistema operacional não detectam dispositivos conectados às portas USB 3.0. • O sistema trava no código POST 58 por um minuto se algum dispositivo estiver conectado às portas USB 3.0 e, em seguida, continua o processo de inicialização. • No Gerenciador de dispositivos, o Renesas USB 3.0 eXtensible Host Controller é mostrado com um estrondo amarelo e a mensagem de erro ‘O Windows parou este dispositivo porque relatou problemas. Código 43 ‘.
    1. “NEC uPD720200 USB 3.0 não funciona no Ubuntu 12.04” . Pergunte ao Ubuntu . Rede Stack Exchange . Retirado em 19 de janeiro de 2014 .
    1. “Como melhorar a compatibilidade dos dispositivos USB3.0?” . Gigabyte.com . Tecnologia Gigabyte . Retirado em 19 de janeiro de 2014 .
    1. ^ Nilsson, Lars-Göran (30 de julho de 2010). “A Gigabyte adiciona suporte UASP às suas placas-mãe USB 3.0” . SemiAccurate . Retirado em 19 de janeiro de 2014 .
    1. ^ Nilsson, Lars-Göran (11 de agosto de 2010). “O driver UASP USB 3.0 da Gigabyte aumenta o desempenho do USB 2.0” . SemiAccurate . Retirado em 19 de janeiro de 2014 .
    1. ^ Ku, Andrew (19 de junho de 2012). “USB Attached SCSI (UAS): permitindo um desempenho ainda melhor do USB 3.0 – Desempenho mais rápido do USB 3.0: examinando o UASP e o modo turbo” . Hardware de Tom . Retirado em 19 de janeiro de 2014 .
    1. ^ Hamid, Adnan (18 de março de 2012). “Qual é a diferença entre USB UASP e BOT | Conteúdo incorporado de” . Design Eletrônico . Retirado em 22 de janeiro de 2014 .
    1. ^ Soderstrom, Thomas (9 de dezembro de 2009). “Novas placas-mãe da Asus e Gigabyte – Desempenho USB 3.0: Duas soluções da Asus e Gigabyte” . Hardware de Tom . Retirado em 22 de janeiro de 2014 .
    1. ^ Schmid, Patrick; Roos, Achim (26 de agosto de 2010). “Gigabyte P55A-UD6 e UD7 (NEC PD720200) – Nem todas as implementações de USB 3.0 são criadas da mesma forma” . Hardware de Tom . Retirado em 22 de janeiro de 2014 .
    1. ^ Os números do modelo PLX são do manual P55A-UD7, página 7 e manual Asus P7P55D-E Premium p. 2-2; o P55A-UD7 tem um diagrama de blocos na página 8
    1. “Impacto da interferência de radiofrequência do USB 3.0 em dispositivos sem fio de 2,4 GHz” (PDF) . USB.org . Fórum de implementadores de USB. Abril de 2012 . Página visitada em 14 de outubro de 2019 .
    1. “手机 厂商 阉割 Tipo C 接口 的 真相 : 影响 手机 信号! – 科技 频道 – 手机 搜狐” [A verdade sobre os fabricantes de telefones celulares que cortam a interface do tipo C: afetando os sinais dos telefones celulares!]. Sohu.com (em japonês). 2017
    1. ^ Lynn, Samara (5 de setembro de 2013). “Bruxa sem fio: a verdade sobre USB 3.0 e interferência de Wi-Fi” . PC Magazine . Retirado em 14 de julho de 2014 .
    1. “Barramento de interface USB 3.0, diagrama de cabos” . 100806 interfacebus.com
    1. “Fundo USB” . TotalPhase.com . Total Phase Corporation . Retirado em 11 de setembro de 2016 . O USB 3.0 inclui uma variante dos conectores Standard-B que possui dois condutores adicionais para fornecer energia aos adaptadores USB. Imagem cortesia de USB Implementers Forum
    1. “Desempenho SuperSpeed ​​USB (USB 3.0) para dobrar com novos recursos” (PDF) . Fórum de implementadores (comunicado à imprensa). 6 de janeiro de 2013. Arquivado do original (PDF) em 13 de janeiro de 2013.
    1. “SuperSpeed ​​USB 10 Gbps – Pronto para Desenvolvimento” (PDF) (Comunicado de imprensa). Hillsboro, Oregon. 31 de julho de 2013. Arquivo do original (PDF) em 27 de janeiro de 2016.
    1. “Cópia arquivada” (PDF) . Arquivado do original (PDF) em 12 de março de 2016 . Retirado em 10 de março de 2016 .
    1. Vá até:c “Diretrizes de utilização do logotipo USB”(PDF). USB.org. Fórum de implementadores de USB. 30 de novembro de 2018. Página visitada em 27 de fevereiro de 2019.
    1. “SuperSpeed ​​USB 10 Gbps – Pronto para Desenvolvimento” . Rock Hill Herald . Arquivado do original em 11 de outubro de 2014 . Retirado em 31 de julho de 2013 .
    1. “Synopsys demonstra a primeira transferência de dados IP de dispositivo host SuperSpeed ​​USB 10 Gbps da indústria” . News.Synopsis.com (comunicado à imprensa). Mountain View, Califórnia : Synopsys . 10 de dezembro de 2013 . Retirado em 23 de dezembro de 2013 . Conforme medido pelo Ellisys USB Explorer Protocol Analyzer, o IP obteve taxas de dados efetivas de 10  Gbps USB 3.1 de mais de 900  MBps entre dois sistemas de prototipagem Synopsys HAPS-70 baseados em FPGA ao usar conectores USB, cabos e software compatíveis com versões anteriores.
    1. ^ Bright, Peter (26 de fevereiro de 2019). “O USB 3.2 tornará a marca USB atual ainda pior” . Ars Technica . Página visitada em 27 de fevereiro de 2019 .
    1. “A especificação USB 3.2 lançada em 22 de setembro de 2017 e ECNs” . USB.org . Fórum de implementadores de USB . Setembro de 2017 . Página visitada em 14 de outubro de 2019 .
    1. ^ Saunders, Brad; Nardozza, Liz (25 de julho de 2017). “USB 3.0 Promoter Group anuncia atualização do USB 3.2” (PDF) (comunicado à imprensa). Grupo de promotores de USB 3.0. Arquivado do original (PDF) em 21 de setembro de 2017 . Recuperado em 27 de julho de 2017 – via USB.org.
    1. ^ Bright, Peter (26 de julho de 2017). “USB 3.2 tornará seus cabos duas vezes mais rápidos … assim que você comprar novos dispositivos” . Ars Technica . Retirado em 27 de julho de 2017 .
    1. Vá até:b “Synopsys mostra a primeira demonstração de USB 3.2 do mundo com velocidades de 20 Gbps”. Hardware de Tom. 25 de maio de 2018. Página visitada em 27 de maio de 2018.
    1. Vá até:b “Primeira demonstração de USB 3.2 do mundo”Synopsys. 18 de maio de 2018.Arquivadodo original em 17 de novembro de 2021. Recuperado em 27 de maio de 2018– via YouTube.
    1. “O trabalho do USB 3.2 está a caminho para o kernel do Linux 4.18” . Phoronix.com . Phoronix . Página visitada em 27 de maio de 2018 .
    1. “O padrão USB 3.2 ganha novos nomes ainda mais confusos antes de sua estreia no mainstream” . 27 de fevereiro de 2019.
    1. ^ Diretrizes de uso de linguagem de especificação de USB 3.2 de USB-IF
    1. “O novo padrão USB: USB 3.2 explicado” . Arquivado do original em 20 de fevereiro de 2020.
    1. “Documento de Conformidade de Conectores e Conjuntos de Cabos USB 3.1 Legacy Rev 1.1” . USB.org . Fórum de implementadores de USB . Página visitada em 27 de fevereiro de 2019 .

Covid-19: falta de testes aumenta taxa de letalidade no Brasil e insegurança no número real de infectados

Covid-19: falta de testes aumenta taxa de letalidade no Brasil e insegurança no número real de infectados

Índice de mortalidade da doença foi de 2,1% a 3,5% em poucos dias; aumento tem relação direta com sub notificações dos casos confirmados

Desde que a pandemia do novo Codiv-19 (coronaviruis) se espalhou pelo mundo, sua taxa de letalidade tem atingido diferentes valores nos países. No Brasil, esse valor atualmente está em 3,5%, próximo dos 3,9% da China, onde a doença começou. Porém, este número está diretamente ligado à sub notificações dos casos confirmados no país. A expectativa é que, com o aumento de testes, esse valor diminua e assim tenhamos um número mais próximo do real em nosso pais.

“Quando se usa mais extensivamente os testes, encontra-se muita gente com quadros subclínicos positivos para o coronavírus que são colocados no denominador. Isso aumenta o número de indivíduos com quadros leves, o que diminui a letalidade”, explicou Eliseu Waldman, infectologista da Universidade de São Paulo (USP) em uma reportagem ao olhar digital.

Atualmente, o Brasil só testa pacientes com casos mais graves e profissionais da saúde, gerando a sub notificação. “Nós não temos testes para todos os casos. Se tivéssemos hoje todos as casos que estão circulando Brasil afora, nós teríamos um denominador maior e uma letalidade menor. Quanto menos testes você faz, maior a letalidade”, afirmou o ministro da saúde, Luiz Henrique Mandetta em entrevista.

No início de março, a Organização Mundial da Saúde (OMS) calculou a taxa global de óbito do Sars-Cov-2 em 3,4%. Hoje, porém, esse número é calculado em 4,8%. As maiores taxas são encontradas na Itália, com 10% e na Espanha, com 8,2%.

O Brasil é um dos países que menos realiza testes para covid-19, a doença causada pelo novo coronavírus, segundo uma comparação internacional feita pela BBC News Brasil a partir de dados oficiais compilados pela Universidade de Oxford, no Reino Unido.

Até o dia 20 de abril, de acordo com o Ministério da Saúde, foram realizados 132.467 testes específicos para covid-19. Outros 56.613 estão em análise.

Os números não incluem testes realizados em hospitais e clínicas particulares, apenas na rede pública de saúde.

“O Ministério da Saúde informa que, segundo dados do Gerenciador de Ambiental Laboratorial (GAL), até 20 de abril, 189.080 exames do painel viral (vírus respiratórios diversos) foram realizados nos Laboratórios Centrais de Saúde Pública (LACEN) do país. Destes, 132.467 foram específicos para covid-19 e outros 56.613 estão em análise”, informou o órgão em nota à BBC News Brasil.

De acordo com a pasta, testes “em análise” são exames que “estão sendo processados nos laboratórios e que ainda não tiveram diagnóstico concluído”.

Isso significa que, atualmente, a proporção de testes por cada 1 mil habitantes no Brasil, considerando uma população de 210 milhões de pessoas, é de 0,63 (ou 63 por cada 100 mil habitantes).

Essa taxa é inferior à de muitos países do mundo, inclusive latino-americanos, como Cuba (2,65), Chile (6,43), Paraguai (0,83), Peru (4,44), Argentina (0,76) e Equador (1,15).

Também é muito mais baixa do que a de nações desenvolvidas, como Alemanha (25,11) e Itália (23,64), e dos Estados Unidos (12,08), o novo epicentro da pandemia, segundo a plataforma Our World In Data, da Universidade de Oxford, no Reino Unido, que compila dados oficiais de mais de 70 países e territórios. Até o momento da publicação desta reportagem, o Brasil ainda não havia sido listado porque o Ministério de Saúde brasileiro “não divulga atualizações regulares sobre testes”, disse um dos responsáveis pela coleta dos dados à BBC News Brasil.

Mas se fosse incluído no ranking, o Brasil estaria na 60ª posição entre 75 países que realizaram testes para covid-19 até 20 de abril, à frente somente da Tailândia, Filipinas, Paquistão, Marrocos, Bolívia, Índia, Senegal, México, Uganda, Nepal, Quênia, Indonésia, Bangladesh, Mianmar, Etiópia e Nigéria, respectivamente.

Lideram o ranking Islândia (127,58), Luxemburgo, Bahrein, Estônia e Israel.

Segundo a Our World In Data, “nenhum país conhece o verdadeiro número de casos de pessoas infectadas com covid-19. Tudo o que sabemos é o status da infecção daqueles que foram testados”.

“O número total de pessoas que testaram positivo – o número de casos confirmados – não é o número de pessoas que foram infectadas. O número real de pessoas infectadas com covid-19 é muito maior.”

De acordo com a plataforma, mais testes significam “dados mais confiáveis sobre casos confirmados, por dois motivos”.

“Em primeiro lugar, um maior número de testes nos fornece uma ‘amostra’ maior de pessoas das quais conhecemos o status de infecção. Se todo mundo fosse testado, saberíamos o número real de pessoas que estão infectadas.”

“Em segundo lugar, pode ser que os países com alta capacidade de teste não precisem racionar tanto os testes. Onde a capacidade de testes é baixa, os testes podem ser reservados (racionados) para grupos de alto risco. Esse racionamento é uma das razões pelas quais as pessoas testadas não são representativas da população em geral.”

“Como tal, onde a cobertura de testes é maior, a amostra de pessoas testadas pode fornecer uma deia menos tendenciosa da verdadeira prevalência do vírus.”.

Além de determinar a real extensão do contágio, especialistas acrescentam que, munidos dessas informações, governos podem formular políticas públicas mais apropriadas, isolando doentes ou grupos mais vulneráveis, de forma a evitar a propagação da doença.

Na prática, dizem eles, autoridades sanitárias saberiam quando implementar ou relaxar medidas de isolamento social, por exemplo.

“Sem saber a real dimensão da epidemia, um governo pode agir atrasado ou adiantar medidas drásticas sem que sejas necessárias”, explicou o virologista Anderson Brito, do departamento de epidemiologia da Escola de Saúde Pública da Universidade de Yale, nos Estados Unidos, em entrevista recente à BBC News Brasil.

Brasil

No Brasil, houve uma explosão de hospitalizações por insuficiência respiratória grave (SRAG). De 15 a 21 de março, foram mais de 8 mil internações, contra cerca de 1 mil no mesmo período do ano passado. Dessas apenas 780 tiveram resultado positivo para covid-19, segundo dados do Ministério da Saúde.

Em entrevistas coletivas, o órgão admitiu a falta de testes. Um dos problemas é a falta de insumos para a produção dos testes, uma vez que há uma corrida mundial de países por essas substâncias.

Ou seja, há um problema de baixa oferta e alta demanda.

Apesar disso, o novo ministro da Saúde, Nelson Teich, afirmou que não existe a possibilidade de testagem em massa da população para o novo coronavírus.

“Não tem fórmula mágica, não tem teste em massa. O que você tem que fazer é usar os testes para mapear a população de forma que sua amostra reflita o todo. Ter o dado, interpretar o dado e tomar iniciativas a partir disso é o que vai fazer toda a diferença”, disse ele, em sua primeira entrevista coletiva no comando do órgão.

Em março, a Organização Mundial da Saúde (OMS) pediu que países fizessem testes em massa em suas populações para combater a pandemia do novo coronavírus.

Na ocasião, o diretor-geral da agência, Tedros Adhanom Ghebreyesus, afirmou que testar qualquer caso suspeito de covid-19 seria essencial para identificar e isolar o máximo de pessoas infectadas e saber quem pode ter entrado em contato com elas para que se possa quebrar a cadeia de transmissão.

Um dos melhores exemplos disso veio da Coreia do Sul. O país não chegou a entrar em quarentena, como outros lugares do mundo, mas testou milhões de pessoas, o que, junto com outras medidas, reduziu drasticamente o número de novos casos e mortes.

Ranking de países por total de testes para covid-19 até 20 de abril

China diz ter desenvolvido nanomaterial que desativa novo coronavírus

China diz ter desenvolvido nanomaterial que desativa novo coronavírus

Eficiência do material seria de 96,5 e 99,9%, segundo relatório

Desde que o novo coronavírus se espalhou pelo mundo, diversos pesquisadores estão em busca de uma cura para a Covid-19. Agora, uma equipe chinesa afirma que desenvolveu um método para combater o vírus. “Eles dizem que encontraram um nanomaterial que pode absorver e desativar o vírus com eficiência de 96,5 a 99,9%”, informou o Global Times da China.

Segundo a Reuters, a intenção dos pesquisadores é fabricar purificadores de ar e máscaras com o nanomaterial. A agência de notícias destacou que os testes foram realizados na filial do Centro de Controle e Prevenção de Doenças, o instituto nacional de saúde pública dos Estados Unidos.

O que são nanomateriais?

São materiais que possuem graus estruturais na ordem de 10-9m ou um nanômetro (que é igual a um milionésimo de milímetro). As propriedades dos materiais de escala nanométrica diferem daquelas observadas em maior escala. São objeto de estudo da nanociência e da nanotecnologia e aproximadamente 100.000 vezes menor que o diâmetro de um cabelo humano). As partículas de tamanho nanométrico existem na natureza e podem ser criadas a partir de uma variedade de produtos.

Na saúde, por exemplo, os nanomateriais já se provaram muito úteis. Os Nanozymes, por exemplo, possuem características semelhantes a enzimas e possuem alto potencial. O engenheiro químico Thomas Webster, que faz parte da equipe do Centro de Controle e Prevenção de Doenças, também propôs o uso dos nanomateriais para combater o novo coronavírus, impedindo que o vírus se reproduza.

A busca pela cura da Covid-19 está a todo vapor. Diversos países e a Organização Mundial da Saúde estão trabalhando para determinar a eficácia de medicamentos já existentes. Além disso, são realizadas pesquisas para o desenvolvimento de vacinas, com testes já sendo realizados.

Porém mesmo assim a solução definitiva ou mesmo paliativa para o problema ainda aparenta estar um pouco distante, pois não seria apenas uma solução e possivelmente um conjunto de soluções para o mesmo fim, diversos remédios tem se mostrados eficientes, porém com o decorrer dos testes muitos tem sido descartados

Petróleo cai abaixo de zero: US$ 40 negativos. Saiba o que isso significa

Petróleo cai abaixo de zero: US$ 40 negativos. Saiba o que isso significa

Conforme reportagem veiculada pelo site da Super Interessante:

Isso só vale para o óleo vendido nos EUA com entrega em maio. O resto segue “normal”

Não existe um “preço do petróleo”. Há vários tipos de petróleo – dos mais leves, mais ‘líquidos’, bons para fazer combustível, aos mais pesados, barrentos, bons para fazer asfalto. Esses últimos tendem a ser mais baratos.

Bom, mesmo entre tipos iguais de petróleo você tem diferentes mercados. Uma refinaria dos EUA tende a comprar petróleo produzido por lá mesmo, para gastar menos com o transporte dos barris. Uma da Inglaterra tende a comprar dos produtores do Atlântico Norte, pelo mesmo motivo. E cada um vai ter seu preço.

Para não virar bagunça, instituíram-se dois preços de referencia. Um é o do petróleo do tipo West Texas Intermediate (WTI), produzido nos EUA, e que apesar do nome é um óleo leve (não “intermediário). E temos o Brent, do Atlântico Norte, e um pouco mais pesado.

Outra especificidade do mercado de petróleo: quase não existe pronta entrega. Você compra um barril para entrega em maio, ou em junho, ou em julho… E o próprio contrato é negociado. Eu não preciso ter barris de petróleo para vender petróleo. Se eu comprar um milhão de barris com entrega para julho, posso revender esse direito para você. É assim que esse mercado gira.

O que aconteceu, então? Os estoques de petróleo nos EUA estão cheios. As empresas que fabricam combustíveis (ou outros derivados do óleo) encheram seus galpões com a guerra de preços entre Arábia Saudita e Rússia, que baixou a cotação do WTI, do Brent e de qualquer outro tipo de petróleo. Com a demanda fraca no mundo inteiro, dado que está tudo quarentemado, não refinaram esse óleo ainda. Ele segue guardado.

Só que agora não há mais onde guardar barris nos EUA. O contratos para entrega de petróleo em maio vencem amanhã (21). O seja: quem sobrar com eles na mão vai ter o compromisso de receber uma entrega de barris, e não vai ter onde guardar.

Com isso, o preço do WTI foi caindo ao longo desta segunda (20) . Da casa dos US$ 20 para US$ 10, depois para US$ 5… Depois para zero. Mas ainda assim não era o bastante. Como o compromisso de arrumar um lugar para estocar os barris custa caro, não havia nem quem levasse o petróleo de graça. Os donos dos contratos com entrega para maio, então, passaram a PAGAR para se livrar do mico. Primeiro, US$ 2 por barril. Mais tarde US$ 40. Ou seja: o preço do WTI com entrega para maio caiu a -US$ 40.

Enquanto isso, o WTI com entrega para junho seguia a US$ 20; o Brent, a US$ 26 – pouco para uma mercadoria que até outro dia custava US$ 140, mas dentro do mundo racional, por enquanto. Mais um capítulo da maior e mais brusca crise de todos os tempos. Uma história que está sendo escrita neste exato momento.

Como o coronavírus já começa a afetar o mercado de tecnologia do Brasil

Falta de peças vindas da China mexe com a indústria e pode afetar grandes e pequenas empresas

A esta altura, não há mais como negar: o coronavírus já é um desastre para a economia mundial. A China, epicentro do vírus, precisou praticamente frear a produção industrial para impedir que os funcionários nas linhas de montagem ficassem expostos, o que teve reflexos no mundo inteiro. O Brasil, obviamente, não é diferente.

A indústria brasileira já sente os reflexos da baixa produção na China. O setor de tecnologia sofre com a falta de peças para montagem dos produtos, que tem forçado a paralisação de algumas fábricas no país, forçando empresas a darem férias coletivas para seus funcionários enquanto o fornecimento não é normalizado.

Empresas bastante conhecidas do público brasileiro estão entre as afetadas. A Samsung precisou paralisar a montagem de produtos na cidade de Campinas (SP) por três dias em fevereiro.  O problema atingiu de forma mais grave a LG e a Flextronics, responsável pelos produtos da Motorola no país.

A fábrica da LG, localizada na cidade de Taubaté (SP) iniciou em 2 de março uma paralisação de 10 dias. Enquanto isso, a Flextronics, de Jaguariúna (SP), já havia dado férias coletivas para seus funcionários entre 17 e 28 de fevereiro e anunciou que fará isso novamente entre 9 e 28 de março.

Movimento similar pode ser notado na Zona Franca de Manaus. Várias montadoras já preveem férias coletivas e licenças remuneradas para seus funcionários para lidar com a falta de insumos vindos da China.

Segundo a Associação Brasileira da Indústria Elétrica e Eletrônica (Abinee), o Brasil é profundamente dependente dos componentes chineses. Em 2019, 42% dos itens importados pelos fabricantes nacionais vieram da China, e outros 38,3% vieram de outros países asiáticos, que também se veem diante de forte ameaça do coronavírus. No ano passado também foram registrados US$ 7,5 bilhões em importações da China para o Brasil.

Por causa dessa dependência, a associação notou que 6% das empresas a ela ligadas já operam em regime de paralisação parcial e outras 14% já planejavam interrupções em suas linhas de produção, na maior parte dos casos parcialmente. A pesquisa também indica que 48% não têm qualquer plano de parar a produção, mas isso pode mudar se essa situação de escassez se prolongar por mais tempo.

Pode afetar o consumidor?

A organização percebeu uma mudança com seus números mais recentes. Entre seus associados, 54% das empresas afirmam que podem começar a ter dificuldades em entregar os produtos finalizados aos clientes como decorrência da falta de peças caso essa situação se prolongue por mais 47 dias.

Nas pesquisas anteriores da Abinee, as empresas ainda não haviam dado esse indicativo. A associação defendia que o público brasileiro não iria perceber nenhuma mudança no mercado, mesmo com as fábricas temporariamente paralisadas.

O aumento da preocupação da Abinee acompanha a posição menos otimista de outras organizações. Wilson Périco, presidente do Centro das Indústrias do Estado do Amazonas (Cieam), já apontava que a partir deste mês, as empresas sofrendo com a baixa de componentes podem esgotar seus estoques, forçando um agravamento na paralisação da produção.

O resultado no mercado, se chegar a esse ponto, pode afetar consumidores de várias formas. Os estoques nas lojas podem começar a ficar escassos e os preços cobrados pelos produtos devem começar a subir, seguindo a famosa lei de oferta e demanda. Com poucas unidades nas prateleiras, os valores podem ser inflacionados.

Impacto econômico já é real

É fato que a difusão do coronavírus causará um impacto negativo na economia mundial, e os primeiros sintomas já são sentidos. Em conferência da ONU, foi revelado que, apenas levando em conta janeiro e fevereiro, as perdas globais causadas pelo Covid-19 já chegam à casa dos US$ 50 bilhões.

Esse número leva em conta um período curto. Se a pandemia continuar a assustar pessoas e mercados ao redor do mundo por muito mais tempo, as perdas podem ser radicalmente piores, como resultado da dependência das linhas de produção chinesas.

Como nota o jornalista Jamil Chade, no entanto, o impacto para a indústria brasileira foi “leve” até o momento. A “sorte” do Brasil é a indústria fechada, que não movimenta muitas exportações. As perdas estão na casa dos US$ 100 milhões e atingem principalmente o setor automotivo. Também são impactados de forma mais dura as áreas de metais e máquinas.

Esta reportagem foi obtida pelo site: https://olhardigital.com.br/coronavirus/noticia/como-o-coronavirus-ja-comeca-a-afetar-o-mercado-de-tecnologia-do-brasil/97793

Pichau Bate RECORD MUNDIAL Com AMD Threadripper 3990X No HWBOT

Pichau Bate RECORD MUNDIAL Com AMD Threadripper 3990X No HWBOT

Segundo reportagem divulgada no site Pichau Arena, No dia 09/02/2020 caiu o embargo mundial do AMD Threadripper 3990X o processador mais poderoso do mundo atualmente, com 64 núcleos e 128 threads que pode operar a um clock máximo de 4.3GHz em seu modo boost sob demanda por núcleos.

Nada melhor para darmos as boas vindas a esse monstrinho do que testar ele em um cenário de Overclock.

Que provavelmente não vai ser o uso dele por seus compradores

Antes de falarmos o que conseguimos com ele, precisamos entender um pouco de como ele se comporta, então como referência em Stock temos uma processador que trabalha com temperaturas na casa dos 68~75 Graus com um Clock na casa dos 4.200MHz que quando o processador é levado em massa a utilizar todos os seus 128 Threads a 100% vai trabalhar como padrão na casa dos 3.200MHz.

Por curiosidade o seu consumo fica na casa dos 280 a 300W com essa carga de trabalho em Stock e chegando a quase 600W quando em OC.

Sabendo disso, que ele é um processador com muitos núcleos e que quando está a 100% o seu clock fica mais baixo, o primeiro passo é tentar estabilizar ele próximo do seu boost máximo por núcleo. E foi ai mesmo que atacamos!

Em nossos primeiros testes atacamos em um clock de 3.9 GHz com uma tensão bem folgada, realmente para sentir o comportamento. Nesse primeiro teste é somente para conhecer! Percebemos que ele aceitou a tensão bem e conseguiu rodar o Cinebench R20 que é extremamente pesado muito bem e já com ganhos expressivos em cima do valor em Stock.

Nesse momento a minha tensão era de 1.280v e as temperaturas estavam bem altas, mas se mantendo dentro de uma margem que considero aceitável para um CPU com 64 núcleos.

Temperaturas na casa dos 85 graus podem parecer muito, mas sempre devemos lembrar! não estamos falando de 16 threads mais sim de 128 threads

Afinando mais o Overclock baixei o vcore para 1.256v e por incrível que pareça nele eu consegui trabalhar bem a um limite máximo de 4.125MHz. Acima desse valor o sistema não tinha estabilidade para suportar uma rodada completa de Cinebench R20.

Os motivos são 2, falta de vcore exigindo mais tensão e temperatura que vem ligado a tensão mais elevada. Essa combinação nos impõe um limite nessa casa dos 4.1GHz ~ 4125MHz +-

Para curiosidade o clock máximo que atingimos foi 4.225MHz com 1.280v mas pelos motivos acima não conseguimos muita estabilidade nesses valores.

Convenhamos é um valor muito bom já! 4125MHz em 128 Threads é a primeira vez que vejo no mundo!

Agora nossa correria foi com os benchmarks, tive o cuidado de validar todos eles na liga do HWBOT com validação e inclusive alguns e-mails trocados com pessoal de fora auxiliando na verificação e checagem se os dados eram realmente válidos.

Os resultados foram lindos, 31.107 pontos no Cinebench R20 o que se comparado com ele em Stock teve uma diferença de mais de 6.000 pontos! para se ter uma ideia melhor uma Intel Core I9 9900K faz pouco mais de 5.000 pontos nesse benchmark.

Então podemos considerar que entre o 3990X Stock e ele em Overclock temos mais do que um Intel Core I9 9900K de diferença. Brincadeiras a parte, essa pontuação validada nos colocou em 3 lugar no rank mundial do Cinebench R15.

Na sequencia consegui fazer uma ótima rodada de Cinebench R15 com pontuação na casa dos 13.115.

Nos colocando em terceiro lugar no rank mundial de Cinebench R15.

e por último uma pontuação no 7-ZIP que nos garantiu 12 lugar no rank mundial geral e 1 lugar nas categorias 64 Cores e Ryzen Threadripper.

Essas pontuações representando o Brasil, são um pouco do que o AMD Threadripper 3990X é capaz de entregar, com uma sessão de overclock básica com um Water Cooler Pichau Gaming AQUA X200, Placa Mãe ASRock TRX40 Taichi e um KIT de memórias T-Force XTREEM ARGB a 3200MHz foi possível chegar a um pódio bacana.

Com mais tempo, mais opções de hardware e quem sabe um pouco de nitrogênio líquido não conseguimos arrancar mais alguma coisa…. aguardem! 

Validações HWBOT:

https://hwbot.org/submission/4347538_
https://hwbot.org/submission/4347544_
https://hwbot.org/submission/4347547_

Processador AMD Ryzen™ Threadripper™ 3990X

Processador AMD Ryzen™ Threadripper™ 3990X
Threadripper Chip

Um processador para renderizar tudo

Agora com revolucionários 64 núcleos, o processador para desktop mais potente do mundo fará com que o tempo seja irrelevante.* 

Aprovado por Hollywood

O AMD Ryzen™ Threadripper™ da 3ª Geração já demonstrou seu valor para artistas de efeitos especiais de grandes estúdios de filmes.

AMD Socket sTRX4 - TRX40

Novas placas-mãe. Tecnologias exclusivas.

As novas placas-mãe AMD TRX40 incluem a inauguração da conectividade avançada PCIe 4.0 para desktop de alta tecnologia, oferecendo mais largura de banda para criadores do que nunca antes.

Quatro núcleos fornecem 128 threads surpreendentes de poder de multiprocessamento simultâneo, enquanto 288 MB de cache combinada e ampla plataforma de E/S AMD TRX40 trabalham juntos para oferecer um desempenho impressionante.

64 núcleos e 128 threads para cargas de trabalho de renderização extremamente rápidas.

Um número sem precedentes de 88 linhas PCIe® 4.0 para atender a amplas demandas de GPU e NVMe.

Até 288 MB de cache combinado para acesso rápido a grandes conjuntos de dados.

DDR4 de quatro canais com suporte ECC disponível para rendimento confiável.

Wraith Cooler

Processadores excepcionais merecem uma refrigeração excepcional

Soluções térmicas para os processadores Ryzen™ Threadripper™ dos nossos parceiros.SAIBA MAIS

AMD Threadripper motherboard

Suporte de NVMe RAID

Combine até seis discos NVMe para velocidade extrema ou redundância sólida com os processadores Ryzen™ Threadripper™. Ainda quer mais? Obtenha o dobro de largura de banda com o PCIe® 4.0, exclusivamente para desktops de alta tecnologia com placas-mãe AMD TRX40.

AMD Ryzen™ Threadripper™ 3990X

Especificações :

Nº de núcleos de CPU: 64

Nº de threads: 128

Clock básico: 2.9GHz

Clock de Max Boost Até 4.3GHz

Cachê L1 total 4MB

Cachê L2 total 32MB

Cachê L3 total 256MB

Desbloqueado Sim

CMOS:TSMC 7nm FinFET

Packages: TRX4

Versão do PCI Express: PCIe 4.0

TDP / TDP Padrão: 280W

Temps máx: 95°C*

Suporte de SO Edição: Windows 10 – 64-Bit RHEL x86 64-Bit*O suporte ao sistema operacional (SO) poderá variar de acordo com o fabricante.

Memória:

Velocidade máxima da memória: 3200MHz

Tipo de memória: DDR4

Canais de memória: 4

Principais recursos:

Tecnologias compatíveis: Arquitetura do núcleo Zen

Utilitário AMD Ryzen™ Master

Base:

Família de produto: AMD Ryzen™ Processors

Linha de produto: AMD Ryzen™ Threadripper™ Processors Plataforma: Computador de mesa

Bandeja OPN: 100-000000163

OPN PIB: 100-100000163WOF

Data de lançamento: 2/7/2020

Imunoterapia: a melhor arma contra o cançêr

Tratamentos que ensinam o sistema imunológico a combater o câncer já são a melhor opção para alguns tumores, mas saem caro. Entenda a ciência da imunoterapia. E o que ela promete para o futuro.

O ano é 1891. O cirurgião William Coley acaba de perder sua primeira paciente. A adolescente de 17 anos tinha aparecido no Hospital do Câncer de Nova York com um tumor nos ossos da mão (um sarcoma). Coley não teve opção a não ser amputar o membro. Como não havia sinais aparentes de metástase – filiais do tumor em outros órgãos –, o médico supôs que a moça estava livre da doença. Dois meses depois, porém, ela morreu repentinamente: as células mutantes haviam se espalhado pelo corpo. Só estavam escondidas.

Arrasado, Coley vasculhou os prontuários do hospital atrás de casos semelhantes. Encontrou um relato escrito sete anos antes: uma imigrante italiana identificada como Zola, de 35 anos, tentou duas vezes extrair um sarcoma do tamanho de um ovo localizado embaixo da orelha esquerda. A protuberância sempre crescia de novo. Para piorar, durante a cicatrização da última das cirurgias de remoção, a pele da bochecha contraiu uma infecção chamada erisipela. Zola teve picos de febre violentos, e ficou à beira da morte.

Os médicos perceberam, porém, que a cada ataque de febre alta o sarcoma diminuía – até sumir completamente. O aumento na temperatura é um sinal de que nossas células de defesa estão em ação contra as ameaças que invadem o corpo. Ou seja: ao combater a erisipela na pele, o sistema imunológico também combateu o câncer por acidente. Impressionado, o médico percorreu os cortiços do leste de Manhattan em busca da italiana. Encontrou Zola viva e saudável, sete anos depois, em remissão completa.

Coley então transformou essa anomalia em tratamento. Injetou um coquetel de bactérias nos tumores de seus dez próximos pacientes para deixá-los doentes de propósito. Era um método bruto, e nada ético. Muitos acabavam mortos pela infecção antes de serem mortos pelo câncer. Mas às vezes dava certo: um homem com sarcoma inoperável, já espalhado pelos tecidos da pélvis e da bexiga, se recuperou plenamente – só morreria 26 anos depois, de ataque cardíaco. Seus glóbulos brancos, sozinhos, deram conta do recado. Após essa primeira leva, Coley se aperfeiçoou: percebeu que usar pedaços de bactérias mortas poderia surtir o mesmo efeito sem oferecer perigo.

Os relatos de Coley foram debatidos entre os médicos na época, mas a notícia não chegou ao público leigo, pois o câncer, no século 19, não era envolto pelo tabu que o cerca hoje. Foi só depois que os tumores se tornaram o inimigo público nº 1: entre 1900 e 1940, uma revolução no saneamento básico, nas vacinas e na nutrição diminuiu muito o número de pessoas que morriam graças a doenças como diarreia, tuberculose e varíola. A população pobre passou a alcançar idades mais avançadas – e o câncer começou a matar pessoas que antes morreriam de outras causas.

Na primeira metade do século 20, o câncer saltou da oitava para a segunda posição do ranking de causas de morte mais comuns – onde permanece, atrás apenas de doenças cardiovasculares. Quatro em cada dez pessoas terão um tumor em algum ponto da vida. Em 2018, o câncer matou 9,6 milhões de pessoas, 70% delas em países de renda baixa ou média. 22% dessas mortes estão associadas ao tabagismo; outros 22%, a hepatite ou infecção pelo papilomavírus humano (HPV). Os casos de câncer devem aumentar 70% até 2038, de acordo com a Organização Mundial da Saúde (OMS), e apenas um quarto dos países pobres oferece tratamento na rede pública.

A palavra “câncer” é genérica; define uma coleção de aproximadamente 160 tipos de tumores. O que eles têm em comum é o fato de se construírem a partir da multiplicação descontrolada de alguma célula. O gatilho são mutações em um ou mais genes dessa célula. Essas mutações podem ser herdadas dos pais ou desencadeadas por agentes externos: cigarro, álcool, infecção por determinados vírus etc.

Por um século, combatemos o câncer por meio da quimioterapia e da radioterapia. Envenenar e torrar o tumor é uma estratégia eficaz em muitos casos, mas vem acompanhada de efeitos colaterais que acabam com o bem-estar dos pacientes.

Na busca por alternativas mais amenas, a ideia de Coley foi redescoberta pelos médicos a partir da década de 1980 e ganhou um nome cabeludo: imunoterapia, uma classe de tratamentos que ensinam o sistema imunológico a combater o câncer de forma eficaz. As imunoterapias são promissoras e têm pouquíssimos efeitos colaterais, mas ainda são limitadas: só se conhecem métodos eficazes contra alguns tipos de câncer, como melanoma (câncer de pele), linfoma e de pulmão.

Muitas drogas imunoterápicas ainda estão em estágio experimental, e as que chegaram ao mercado não são baratas. Uma ampola de Yervoy, um imunoterápico aprovado no Brasil pela Anvisa em 2012 e usado para conter metástase de câncer de pele, custa até R$ 18 mil, e são necessárias no mínimo quatro doses.

Os resultados, porém, impressionam tanto quanto o preço. Mas, antes de entender como os cientistas manipulam o sistema imune a nosso favor, é preciso aprender como ele funciona.

Você pode imaginar a imunoterapia como um jogo de Pac-Man: suas células de defesa só conseguem atacar o câncer após terem comido a bolinha.

O sistema imune

Ele é dividido em dois grupos de células: as inatas e as adaptativas. As inatas são as primeiras a entrar em ação quando surge uma ameaça – os soldados rasos, que seguram a bronca enquanto o corpo monta uma estratégia. As adaptativas formam a tropa de elite.

Mas vamos começar com as inatas. As mais conhecidas são os macrófagos. “Macrófago” significa, ao pé da letra, “comilão”. É a junção das palavras gregas makrós (“grande”) e phagein (“comer”). Eles são como o Pac-Man – bolinhas flexíveis de 0,02 mm capazes de englobar e digerir qualquer coisa: micróbios, células mortas do próprio corpo, células potencialmente cancerígenas e até substâncias inorgânicas. O pigmento de uma tatuagem passa o dia sendo engolido e regurgitado por macrófagos.

O segredo dessa versatilidade está em certas proteínas que eles carregam, chamadas receptores do tipo Toll. Essas proteínas são como buracos de fechadura. Se rola um encaixe, os macrófagos são ativados. A chave correta, nesse caso, são pedacinhos de molécula que muitos vírus, bactérias e outras ameaças exibem, mas que não existem normalmente em nós. Por exemplo: os vírus têm RNA de fita dupla, humanos não têm. Bactérias têm uma proteína chamada flagelina, humanos não têm.

É um sistema esperto, mas simples. Como um antivírus gratuito que protege o PC de algo que você pode pegar baixando um filme pirata, mas não daria conta de um hacker do governo russo. E algumas bactérias são hackers mesmo: a da pneumonia, por exemplo, é protegida por uma cápsula que impede a deglutição pelo macrófago; já a da tuberculose se deixa deglutir de propósito, e então arma acampamento no interior dele.

Há outras células além dos macrófagos no sistema inato [veja infográfico abaixo]. As mais famosas aí são as células dendríticas. Como os macrófagos, elas são capazes de fagocitar as ameaças. Mas com um bônus: guardam pedacinhos dessas ameaças para apresentá-los a seus superiores. Os superiores, no caso, são células chamadas linfócitos.

O sistema imune tem um exército de células que defende o corpo de ameaças internas e externas. Elas se dividem em inatas (que são a primeira linha de defesa) e adaptativas (a tropa de elite). Aqui, algumas das principais inatas.

1. Macrófago
É o “Pac-Man” comum, que engloba e digere ameaças. Age sozinho ou guiado por anticorpos, que o ajudam a farejar os micróbios. Usa receptores universais do tipo Toll, que detectam os micróbios mais comuns. É o primeiro a atacar.

2. Natural killer (NT)
A “assassina natural”. Envenena células cancerosas ou sequestradas por vírus antes que causem problemas. É uma das primeiras a atacar, junto do macrófago.

3. Célula dendrítica
A célula dendrítica, como o macrófago, fagocita as ameaças. Mas com um bônus: pega pedacinhos delas e mostra para a tropa de elite, os linfócitos. Só elas têm essa autorização.

Os linfócitos são as células do outro sistema imune, o adaptativo. Ao contrário dos macrófagos e afins, que usam os receptores versáteis do tipo Toll, cada linfócito tem apenas um receptor, capaz de detectar um único antígeno. Você tem milhões de linfócitos aí dentro. E não existem dois iguais.

O objetivo dessa aleatoriedade é o seguinte: se cada um deles tem um buraco de fechadura especializado em uma chave diferente, são grandes as chances de que, independentemente de qual ameaça adentre o seu organismo, haja um linfócito ideal para tentar combatê-la, por mais extraterrestre que ela seja.

Os linfócitos T CD4, chamados auxiliares, são os mais importantes. Quando uma célula dendrítica engole uma ameaça – seja ela um vírus, bactéria ou câncer –, ela vai até os linfócitos e apresenta um pedacinho da ameaça a eles, um por um, até encontrar um linfócito com o encaixe ideal para iniciar o combate. Quando esse linfócito magia é encontrado, ele começa a se multiplicar e forma um exército de clones. Além disso, ele corre para ativar dois de seus funcionários, os linfócitos B e T CD8.

Os T CD8 são especialistas em venenos. Eles procuram células cancerígenas ou células que foram sequestradas por vírus e as destroem utilizando substâncias chamadas perforinas e granzimas. Os linfócitos B, por sua vez, atacam usando os famosos anticorpos. Os anticorpos são proteínas especializadas em grudar em algum pedacinho do invasor. São liberados no campo de batalha em grandes quantidades, para grudar em tudo que aparecer.

Eles podem, por exemplo, se conectar às proteínas da superfície de um vírus. É o equivalente a algemá-lo: de “mãos” atadas, ele se torna incapaz de penetrar na membrana de uma célula e sequestrá-la. Anticorpos auxiliam a resposta imune dessa e de outras formas, ainda que não sejam diretamente responsáveis por eliminar ameaças.

Agora, as adaptativas:

4. Linfócito T CD4
É o líder da resposta. Quando avisado pela dendrítica que há um problema, corre para ativar os demais linfócitos com um recadinho bioquímico.

5. Linfócito T CD8
Um assassino discreto. Após ser ativado pelo CD4, libera toxinas que desativam células problemáticas detectadas por seus receptores. Como se fosse uma natural killer ainda mais letal.

6. Linfócito B
Produz anticorpos – proteínas que grudam nas ameaças, ajudando a identificá-las. Alguns Bs são guardados para imunizar contra-ataques futuros da mesma bactéria ou vírus.

Agora que você conhece as células, entenda como elas funcionam. O sistema imune inato reage primeiro. Ele leva as ameaças para avaliação por células de hierarquia mais alta.

1.
Qualquer invasor – seja bactéria, vírus ou câncer – produz moléculas diferentes das que já existem no nosso corpo. Essas moléculas, chamadas antígenos, são gatilhos para ativar o sistema imune.

2.
Os macrófagos têm receptores tipo Toll que se encaixam nas substâncias anômalas mais típicas. Assim que um micróbio normalzinho entra no organismo, ele acusa a própria presença, é detectado e engolido.

3.
A célula dendrítica leva pedacinhos das ameaças para os linfócitos verem. Os pedacinhos são exibidos em uma molécula chamada MHC II, que é como um formato de arquivo que só o linfócito sabe ler.

4.
Cada linfócito tem só um detector, especialista em uma única ameaça. Quando a dendrítica encontra o linfócito T CD4 perfeito para a ameaça que ela carrega, ele é ativado e começa a organizar uma reação.

5.
O linfócito T CD4 dá um recado químico ao T CD8 que o autoriza a matar células cancerígenas e infectadas por vírus. Os T CD8 já detectaram a ameaça e estão de prontidão, esperando a ordem.

6.
Os linfócitos B também são ativados com o estímulo de proteínas mensageiras chamadas citocinas. Eles passam por uma metamorfose e se tornam plasmócitos, células cuja única função é secretar anticorpos.

A imunoterapia

Aqui surge uma questão: o sistema imune é um aparato de detecção de coisas estranhas, e existem linfócitos para detectar qualquer coisa. Então, por que ele não detecta o câncer?

A resposta é que, em geral, ele detecta: “O sistema imune não é cego aos tumores”, diz José Barbuto, professor de imunologia do Instituto de Ciências Biomédicas (ICB) da USP. “De fato, ele está pegando a maior parte deles neste exato momento. A questão é que alguns poucos escapam e conseguem crescer.” (No livro Corpo, Bill Bryson escreve: “Todos os dias, estima-se, de uma a cinco células suas se tornam cancerígenas, e seu sistema imune as captura e extermina.”)

O câncer também tem muito mais facilidade em passar despercebido que um agente externo. Um motivo é que ele cresce devagar. Primeiro, uma célula se multiplica e sofre uma mutação. Depois, se divide mais um pouco e sofre outra mutação.  Não é o suficiente para alertar as células de defesa, que acabam se acostumando àquela anomalia por não considerá-la perigosa o suficiente.

Quando o tumor começa a incomodar, ele já ensinou ao corpo que não deve ser combatido. Acaba interpretado como uma doença crônica, que exige apenas uma leve vigilância. As imunoterapias são todas táticas para despertar as defesas dormentes.

A modalidade mais popular de imunoterapia surgiu na década de 1990, com o trabalho simultâneo de dois pesquisadores, um no Japão, outro nos EUA.

Em 1992, Tasuku Honjo, da Universidade de Kyoto, descobriu uma proteína chamada PD-1 na superfície dos linfócitos. A PD-1 é um botão que interrompe a ação da célula quando ela não é mais necessária. Essa é uma das rédeas que, normalmente, evitam que o linfócito perca a noção e comece a atacar órgãos e tecidos inocentes. Em casos de câncer, porém, o PD-1 acaba impedindo uma ação eficaz do glóbulo branco mesmo quando ele encontra um câncer.

Honjo bolou uma droga que pudesse grudar no botão PD-1 e escondê-lo, impedindo que fosse pressionado. Como a tampa que se coloca sobre um botão de alarme de incêndio. Assim, o linfócito ficaria livre para atacar o tumor até eliminá-lo. Essa droga era justamente o melhor tipo de molécula para grudar em alguma coisa: um anticorpo. Era uma inversão inédita. Em vez de usar um anticorpo para aderir ao tumor, Honjo criou um anticorpo capaz de causar um curto-circuito no sistema imune, ativando-o.

Dois anos depois, no Natal de 1994, James Allison, da Universidade da Califórnia em Berkeley, teve o mesmo insight. O grupo de biólogos do qual ele fazia parte estudava como um outro tipo de freio de linfócito, a proteína CTLA-4, poderia ser acionado de propósito em situações em que o sistema imune ataca o corpo que deveria defender (caso de uma doença chamada artrite reumatoide). Allison imaginou que, se bolasse um jeito de fazer o contrário – sabotar o freio que estudava em vez de incentivá-lo –, chegaria a uma droga contra o câncer. Deu certo praticamente de primeira.

Allison e Honjo ganharam o Nobel de Medicina em 2018, e os bloqueadores de PD-1 e CTLA-4 se tornaram algumas das drogas imunoterápicas mais populares do mundo. Como já dissemos aqui, são especialmente eficazes no tratamento de melanomas e, não menos importante, são melhores do que qualquer outra terapia na tarefa de eliminar metástases (lembre-se: as filiais do tumor que brotam em outros órgãos). Isso acontece porque os linfócitos, uma vez acionados, caçam os mutantes onde quer que eles se escondam.

O nome técnico desse tipo de imunoterápico é “inibidor de checkpoint”, já que ele bloqueia a “checagem” que o linfócito faria para saber se deve atacar ou não.

Entre os tratados com Ipilimumab – o bloqueador de CTLA-4 –, a taxa de pacientes de melanoma com metástase que sobrevivem mais de cinco anos após o diagnóstico é algo entre 18% e 20% (Os números variam dentro de uma margem de erro conforme o artigo científico consultado). Com Nivolumab – o bloqueador de PD-1 –, 29% a 39%. Com os dois combinados, de 50% a 60%. É um resultado surpreendente: até o lançamento dos inibidores de checkpoint, só 5% dos pacientes em estado grave (estágio 4) sobreviviam por esse tempo.

O linfócito costuma ser impedido de atacar o câncer tanto pelo próprio tumor quanto pelas células aliadas. Os remédios são tampas que escondem os freios dos linfócitos.

O próprio câncer pode ativar os linfócitos T CD8 (os especialistas em envenenar células que dão defeito). Mas ele disfarça e finge que é só uma parte normal do corpo. Isso é feito por meio de um freio molecular chamado PD-1 que deixa o linfócito pianinho.

O bloqueador de PD-1 cobre o freio que é acionado pelo câncer, fazendo o linfócito perceber que foi enganado.

Na ilustração acima, a célula dendrítica apresenta um pedacinho do câncer para o linfócito, que detecta a ameaça e ataca. Porém, como o câncer é feito de células do próprio corpo, a célula dendrítica se confunde e acha que está ordenando um ataque em um órgão inocente. Preocupada, ela puxa um freio chamado CTLA-4, que desliga o linfócito.

O bloqueador de CTLA-4 é uma tampa que cobre o freio, impedindo a célula dendrítica de acioná-lo. O linfócito acorda e começa a atacar o tumor.

O preço

Tirar um remédio do papel é demorado. O Opdivo só foi aprovado pela FDA – o órgão americano equivalente à Anvisa – em 2017. O Yervoy chegou ao mercado um pouco antes, em 2011. A demora não é à toa: as empresas do setor farmacêutico realizam uma grande quantidade de testes para garantir a eficácia e a segurança da droga. Em média, de cada 10 mil moléculas pesquisadas, só uma vira remédio.

Em média, de cada 10 mil moléculas pesquisadas, só uma vira remédio.

Em média, de cada 10 mil moléculas pesquisadas, só uma vira remédio. (Design: Juliana Krauss / Ilustração: Otávio Brito/Superinteressante)

Tanto o Opdivo quanto o Yervoy, hoje, são propriedade intelectual da Bristol-Myers Squibb (BMS). “Depois que começam os testes clínicos, com seres humanos, a universidade em geral não é capaz de financiá-los por conta própria e precisa se aliar a um patrocinador do setor privado”, explica Roger Miyake, diretor de Acesso na BMS no Brasil.

Foi o que aconteceu com Allison, que na época era pesquisador e docente da Universidade Texas A&M. Para realizar os teste clínicos do Yervoy, ele fez uma parceria com uma startup de biotecnologia chamada Medarex, que em 2009 foi adquirida pela BMS.

Essa jornada se reflete no preço. Nos EUA, de acordo com a BMS, o preço de uma ampola de Opdivo de 240 mg, que deve ser injetada a cada duas semanas, equivale a R$ 27 mil. Quem precisa da combinação Opdivo e Yervoy, cujo tratamento completo exige no mínimo quatro injeções, vai desembolsar algo entre R$ 90 mil e R$ 165 mil por ampola.

Tratar câncer, diga-se, nunca foi tão caro: em 1965, o preço médio de uma droga anticâncer recém-aprovada pela FDA era R$ 400 – em valores de hoje, corrigidos pela inflação. Em 1980, pouco mais de R$ 4 mil. Agora, praticamente não há limites (como veremos adiante).

-

(Design: Juliana Krauss / Ilustração: Otávio Brito/Superinteressante)

No Brasil, um órgão da Anvisa chamado CMed regula o preço dos medicamentos, mas ele ainda é proibitivo. O Yervoy custa algo entre R$ 14,5 mil e R$ 18 mil a dose, conforme o ICMS de cada Estado. Sob esse valor, ele foi submetido à avaliação da Comissão Nacional de Incorporação de Tecnologias (Conitec), que determina se o custo-benefício de uma droga justifica sua inclusão no SUS. Foi negado. O caso do Opdivo, por sua vez, encontra-se em consulta pública na internet. Qualquer cidadão pode opinar sobre a implantação da terapia no sistema público.

A advogada Carla Gil Fernandes, em tratamento há um ano e dois meses com o Opdivo, estava com melanoma metastático em estágio 4 quando começou. Teve remissão completa, confirmada por exames de imagem a cada três meses. É um exemplo da eficácia do remédio. Mas também da dificuldade de acessá-lo:

“O SUS não fornece e eu estava sem plano de saúde. Minha única opção era judicializar o pedido do remédio para o Estado, e assim o fiz”. Como o Estado é responsável por zelar pela saúde dos cidadãos, é possível conseguir por meio da abertura de um processo diversas drogas que o SUS não disponibiliza. Mas essa só é uma alternativa para quem tem dinheiro para pagar um advogado (ou, como no caso de Carla, para quem já é um).

-

As alternativas

Uma opção para o governo é pechinchar com as farmacêuticas argumentando que o volume justificaria um preço menor por dose. O Brasil é o quinto país mais populoso, 600 mil casos de câncer são registrados por ano. 150 milhões de pessoas dependem do SUS. Mesmo que o sistema público não dê tanto lucro quanto os convênios, o número de ampolas é tão alto que o desconto pode compensar.

Desenvolver medicamentos nacionais é outro caminho. É o que faz a ReceptaBio, uma startup fundada em 2006 por um ex-diretor científico da Fapesp, José Fernando Perez. Eles estão realizando testes clínicos de fase 2 para duas moléculas que têm a mesma função que o Yervoy e o Opdivo da BMS, mas que sairão por uma fração do preço.

Ambas já estão patenteadas, e espera-se que passem por aprovação acelerada pelas agências reguladoras (Anvisa e FDA), isto é: que possam chegar às prateleiras antes da conclusão dos ensaios clínicos de fase 3. “O fato de nós termos tanto o CTLA-4 quanto o PD-1 é muito importante”, diz Perez. “A combinação é mais eficaz que qualquer um dos dois sozinhos.” A aprovação deve vir até 2021.

A ReceptaBio faz parcerias com universidades e centros de pesquisa, que podem contar com bolsas de agências de fomento estaduais e federais. Assim, uma parcela do investimento é custeada com recursos públicos. Outra peculiaridade é que os testes estão sendo realizados não com melanomas, que são o alvo típico dos inibidores de checkpoint, mas em mulheres com câncer de colo de útero: um tumor comum em países em desenvolvimento, mas raro na Europa e nos EUA por causa da vacinação contra o vírus HPV. “Câncer de colo de útero não é uma indicação atraente para as multinacionais”, diz Sonia Dainesi, diretora médica da ReceptaBio.

Participar de testes como esses pode ser uma ótima forma de testar uma terapia inovadora gratuitamente. As universidades públicas e os principais centros de pesquisa em saúde brasileiros estão constantemente criando e aperfeiçoando drogas contra diferentes tipos de tumor, e precisam de voluntários para aplicá-las.

Além disso, nada impede as grandes empresas do setor farmacêutico de realizarem seus ensaios clínicos por aqui. O problema é a burocracia: o governo brasileiro impõe regulações severas ao processo de aprovação de uma terapia, o que atrasa as iniciativas nacionais e afugenta as internacionais. É muito mais barato e rápido realizar testes na Europa, ou na China, do que aqui.

“O governo precisa incentivar estudos clínicos, agilizar a aprovação deles. Principalmente em um cenário de privação de recursos, em que essa é uma alternativa”, diz Andreia Melo, chefe da divisão de pesquisa clínica e desenvolvimento tecnológico do Instituto Nacional do Câncer.

O futuro

Nas páginas anteriores, debatemos uma única modalidade de imunoterapia. Embora os inibidores de checkpoint como o Yervoy e o Opdivo estejam em evidência desde o anúncio do Nobel de 2018, eles são só a ponta do iceberg.

Uma aposta recente são os linfócitos T com receptores de antígeno quiméricos, mais conhecidos como células CAR-T. O resumo da ópera é: coletar linfócitos na corrente sanguínea do paciente, levá-los para o laboratório e instalar neles um gene. Esse gene equipa o linfócito com uma proteína capaz de aderir ao tumor. Assim, cria-se um linfócito customizado, para ser reinserido na pessoa doente.

O problema, claro, é o preço. Um tratamento de células CAR-T contra câncer no sangue chamado Kymriah e vendido pela Novartis sai por US$ 475 mil. Em bom português, R$ 2 milhões. Uma versão brasileira da técnica está em desenvolvimento na Faculdade de Medicina da USP em Ribeirão Preto e pode sair por R$ 150 mil. Ela foi aplicada pela primeira vez em outubro de 2019. Vinte dias depois, o primeiro paciente, um homem de 62 anos com linfoma, estava essencialmente livre da doença.

Há dezenas de imunoterapias sendo testadas para uma grande variedade de tumores. Cada uma usa uma estratégia diferente para despertar as defesas naturais do corpo.

Há dezenas de imunoterapias sendo testadas para uma grande variedade de tumores. Cada uma usa uma estratégia diferente para despertar as defesas naturais do corpo. (Design: Juliana Krauss / Ilustração: Otávio Brito/Superinteressante)

Uma das imunoterapias mais sofisticadas que existem, curiosamente, é um retorno à ideia original de Coley: infectar o tumor de propósito. O Imlygic, fabricado pela empresa de biotecnologia Amgen, é um vírus da herpes criado e modificado em laboratório. Esse vírus hackeado não consegue invadir células saudáveis, mas é capaz de parasitar as cancerígenas.

Ao ser injetado no tumor, ele sequestra o maquinário das células para criar cópias de si mesmo (como todo vírus faz). Ao final, a célula explode, liberando bebês vírus na vizinhança. Isso é bom não só porque a célula em si foi morta, mas porque o recheio dela foi solto pelo corpo. Tal cenário aumenta a chance de o sistema imunológico detectar uma molécula anômala inédita, capaz de convencê-lo a iniciar uma resposta.

Em uma das imunoterapias mais inovadoras disponíveis atualmente, um vírus HPV hackeado se infiltra no câncer.

1.
O tumor indicado para este tipo de tratamento é um melanoma em estágio 4 com metástases – praticamente intratável por métodos como quimioterapia.

2.
No tratamento, um vírus HPV modificado é injetado no tumor. Ele é capaz de atacar as células cancerígenas, mas não consegue invadir as normais.

3.
Quando o câncer explode, ele libera seu “recheio” na corrente sanguínea. Essas moléculas estranhas chamam a atenção do sistema imune, que corre para a cena do crime e passa a atacá-lo.

4.
O vírus se reproduz parasitando o maquinário da célula cancerígena. Depois, ele a destrói, espalhando seus bebês por aí. De célula em célula, o tumor diminui de tamanho.

Enquanto isso, no Instituto de Ciências Biomédicas (ICB) da USP em São Paulo, capital, José Barbuto desenvolve há anos uma outra terapia, baseada em células dendríticas. Lembre-se: a função delas é ativar os linfócitos, exibindo um pedacinho da ameaça na molécula MHC II. Se elas estão desligadas, o contra–ataque não começa. E é comum o tumor convencer as dendríticas de que está tudo bem.

Para contornar o problema, Barbuto extrai dendríticas saudáveis do sangue de um doador, mistura com células do tumor do paciente e dá um choque de mil volts. O choque perturba a membrana das células e faz com que elas se fundam, criando quimeras microscópicas: células híbridas de dois núcleos que são metade o câncer de um paciente e metade a célula dendrítica de uma pessoa saudável. Essa bizarrice vive pouco, mas o suficiente para apresentar o tumor aos linfócitos, iniciando a reação na marra. É como fazer ligação direta em um carro.

Esse tipo de tratamento às vezes é chamado de vacina, ainda que não seja uma vacina na acepção corriqueira do termo (vacinas treinam o sistema imune para evitar que alguém contraia uma doença, já a vacina contra o câncer trata o paciente após o diagnóstico). Há vários tipos experimentais de vacina. É possível, por exemplo, produzir em laboratório pedacinhos de proteína que sejam bons sósias dos antígenos que o câncer fabrica. Assim, seu sistema imune faz uma “simulação” antes de partir para a batalha.

Um dia é possível que imunoterapias assim – bem como tantas outras saindo do papel em laboratórios do mundo todo – entrem para o catálogo de uma empresa farmacêutica. Mas essa sempre será uma longa novela. Por trás da história de cada paciente, há a história de cada comprimido. Eles nascem em universidades, passam por startups e testes clínicos… Se forem reprovados, o processo começa todo de novo.

Demorado? Sem dúvida. Mas depende da perspectiva. Há apenas 150 anos, sangrar os pacientes na navalha era tido como método sério para curar a maior parte das doenças. A medicina avança devagar em relação à duração de uma vida. Mas o conhecimento é cumulativo: nós temos hoje o que as vidas de ontem deixaram para nós. E as vidas de amanhã terão o que deixarmos para elas.

Esta reportagem foi entregue como trabalho de conclusão de curso do repórter Bruno Vaiano na Escola de Comunicações e Artes da USP. Agradecemos os professores Luciano Guimarães e Wagner Souza e Silva e o redator-chefe da revista Saúde, Diogo Sponchiato, por participar da banca e colaborar com a edição do texto.

Reportagem original a qual deu origem: https://super.abril.com.br/especiais/imunoterapia-a-melhor-arma-anticancer/

Para que servia o botão turbo nos computadores antigos?

A tecnologia é algo que evolui a passos assustadoramente rápidos. Isso é muito bom, claro, pois nós podemos desfrutar dessas evoluções nas mais diferentes esferas, como os smartphones, games, gadgets, automóveis e, claro, os computadores, o centro de tudo quando falamos de tecnologia.

Tamanho dinamismo e renovação acabam por deixar algumas coisas ou funções que passam desapercebidas. Seja em um telefone fixo, seja em uma CPU, sempre tinha um botãozinho que nós não fazíamos a menor ideia do que poderia fazer por nós. E o pior, tamanho era o receio, que nem ousávamos apertar tais botões. Um desses nossos amiguinhos que metiam medo era o botão “turbo”, muito comum nos computadores dos anos 90.

Para os mais desentendidos ou esquecidos, logo deve vir à cabeça: “caramba, um botão que aumentava a velocidade e a capacidade do PC? Como não fazem isso hoje?” A resposta é simples: não fazem isso porque a função deste botão era justamente a oposta. Surpreso? Não tem problema, a gente explica.

Um turbo que desacelera

As máquinas mais antigas tinham um clock bem diferente das de hoje. Nos tempos atuais, os programas se adaptam melhor às evoluções apresentadas pelos processadores, não sendo necessário que nenhum tipo de artifício externo seja usado para dar uma “acalmada” na máquina.

Então, basicamente, o botão turbo fazia com que a velocidade do seu computador fosse reduzida para que alguns programas e jogos pudessem funcionar em seu ritmo normal. “O botão ‘turbo’ das CPUs antigas passava uma percepção de maior valor para o consumidor e eram colocados para ajustar o clock do processador de acordo com a necessidade dos aplicativos”, explica Elton John Bonfim, especialista de Produtos da Positivo, em entrevista ao Canaltech.

“Os primeiros programadores de computadores usavam o clock do processador para medir o tempo de execução de cada programa e isso foi o padrão por muito tempo. Para se ter uma ideia, os processadores Intel daquela época trabalhavam próximo dos 4MHz, ou seja, tudo era feito pensando nesta velocidade, neste padrão de tempo de reação”, explica Iuri Santos, gerente de tecnologia da Kingston e da HyperX no Brasil, em entrevista à nossa reportagem. A máquina com 4Mhz em questão era equipada com o processador Intel 486, que foi, basicamente, a primeira CPU com botão turbo.

Com o tempo, os processadores foram aumentando de velocidade, indo para 8, 12, 20, 25 MHz, mas os programas e jogos não acompanhavam essa evolução e desenvolvimento do hardware. E é aí que o botão turbo entrava. “A chave do turbo era física mesmo, acoplada à placa mãe. Ao apertá-la, você interrompia a frequência de operação dos processadores para que eles ficassem na velocidade do programa ou do game em questão, que era na faixa dos 4MHz”, explica Santos.

Pentium MMX: ao apertar o turbo, as máquinas ficavam mais lentas. Acredite se quiser

Pode parecer controverso, mas, com o botão turbo apertado, o PC ficava mais anestesiado e “enganava”, por assim dizer, os aplicativos que precisavam de muito menos poder para rodar com perfeição nos PCs mais avançados. As últimas máquinas que vieram com esse botão foram os saudosos Pentium MMX, lançados em 1996, e que chegavam a ter velocidades de mais de 200 MHz.

Como ele saiu?

Aos poucos, o mercado foi percebendo que era complicado demais ter programas que rodavam em processadores específicos. Isso sem falar que nem todas as máquinas daquele tempo tinham o botão turbo.

Por isso, logo as empresas começaram a fazer processadores que tinham essa desaceleração de maneira nativa, sem a necessidade de um botão físico ligado à placa-mãe. Com isso, os PCs ficaram mais populares e fáceis de serem programados, pois essa simulação para diminuir o poder da máquina era feita por meio de software. “Hoje os computadores não possuem mais isso ligado à placa-mãe porque se trata de algo a parte. Ou seja, não está preso na velocidade de processamento do chipset”, complementa Santos.

“Hoje, o próprio processador gerencia a carga de trabalho e aumenta a frequência conforme a necessidade de processamento. É o chamado ‘Turbo Boost’ que alguns processadores possuem”, explica Bonfim.

Se o botão turbo existisse hoje, com certeza ele não funcionaria da mesma maneira que tempos atrás. A razão é muito simples: os processadores ficaram tão rápidos, que seria quase impossível abaixar o clock de 2GHz, por exemplo, para os longínquos 4MHz.

Os programas e jogos atuais já são feitos pensando justamente no poderio das máquinas que temos no mercado, e isso vale também para dispositivos mobile. As placas de vídeo e boosters que também existem no segmento, ao contrário do nosso botão turbo antigo, servem, aí sim, para acelerarem todo o processo e darem aquele empurrãozinho quando queremos jogar alguma coisa mais pesada ou fazer aquela edição de imagem ou vídeo que exige muito da CPU.

E aí, amigo leitor? Vocês ainda têm por aí uma CPU com este botão turbo? Se tiverem, mandem uma foto para gente! Caso tenham alguma história do uso deste botão, deixem nos comentários também!


1 2