Preparando-se para os efeitos da supercomputação quântica

Views: 487
0 0
Read Time:5 Minute, 31 Second

O anúncio público do processador IBM Quantum Osprey de 433 qubits  no IBM Quantum Computing Summit de 2022 em 9 de novembro representa outro marco evolutivo no desenvolvimento de computadores quânticos universais. Não contente com o aumento do poder computacional fornecido pela unidade de processador quântico Osprey (QPU), a IBM pretende lançar o  processador Condor de 1.121 qubits  em 2023, seguido pela plataforma Kookaburra com mais de 4.158 qubits em 2025. Kookaburra explorará a paralelização quântica de grandes processadores, e seu lançamento planejado coincidirá com a disponibilidade de ferramentas aprimoradas de correção de erros, essenciais para a aplicação prática da visão da IBM de supercomputação quântica.

A quase perspectiva de clustering multi-QPU escalável, sustentada pelo crescimento no tamanho dos processadores quânticos universais, significa que agora deve ser dada maior atenção aos efeitos disruptivos associados à computação quântica. Embora o investimento em pesquisa, habilidades técnicas e considerações operacionais associadas ao desenvolvimento de computadores quânticos universais sugiram um caminho de adoção análogo ao dos supercomputadores digitais, com disponibilidade centralizada de recursos de computação concentrados nas mãos de corporações ricas, colaborações científicas internacionais e nações -afirma, as implicações da trajetória de desenvolvimento da IBM afetam a todos nós.

Em 1994, dois eventos significativos na história da computação quântica ocorreram quando a publicação de um algoritmo por Peter Shor foi seguida em agosto daquele ano pelo  primeiro  NIST Workshop on Quantum Computing and Communication . Evitando a matemática complexa envolvida, no contexto dos métodos criptográficos que usamos atualmente para proteger os dados, o algoritmo de Shor estabeleceu um método para resolver com eficiência os fatores primos de um determinado número usando computação quântica. Lov Grover  posteriormente definiu um algoritmo de mecânica quântica diferente em 1996 que oferece uma redução exponencial no tempo necessário para procurar um valor discreto dentro de uma lista de alternativas possíveis.

O algoritmo de Shor é significativo porque fornece um meio eficiente de derivar as chaves criptográficas das quais depende a criptografia de chave pública moderna, tornando obsoletos os métodos criptográficos estabelecidos, como RSA e troca de chaves Diffie-Hellman. A contribuição de Grover afeta as práticas de segurança de dados existentes porque reduz pela metade a segurança efetiva de comprimento de bit de chaves criptográficas AES simétricas sob um ataque de força bruta quântica tolerante a falhas.

É hora de se preparar para a computação quântica

As implicações dos computadores quânticos universais para nossa segurança de dados estão bem documentadas. De fato, a IBM reiterou os problemas de criptografia de dados em seu anúncio  do IBM Osprey QPU, comentando sobre a necessidade de o setor se preparar para o impacto inevitável agora. Vale a pena notar, no entanto, que para derrotar a criptografia RSA de 2.048 bits, seriam necessários aproximadamente 6.190 qubits lógicos tolerantes a falhas – predicando a configuração paralela de grandes QPUs. Mesmo com recursos de computação na escala necessária, o custo computacional efetivo de quebrar a criptografia RSA de 2.048 bits permanece acima de 1,17 megaqubitdias (ou seja, 1,17 milhão de qubits executando um ataque de fatoração primária em um período de 24 horas).Embora tenha sido uma previsão perene de que computadores quânticos universais eficientes estão “a uma década de distância”, essa perspectiva agora parece uma possibilidade legítima. A Lei de Neven de melhoria exponencial dupla no poder computacional quântico pode ser observada em breve no ritmo do desenvolvimento técnico. 

O NIST Workshop on Quantum Computing de 1994 deu origem ao  projeto NIST Post-Quantum Cryptography Standardization  , que busca derivar novos protocolos criptográficos resistentes a ataques quânticos e assumem maior importância após o anúncio do IBM Osprey. A busca por criptografia pós-quântica efetiva (PQC) foi avançada em julho de 2022, após a terceira rodada de avaliações de algoritmos, com a  comunicação do NIST que quatro algoritmos são candidatos à padronização. A busca continua, com uma quarta rodada de avaliação em andamento.Então, como as organizações devem seguir os conselhos da IBM e dos provedores de segurança de dados para se adaptar à imanência da supercomputação quântica? O primeiro passo prático é reconhecer as implicações do novo paradigma quântico e a importância de manter uma abordagem flexível aos desenvolvimentos no PQC. 

Sob a expectativa de que os computadores quânticos universais da escala necessária para realizar ataques eficazes aos dados criptografados de hoje estejam concentrados nas mãos de provedores de serviços e estados-nação suficientemente capazes, as empresas devem considerar que os dados criptografados apropriados hoje podem ser descriptografados com sucesso em anos para vir.O tempo de vida dos dados e sua sensibilidade devem, portanto, ser considerados dentro das avaliações de risco contemporâneas. Onde a exposição de dados na era quântica deve ser evitada, as organizações devem considerar a adoção dos primeiros algoritmos candidatos à padronização do NIST. Isso requer a implementação de sistemas de gerenciamento de chaves e interfaces criptográficas que mantenham a agilidade necessária caso novos algoritmos de PQC substituam os métodos selecionados neste momento. Se os padrões mudarem ou os protocolos candidatos forem considerados exploráveis, é vital que os dados possam ser criptografados para novos níveis de segurança, sem restrições.

Manuseie com cuidado

Um segundo passo, mais cerebral, na preparação para o impacto da computação quântica em escala é refletir sobre como a supercomputação quântica, conforme imaginada pela IBM e outros, afetará a maneira como os dados confidenciais devem ser tratados durante o processamento. Embora a migração para serviços de nuvem pública tenha gerado novos modelos operacionais e economias de escala para as organizações clientes, também trouxe desafios em termos da dupla preocupação com a soberania dos dados e a retenção do controle sobre a segurança dos dados pelo proprietário dos dados. Compreender as implicações adicionais para a segurança de dados e as vantagens competitivas a serem obtidas com a adoção de métodos de computação quântica deve ser agora o foco dos profissionais seniores de segurança de dados e informações e líderes empresariais.

O projeto de padronização do NIST PQC aponta para possíveis soluções para o desafio quântico de privacidade e confidencialidade que está se aproximando rapidamente. Niels Bohr, uma das figuras proeminentes da história da física atômica, disse uma vez que, se você não ficar chocado com as implicações da teoria quântica, então você não a entendeu. O mesmo poderia ser dito sobre as implicações dos computadores quânticos universais para a segurança global dos dados. Embora o futuro permaneça obscuro, é certo que os líderes organizacionais e provedores de tecnologia de hoje devem iniciar o caminho para a adoção do PQC. Seus dados dependem disso.

FONTE: DARK READING

POSTS RELACIONADOS