Artigo
Tecnologia
O que é e de onde vem o Data Center 3.0
A primeira geração de Data Centers surgiu ainda na década de 1960, com ambientes físicos centralizados, gerenciados por uma organização e dedicados para fins específicos.
Nos anos 2000, graças ao modelo ágil, houve uma primeira ruptura no modelo de desenvolvimento de soluções. Essa mudança, aliada a um conjunto crescente de dados cada mais complexos e variados, exigia novas formas de produção de serviços em Data Center, especialmente para as funcionalidades de virtualização e conteinerização. Essa segunda geração de Data Centers trouxe mudanças significativas. O foco era a racionalização de recursos e a maior agilidade de entrega dos serviços. No entanto, as infraestruturas base dos serviços tradicionais foram mantidas intactas e passaram, então, a ser chamadas de “legado”.
A grande maioria dos Data Centers que estão em operação atualmente ainda é oriunda dessas primeira ou segunda gerações. São grandes silos voltados a atender funções específicas, com o modelo de processamento, armazenamento, acesso e gerenciamento fisicamente centralizados.
De fato, essa estrutura centralizada traz alguns benefícios, como um planejamento orçamentário relativamente estável, a padronização da infraestrutura, uma maior confiança na preservação dos dados locais (ou on-premises), além da formação de equipes especializadas naquela estrutura, entre outros. Essa abordagem centralizada, no entanto, também cria um ambiente onde a mudança exige muitos recursos e acontece de forma muito lenta.
Além disso, os serviços produzidos nesse modelo tradicional acabam criando uma “singularidade”. Todas as aplicações são fortemente acopladas às mesmas exigências e requisitos do legado, que atrai tudo como se fosse um buraco negro, tornando a inovação difícil e cada vez mais tardia. Alguns líderes de TI, então, acabavam por adotar uma versão modificada do conceito de “aposentar” uma aplicação legada: “Espero que eu me aposente antes de ter que lidar com isso”. [1]
Transformação digital
Mais recentemente, a nova onda da transformação digital trouxe uma ruptura com a necessidade de explorar grandes quantidades de dados (big data), realizar análises preditivas extremamente rápidas e eficientes (analytics), viabilizar o uso da inteligência artificial (artificial intelligence ou AI), promover a Internet das Coisas (Internet of Things ou IoT), além de uma série de outras tendências. Esse cenário inédito criou uma oportunidade de se vislumbrar a próxima evolução dos data centers.
O processo de transformação digital implica diretamente descentralização e distribuição, resultando em níveis mais elevados de complexidade. Dessa forma, como as novas soluções são desenvolvidas com componentes discretos (desacoplados), elas podem mudar, expandir, evoluir e serem replicadas de forma independente, permitindo um nível de agilidade e velocidade sem precedentes.
O Renaissance Computing Institute (Renci), no artigo intitulado "From Data Center 1.0 to Data Center 3.0: Transforming the Storage, Access, end (Re)Use of Research Data for Better Science" [2] propôs uma nova visão para a próxima geração de Data Centers científicos, a qual chamou de Data Center 3.0.
Com base em conceitos muito semelhantes aos do Renci, o Serpro adotou a mesma nomenclatura para abordar uma série de iniciativas, geridas de forma coordenada, que visam viabilizar uma revolução na forma de produção dos seus serviços de centro de dados. Para a empresa, o Data Center 3.0, ou DC3 será formado por diversas ofertas multiconectadas de infraestrutura, desde as on-premises (Data Centers próprios) e as de parceiros públicos (como Dataprev e Telebras) e privados (como o Banco do Brasil), até os serviços de Cloud pública (como os da Amazon, do Google e da Microsoft). E essas ofertas poderão se estender até as proximidades de grandes concentrações de usuários, ou bordas, por meio de soluções de Edge Computing baseadas principalmente em Micro Data Centers.
No DC3.0, cada uma dessas ofertas é vista como um nó dentro de uma grande malha de data centers. E, para implementar o DC3.0, tampouco é necessária a total substituição do modelo atual. As versões 1.0 ou 2.0 já existentes poderão provavelmente ser adaptadas e suas localizações físicas se tornarão irrelevantes.
Novidades do Data Center 3.0
As grandes novidades do DC3.0 são a malha de rede, robusta e autorresiliente, que conectará todos esses componentes, além da camada de orquestração que proporcionará o gerenciamento inteligente e flexível desses diversos ambientes. A conectividade de rede entre esses diversos nós deve depender de recursos de rede avançados, como interconexões de colocation e Cloud (cross-connects), adoção de SD-WAN e SDN, e uso de APIs para implementação de ambientes multiconectados. Esses elementos são a parte central da implementação do DC3.0.
Adicionalmente, as organizações devem investir em automação para gerenciar efetivamente a complexidade dos sistemas descentralizados e distribuídos. Nesse campo, as iniciativas de arquiteturas definidas por software viabilizarão o que o Gartner tem chamado de TI híbrida, permitindo as mesmas políticas de controle e otimização para qualquer infraestrutura, seja on-premises, Cloud ou Edge, e entregando dessa forma agilidade operacional e contenção dos custos.
A orquestração da infraestrutura digital, que proverá os recursos de processamento e armazenamento a partir de um vasto catálogo de ofertas, deverá prover camadas robustas e eficientes, além de gerenciamento e segurança, de forma inteligente e automatizada.
Mover workloads entre diferentes ofertas (por exemplo, entre on-premises e Cloud pública) é um enorme desafio pois envolve diferentes tipos de virtualização, camadas de rede e procedimentos de backup.
AIOps (sigla de artificial intelligence for IT operations) será uma ferramenta chave para a gestão da infraestrutura digital, não apenas por auxiliar na administração e controle dos diversos ambientes, mas principalmente por viabilizar a entrega e distribuição automatizada desses workloads nas diversas ofertas de on-premises, Cloud e/ou Edge.
Convivência de modelos
Os Data Centers próprios continuarão existindo, mas as aplicações e as demandas de negócio é que determinarão quais e de onde os recursos computacionais serão utilizados, de acordo com os níveis de serviço e requisitos de disponibilidade exigidos, não apenas preço.
A crescente redistribuição dos workloads para a Cloud, colocations ou Edge significa que menos espaço será necessário nesses Data Centers próprios. Assim como virtualização, sistemas integrados, hiperconvergência e storages de SSA (Serial Storage Architecture) exigirão menos espaço, porém similar, ou mais, consumo de energia.
Alguns critérios serão determinantes para se definir o local de produção dos serviços, de acordo com o nível de maturidade de cada sistema.
Sistemas críticos (aqueles que são fundamentais para o sucesso do negócio e já são produzidos há anos e, por isso, apresentam grande impacto no caso de falhas, ou mesmo porque são altamente regulados) tendem a continuar sendo executados on-premises ou em ambientes de colocation fortemente controlados, objetivando eficiência operacional, alta disponibilidade, padronização e compliance.
Já os sistemas diferenciados, (os que provêm vantagens competitivas, mas podem potencialmente rodar hospedados em qualquer lugar, dependendo dos requisitos de latência, integrações necessárias e escalabilidade) não precisam ser mantidos on-premises.
Os sistemas de inovação, por sua vez, podem ser executados em Clouds públicas, tirando vantagem da agilidade dos deployments, da elasticidade de processamento e armazenamento, além do benefício financeiro de pagar apenas o que consumir. Espera-se, ainda, que as aplicações possam ser movimentadas entre esses tipos de ambientes à medida que sua maturidade avance.
A infraestrutura digital fortemente distribuída permitirá que os workloads sejam localizadas onde forem mais bem-adaptados e puderem entregar os maiores benefícios ao negócio. A maioria das aplicações rodarão no data center on-premises somente quando a nuvem não suportar os requisitos.
[1] Bowers, D., Dekate, C., e Harvey, T. (2019): 2019 Strategic Roadmap for Compute Infrastructure. Gartner.
[2] Lenhardt, W. C., Blanton, B., e Schmitt, C. (2016): From Data Center 1.0 to Data Center 3.0: Transforming the Storage, Acess, end (Re)Use of Research Data for Better Science. RENCI, University of North Caroline at Chapel Hill.
Na próxima publicação, você lerá sobre a importância dos workloads, sistemas parceiros e do ecossistema de soluções, além da conclusão do artigo.
_______________
Sobre os autores
Daniel Paula Guerra é gerente de Inovação de Tecnologia de Centro de Dados no Serpro. É formado em Rede de Computadores pela Estácio de Sá, e possui especialização em Gestão e Gerenciamento de Projeto pela Universidade Federal do Rio de Janeiro. Atua desde 2021 na sua atual gerência com o objetivo de maximizar a adoção de um modelo baseado em Nuvem. Com praticamente 18 anos do Serpro, possui histórico de participação em projetos na área de infraestrutura, tendo atuado principalmente no segmento de backbone.
Régison Rodrigo Martins é gerente de Inovação de Data Center no Serpro. É bacharel em Engenharia de Telecomunicações pela Universidade de Taubaté e especialista em Gestão de Tecnologia em Segurança da Informação pela Impacta Tecnologia. Possui , ainda, MBA em gestão de tecnologia da Informação pela FIAP. Atua há mais de 20 anos no mercado de TIC e faz parte, desde 2021, da CE- 021 da ABNT, que visa a criação de uma norma brasileira de melhores práticas de facilites e infraestrutura para data centers.