Artigo
Tecnologia
Qual a importância dos workloads?
O Gartner divulgou um estudo apontando a necessidade em desenvolver uma estratégia de entrega de infraestrutura orientada ao serviço (saindo do modelo tradicional que é orientado à arquitetura da TI) como caminho para o aumento da agilidade e de flexibilidade [1]. Esse caminho passa pelo mapeamento das cargas de trabalho (ou workloads), fragmentos bem definidos do serviço digital.
Ainda segundo o estudo, com esse mapeamento é possível identificar características que impactam diretamente o negócio digital, como proteção dos dados, latência, performance, continuidade e disponibilidade, entre outros. De posse do mapa completo, a organização consegue realizar um agrupamento com base nas características de negócio e, em seguida, apoiar a estratégia de entrega de uma infraestrutura orientada aos serviços digitais.
A governança sobre os workloads que compõem um serviço abre caminho para uso de microsserviços, em contraparte às aplicações monolíticas, que são de difícil provisionamento de recursos computacionais e complexidade de manutenção. Retornando ao tema principal, para que a infraestrutura digital seja utilizada de forma eficiente, as arquiteturas ideais de cada categoria de workload devem ser definidas, considerando as tecnologias associadas e seus respectivos casos de uso.
As categorias de workloads mais comuns são:
● Monolítica: tradicionalmente os workloads de mainframe e aplicações legadas, cujos dados e aplicações são processadas exclusivamente no próprio host;
● Cliente/Servidor: onde os dados são trafegados do servidor para os clientes, limitando suas capacidades em função da capacidade da rede (geralmente LAN);
● Publicação web: em geral são aplicações leves que apenas apresentam para os usuários o conteúdo extraído de servidores de dados;
● N-tier: são os workloads que separam as camadas de apresentação e aplicação, construídas de forma desacoplada. A maioria das novas aplicações deve adotar essa arquitetura como padrão;
● AI/ML: inteligência artificial utiliza técnicas de análise avançadas (como machine learning) para interpretar eventos, automatizar decisões e tomar ações, o que exige uma arquitetura muito específica e com altos requisitos;
● Ponto a ponto: similar à publicação web e à N-tier, mas ao invés de ser unidirecional, trata-se de uma arquitetura horizontalmente colaborativa. Esse tipo de workload é apropriado para aplicações de Edge;
● Exceções: são todos os workloads que não se encaixam nas outras categorias acima. Podem tratar desde nichos com restrições específicas ou mesmo tecnologias emergentes que ainda não foram classificadas.
Cada tipo de workload poderá se encaixar melhor em uma ou outra oferta da infraestrutura digital, de acordo com seus requisitos de tecnologia, segurança, ou mesmo custo de produção. Como o DC3.0 é direcionado pelas necessidades do negócio, pode-se dizer que a infraestrutura digital que ele oferece é mais user-friendly.
A seguir, são detalhadas as temáticas fundamentais para o sucesso do Data Center 3.0 (DC 3.0).
Ecossistema de parceiros
De acordo com o que já foi amplamente discutido, a base do DC3.0 é a diversidade de ofertas da infraestrutura digital, que podem compreender, principalmente, recursos on-premise, colocations em sites com requisitos diferenciados, clouds públicas de provedores variados ou mesmo soluções mais remotas baseadas no conceito de Edge Computing.
A estratégia a ser adotada pelo Serpro para a formação dessa base prevê o estabelecimento de parcerias públicas com outras instituições de tecnologia do governo, como Dataprev e Telebras, pautadas, especialmente, na troca de serviços. Há também, de forma pactual, o relacionamento com empresas do setor privado, como Amazon e Google, que pode ser monetizado de forma direta ou indireta, pela troca de serviços ou de vantagens comerciais, por exemplo. A relação é estabelecida com base no valor agregado dos serviços envolvidos.
Do ponto de vista operacional, o ecossistema de parceiros é criado para atender à melhor estratégia para entrega de serviços, permitindo, ao Serpro, um foco mais alinhado aos requisitos do negócio. Esse ecossistema deve ser flexível, dinâmico e ágil. Flexível ao ponto de se adaptar às necessidades do negócio, dinâmico para incorporar novos parceiros, ou até mesmo deixar de fazer uso de seus recursos, e ágil para viabilizar as entregas com o menor tempo e carga operacional possíveis.
Ecossistema de soluções
A flexibilidade presente nos modelos de interoperabilidade atuais, baseados em soluções aaS (as a Service) ou via API (Application Program Interface), pode ser explorada de forma contínua. Isso permite a integração cada vez maior de diversas soluções às mais variadas ofertas da infraestrutura digital, trazendo a melhor relação custo/benefício para cada caso de uso.
A infraestrutura digital prevista para o DC3.0 também inclui o uso extensivo de soluções “definidas por software”: para rede, armazenamento e segurança, entre outros.
A escolha do ecossistema de soluções deve agregar maior agilidade e responsividade aos serviços digitais e, consequentemente, ao próprio negócio. Assim, vislumbram-se inúmeras possibilidades de novas soluções que podem ser ofertadas pelo Serpro a partir da infraestrutura provida pelo DC3.0, usufruindo-se das diversas vantagens já apresentadas. Alguns exemplos são: Backup como Serviço (BaaS - Backup as a Service); Desktops Virtuais (DaaS - Desktop as a Service); plataformas serverless; soluções para IoT; melhorias nos serviços de Infraestrutura como Serviço e Plataforma como Serviço (Serpro Cloud e Estaleiro); e até mesmo a possibilidade de uma oferta de Mainframe como Serviço (MFaaS - Mainframe as a Service) com requisitos de alta disponibilidade. Cabe destacar, ainda, que o DC3.0 permitirá ao Serpro atuar também como um tipo de broker de serviços de hosting e cloud, dentro da estratégia de TI híbrida mencionada em momento anterior.
Segundo o Gartner, a prospecção e construção de um ecossistema digital interno deve vir em resposta ao mercado de tecnologia, aprovando e maximizando a utilização das soluções inovadoras, sem esquecer a relação de equilíbrio operacional, que exige maturidade e aplicabilidade [2]. O entrelaçamento tecnológico contribui diretamente para construção da personalidade da organização. O ambiente composto torna-se, assim, único e a aparente complexidade é diluída pela extensa padronização e normatização dos componentes.
Além disso, o apoio em normas técnicas e melhores práticas de mercado contribui para a manutenção e para a formação do capital profissional necessário. O crescimento do ecossistema ocorre de forma modular, tanto na parte física quanto lógica, o que facilita o entendimento das necessidades de interoperabilidade entre elas.
Conectividade e computação distribuída
O fracionamento da infraestrutura física para a sustentação do ambiente on-premise principal (quando existente) que atenda ao negócio, além de possibilitar um crescimento ordenado, permite também uma compreensão mais precisa para apoiar a construção de uma rede robusta de comunicação de dados, tanto interna quanto externa. Essas duas operações devem possuir características em comum como, por exemplo, basear-se em um conceito de fabric, em que são utilizados múltiplos enlaces para o estabelecimento da conectividade, proporcionando níveis de resiliência e disponibilidades superiores, e possuir, ainda, uma camada de abstração (por software) que permita um controle operacional ágil e flexível.
As redes definidas por software – com a SDN (Software-Defined Network) utilizadas no cenário interno e SD-WAN (Software-Defined WAN) voltadas ao cenário externo – são exemplos de tecnologias promissoras, que permitirão o refinamento no controle de recursos de comunicação. O uso dessas redes, em coordenação com outros ativos como firewalls e virtualizadores, habilita a movimentação transparente de workloads, ou até mesmo de serviços digitais inteiros, dentro da própria infraestrutura, ou entre os parceiros do ecossistema, com pouca ou nenhuma interrupção em seu funcionamento.
A flexibilidade na implantação de uma infraestrutura física com tamanhos e custos diferentes é pré-requisito para o modelo que permitirá a distribuição do armazenamento e processamento de informações. Esse modelo consiste em processar e armazenar próximo ao consumo, e/ou produção, dos dados. A computação distribuída permite a criação de um nível diferenciado de disponibilidade (conceito que inclui vazão, latência e conectividade), o que, para o usuário final, representa uma melhor percepção do serviço digital. A Edge Computing é uma diversificação de um conceito conhecido como CDN (Content Delivery Network), amplamente utilizado por provedores de conteúdo como YouTube e Netflix, passível de ser aplicada em outros serviços que possam ser beneficiados com o reposicionamento geográfico.
A computação distribuída propõe um modelo hierárquico e modular. O armazenamento e processamento dos dados são realizados de acordo com seu valor agregado para o negócio. Na parte central (Core) são armazenados os dados mais críticos para o negócio, assim como a produção dos sistemas estruturantes. Na região intermediária (Fog) são processados e armazenados os dados em seu estado transitório, quando ainda necessitam de consolidação ou validação. Já a parte mais externa (Edge) do modelo pode ser posicionada próxima à produção massiva de dados, segundo previsto no modelo da Internet das Coisas - IoT, por exemplo, ou junto ao usuário final para consumo, dentro de um provedor onde o usuário se conecta, ou, ainda, em sua própria infraestrutura.
Em uma adoção simplificada pode-se considerar apenas dois contextos: o central (Core) e a extremidade (Edge), que, nesse caso, reuniria também as funções realizadas na parte intermediária (Fog) na implementação completa do modelo. Esse padrão também sugere que a parte central fique isolada de outras redes, incluindo a internet, protegida pelo perímetro funcional criado.
Em casos específicos, é necessário que o desenvolvimento de aplicações acompanhe o modelo de computação distribuída. Em outros casos, um planejamento preciso no uso de protocolos de rede pode viabilizar o uso dos benefícios propostos.
Cabe finalmente destacar que os contextos Edge e Fog, dentro da abordagem do DC3.0, podem ser atendidos tanto pelas ofertas dos ecossistemas de parceiros quanto por novas infraestruturas instaladas em ambientes externos aos Data Centers do Serpro, como em Micro Data Centers posicionados nas regionais da empresa ou mesmo diretamente nos clientes.
Gestão e governança
Gerir essa nova infraestrutura digital distribuída é um desafio para as equipes de infraestrutura e operação (I&O). As ferramentas atualmente utilizadas, principalmente no monitoramento, podem ser insuficientes para concretizar a proposta evolutiva desses novos ambientes.
Com a popularização de tecnologias como machine learning e da inteligência artificial, aliadas à utilização de técnicas para mineração de dados (data mining) e analytics, é possível colecionar e analisar um conjunto suficiente de eventos do ambiente e prever comportamentos operacionais que encaminhem para acontecimentos mais significativos, os quais afetam a sensibilidade do usuário final do serviço.
Para o Gartner, o investimento em AIOps habilita uma infraestrutura a se tornar responsiva e resiliente, além de contribuir para formulação de um novo modelo operacional [3]. A tendência é que esse nível de implementação torne-se, no futuro, o “cérebro integral da organização”, apoiando a tomada de decisão em todas as áreas.
A construção desses ambientes depende, ainda, da intensificação de investimentos no capital humano, o qual é crucial tanto na implantação quanto na ratificação das tendências apontadas pela solução de monitoração.
A "morte" da infraestrutura atual, anunciada anteriormente pelo Gartner, é precedida pela adaptação das equipes de infraestrutura no sentido de estender seu conhecimento às equipes de negócio em um efeito sinérgico. As funções de especialistas em um determinado segmento ainda são imprescindíveis, mas a construção do conhecimento sobre uma área de domínio que faça sentido para o negócio digital se faz cada vez mais necessária. Esse especialista de domínio é visível ao contratante do serviço e inclui o fator humano em sua experiência, fechando a busca por excelência.
Conclusão
A transformação digital começou e estamos em um caminho sem volta. Para uma empresa do porte do Serpro, a maior empresa de TI pública do mundo, acompanhar essa transformação é um requisito imprescindível para que possa atender a sua missão de ser reconhecido como a empresa que viabiliza o governo digital.
A proposta do DC3.0 vem justamente ao encontro dessa missão, de modo a viabilizar uma infraestrutura diversificada, robusta, distribuída, resiliente, sustentável e, acima de tudo, digital, que suportará a preservação e continuidade dos sistemas estruturantes do Estado brasileiro, aprimorando a qualidade e a segurança dos serviços prestados. Isso também permitirá a criação de novas soluções inovadoras, a fim de suprir as necessidades não apenas dos clientes de Governo e dos cidadãos, mas também de entes privados.
[1] Cappuccio, D. (2018): Developing a Practical Hybrid Workload Placement Strategy. Gartner.
[2] DeBeasi, P., e Knoernschild, K. (2018): 2019 Planning Guide Overview: Architecting You Digital Ecosystem. Gartner, Techinial Professional Advice.
[3] Cappuccio, D. e Winser, R. (2019): Top 10 Emerging Trends Affecting Digital Infrastructure and Operations in 2019. Gartner.
_______________
Sobre os autores
Daniel Paula Guerra é gerente de Inovação de Tecnologia de Centro de Dados no Serpro. É formado em Rede de Computadores pela Estácio de Sá, e possui especialização em Gestão e Gerenciamento de Projeto pela Universidade Federal do Rio de Janeiro. Atua desde 2021 na sua atual gerência com o objetivo de maximizar a adoção de um modelo baseado em Nuvem. Com praticamente 18 anos do Serpro, possui histórico de participação em projetos na área de infraestrutura, tendo atuado principalmente no segmento de backbone.
Régison Rodrigo Martins é gerente de Inovação de Data Center no Serpro. É bacharel em Engenharia de Telecomunicações pela Universidade de Taubaté e especialista em Gestão de Tecnologia em Segurança da Informação pela Impacta Tecnologia. Possui , ainda, MBA em gestão de tecnologia da Informação pela FIAP. Atua há mais de 20 anos no mercado de TIC e faz parte, desde 2021, da CE- 021 da ABNT, que visa a criação de uma norma brasileira de melhores práticas de facilites e infraestrutura para data centers.