… ser repensada, nestes novos tempos! A ascensão da Inteligência Artificial (IA) “agêntica” – sistemas capazes de agir de forma autônoma para completar objetivos complexos – está tornando obsoletas as atuais linhas de base (baselines) das redes, as quais são estabelecidas de forma estática para o seu monitoramento. Tradicionalmente, os administradores de TI configuram padrões bem definidos para o tráfego de rede, mas a natureza imprevisível e dinâmica dos agentes de IA, que podem iniciar múltiplas conexões e transferências de dados por conta própria, rompe completamente estes modelos…
“Enterprise networks are entering a new phase in how AI is applied, moving beyond analytics dashboards and retrospective insights toward systems that recommend actions, optimize behavior, and operate closer to real time. As AI becomes more agentic, one requirement becomes clear: systems that influence the network must continuously refine their understanding of what “normal” looks like. This is the principle behind recursive learning…”
— by TechRadar.
A principal mudança reside na imprevisibilidade do comportamento desses agentes. Enquanto o tráfego humano e de aplicações tradicionais tende a seguir padrões horários ou de volume conhecidos, a IA agêntica pode gerar picos massivos de demanda em frações de segundo ou acessar repositórios de dados de maneira não convencional. Isto faz com que os alertas de segurança e desempenho baseados em regras estáticas disparem de forma constante, gerando “fadiga de alertas” e até mesmo permitindo que comportamentos maliciosos se escondam no meio deste “caos”.
Além disso, também devemos levar em consideração que a infraestrutura de rede atual não foi projetada para a comunicação “máquina-para-máquina” em escala tão profunda, tal como veremos a partir de agora, com a proliferação dos agentes de IA. À medida que eles começam a colaborar entre si, trocando informações entre diferentes nuvens e dispositivos de borda, o volume de tráfego leste-oeste (dentro do data center) aumenta exponencialmente. Isto exige uma visibilidade muito mais granular do que as ferramentas legadas conseguem oferecer.
A segurança (como já é de se esperar) também se tornará um ponto crítico, pois a IA agêntica irá deliberadamente expandir a superfície de ataque. Como estes agentes possuem permissões para executar ações, um agente comprometido pode causar danos significativos de forma autônoma. As defesas baseadas em perímetros fixos ou assinaturas de vírus tornam-se ineficazes contra ataques que imitam o comportamento legítimo de uma IA que está apenas “trabalhando” na rede.
Para sobreviver a essa nova era, as empresas deverão adotar formas de monitoramento mais dinâmico, além da observabilidade em tempo real. Em vez de definir o que é tráfego “normal” como é feito manualmente, as próprias redes precisarão utilizar IA para aprender e adaptar continuamente as linhas de base. Elas deverão se tornar tão inteligentes quanto as aplicações que nela trafegam, antecipando necessidades de largura de banda e identificando anomalias sutis.
Por fim, a transição para uma rede pronta para a IA exigirá uma mudança de mentalidade das equipes de TI. O foco sairá da manutenção de configurações estáticas para a gestão de políticas baseadas em intenção. A sobrevivência das organizações no cenário tecnológico futuro dependerá da capacidade de suas redes serem tão ágeis e autônomas quanto os agentes de IA que elas suportam.
Se já não bastassem as complicações com a orquestração e automação… &;-D