O armazenamento, e não o silício, irá desencadear o próximo avanço da IA.

O debate sobre a potência de processamento gráfico é uma notícia antiga. Aqueles que terão sucesso no futuro serão aqueles que dominarem onde os dados estão. À medida que a criação de dados globais continua a explodir, as empresas que ficam para trás ficarão excluídas da próxima fase de inovação.

Resumo

  • Os volumes de dados estão a explodir, com a criação global projetada para ultrapassar 200 zettabytes até ao final de 2025, mais do que toda a produção humana anterior combinada.
  • O armazenamento em nuvem centralizado é o gargalo da IA, inflacionando os custos em até 80% com taxas de saída e atrasando transferências de dados em grande escala por dias.
  • Redes de armazenamento descentralizadas oferecem uma solução, fragmentando dados entre nós independentes e incorporando provas criptográficas para trilhas de auditoria prontas para conformidade.
  • A regulamentação como o Ato de IA da UE aumenta as apostas, forçando a proveniência de dados comprovável—tornando o armazenamento uma prioridade estratégica, não uma utilidade de fundo.

A criação de dados deverá atingir 200 zettabytes em todo o mundo até ao final de 2025; isso é suficiente para transmitir todos os filmes já feitos mais de 100 mil milhões de vezes. Esta estimativa envolve mais matéria digital do que a humanidade gerou em todos os anos anteriores combinados.

Em conjunto com este aumento, equipas de investigação revelaram o primeiro modelo de linguagem de um trilhão de parâmetros disponibilizado publicamente. Este modelo colossal, cujo corpus de treino por si só teria preenchido arquivos nacionais inteiros há dez anos, é um exemplo de tal Leviatã que consome petabytes por hora.

Sem pipelines de armazenamento que possam ingerir, armazenar e transmitir dados a estas novas escalas, até os processadores mais rápidos sofrerão em frustração ociosa.

Nuvens centralizadas são o novo gargalo

A maioria das organizações ainda depende de um punhado de silos de armazenamento hyperscale projetados para aplicativos da web, e não para ciência de fronteira. O impacto financeiro é brutal.

Uma auditoria da indústria publicada em abril revelou que encargos ocultos de saída e recuperação podem aumentar os custos reais de armazenamento em até 80%, tornando o retraining de modelos rotineiro um empreendimento que quebra o orçamento. Pior ainda, mover dezenas de petabytes entre regiões pode levar dias; uma eternidade quando a vantagem competitiva é medida em ciclos de iteração.

A centralização, portanto, faz mais do que inflacionar faturas; ela incorpora desigualdade diretamente na economia da inteligência artificial, dando aos incumbentes com bolsos mais profundos uma vantagem automática sobre todos os outros. Em resposta a essa realidade, um plano diferente está ganhando força à medida que redes de armazenamento descentralizadas que fragmentam dados por milhares de nós independentes abrem caminho para um futuro construído em condições de igualdade.

Igualmente vital é a necessidade de trilhas de auditoria transparentes que satisfaçam os mandatos de divulgação iminentes sobre como os dados de negociação são obtidos, curados e governados. Em última análise, a regulação será o fator decisivo sobre se os modelos de amanhã verão a luz do dia ou enfrentarão litígios.

O novo teste de stress do Storage

A IA em tempo real agora se estende muito além da parede do centro de dados, levando modelos para chão de fábrica, hospitais e veículos autônomos. Nesses limites, um milissegundo perdido devido a I/O lenta pode desencadear uma falha de produção ou um risco à segurança.

Os mais recentes benchmarks MLPerf Storage v2.0 provam a pressão: a verificação de ponto de uma carga de trabalho do tipo GPT através de 10.000 aceleradores agora leva 37 segundos, e até mesmo um supercluster de 100.000 GPUs ainda para por 4,4 segundos enquanto espera pelos discos em vez de realizar operações matemáticas.

A menos que os pipelines consigam entregar petabytes em explosões e depois replicar os mesmos dados para milhares de micro-sites, a ‘edge-AI’ continuará a ser mais uma keynote do que uma realidade. Os analistas já estão ecoando o aviso de que a capacidade de armazenamento, e não a memória ou a rede, será o principal gargalo que restringirá os clusters da próxima geração.

A regulamentação adiciona outra camada de urgência, como o Ato de IA da União Europeia, que entrou na sua segunda fase de aplicação em 2 de agosto — forçando os provedores de modelos de uso geral a documentar cada fragmento de dados de treinamento… ou arriscar multas de até 7% do volume de negócios global.

Os silos centralizados lutam para satisfazer este mandato. Cópias duplicadas obscurecem a proveniência, e os registos de saída opacos tornam as trilhas de auditoria um pesadelo para os contabilistas. Em contraste, as redes descentralizadas incorporam provas criptográficas de replicação na sua própria estrutura, transformando a conformidade em um subproduto em vez de um complemento caro.

Ignorar armazenamento ao custo de perigo

Com latência de borda medida em microssegundos e penalidades legais medidas em bilhões, o armazenamento não é mais uma utilidade de fundo; é o único substrato onde a IA de amanhã pode operar legal e fisicamente. As empresas que ainda tratam a capacidade como um item de linha de commodity estão cortejando dívida técnica e choque regulatório em igual medida.

A inovação computacional continuará a roubar as manchetes, mas sem uma reavaliação igualmente radical sobre onde ( e como ) os dados residem, o silício mais avançado ficará parado enquanto os custos e os riscos de conformidade disparam.

A corrida pela dominância da IA está em andamento, e será vencida por aqueles que elevam o armazenamento a uma prioridade estratégica de primeira classe, abraçam a descentralização e constroem pipelines prontos para auditoria que escalam do núcleo até a borda. Todos os outros descobrirão que nenhuma quantidade de poder de GPU pode superar um gargalo construído nas próprias fundações de sua pilha.

Kai Wawrzinek

Kai Wawrzinek

Kai Wawrzinek é co-fundador da Impossible Cloud & Impossible Cloud Network. Ele é um empreendedor experiente com um doutorado em Direito e um histórico comprovado de construção de empreendimentos de sucesso. Reconhecendo a necessidade de soluções de nível empresarial no espaço web3, Kai fundou a Impossible Cloud Network (ICN), uma plataforma de nuvem descentralizada destinada a criar uma alternativa descentralizada ao AWS. Antes da ICN, Kai fundou a Goodgame Studios, uma empresa de jogos online, e fez a empresa crescer para mais de 1.000 funcionários, gerando mais de 1 bilhão de euros em receita, tornando-a pública na Nasdaq em 2018 através de uma fusão reversa.

NOT-5.26%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)