O debate sobre a potência de processamento gráfico é uma notícia antiga. Aqueles que terão sucesso no futuro serão aqueles que dominarem onde os dados estão. À medida que a criação de dados globais continua a explodir, as empresas que ficam para trás ficarão excluídas da próxima fase de inovação.
Resumo
Os volumes de dados estão a explodir, com a criação global projetada para ultrapassar 200 zettabytes até ao final de 2025, mais do que toda a produção humana anterior combinada.
O armazenamento em nuvem centralizado é o gargalo da IA, inflacionando os custos em até 80% com taxas de saída e atrasando transferências de dados em grande escala por dias.
Redes de armazenamento descentralizadas oferecem uma solução, fragmentando dados entre nós independentes e incorporando provas criptográficas para trilhas de auditoria prontas para conformidade.
A regulamentação como o Ato de IA da UE aumenta as apostas, forçando a proveniência de dados comprovável—tornando o armazenamento uma prioridade estratégica, não uma utilidade de fundo.
A criação de dados deverá atingir 200 zettabytes em todo o mundo até ao final de 2025; isso é suficiente para transmitir todos os filmes já feitos mais de 100 mil milhões de vezes. Esta estimativa envolve mais matéria digital do que a humanidade gerou em todos os anos anteriores combinados.
Em conjunto com este aumento, equipas de investigação revelaram o primeiro modelo de linguagem de um trilhão de parâmetros disponibilizado publicamente. Este modelo colossal, cujo corpus de treino por si só teria preenchido arquivos nacionais inteiros há dez anos, é um exemplo de tal Leviatã que consome petabytes por hora.
Sem pipelines de armazenamento que possam ingerir, armazenar e transmitir dados a estas novas escalas, até os processadores mais rápidos sofrerão em frustração ociosa.
Nuvens centralizadas são o novo gargalo
A maioria das organizações ainda depende de um punhado de silos de armazenamento hyperscale projetados para aplicativos da web, e não para ciência de fronteira. O impacto financeiro é brutal.
Uma auditoria da indústria publicada em abril revelou que encargos ocultos de saída e recuperação podem aumentar os custos reais de armazenamento em até 80%, tornando o retraining de modelos rotineiro um empreendimento que quebra o orçamento. Pior ainda, mover dezenas de petabytes entre regiões pode levar dias; uma eternidade quando a vantagem competitiva é medida em ciclos de iteração.
A centralização, portanto, faz mais do que inflacionar faturas; ela incorpora desigualdade diretamente na economia da inteligência artificial, dando aos incumbentes com bolsos mais profundos uma vantagem automática sobre todos os outros. Em resposta a essa realidade, um plano diferente está ganhando força à medida que redes de armazenamento descentralizadas que fragmentam dados por milhares de nós independentes abrem caminho para um futuro construído em condições de igualdade.
Igualmente vital é a necessidade de trilhas de auditoria transparentes que satisfaçam os mandatos de divulgação iminentes sobre como os dados de negociação são obtidos, curados e governados. Em última análise, a regulação será o fator decisivo sobre se os modelos de amanhã verão a luz do dia ou enfrentarão litígios.
O novo teste de stress do Storage
A IA em tempo real agora se estende muito além da parede do centro de dados, levando modelos para chão de fábrica, hospitais e veículos autônomos. Nesses limites, um milissegundo perdido devido a I/O lenta pode desencadear uma falha de produção ou um risco à segurança.
Os mais recentes benchmarks MLPerf Storage v2.0 provam a pressão: a verificação de ponto de uma carga de trabalho do tipo GPT através de 10.000 aceleradores agora leva 37 segundos, e até mesmo um supercluster de 100.000 GPUs ainda para por 4,4 segundos enquanto espera pelos discos em vez de realizar operações matemáticas.
A menos que os pipelines consigam entregar petabytes em explosões e depois replicar os mesmos dados para milhares de micro-sites, a ‘edge-AI’ continuará a ser mais uma keynote do que uma realidade. Os analistas já estão ecoando o aviso de que a capacidade de armazenamento, e não a memória ou a rede, será o principal gargalo que restringirá os clusters da próxima geração.
A regulamentação adiciona outra camada de urgência, como o Ato de IA da União Europeia, que entrou na sua segunda fase de aplicação em 2 de agosto — forçando os provedores de modelos de uso geral a documentar cada fragmento de dados de treinamento… ou arriscar multas de até 7% do volume de negócios global.
Os silos centralizados lutam para satisfazer este mandato. Cópias duplicadas obscurecem a proveniência, e os registos de saída opacos tornam as trilhas de auditoria um pesadelo para os contabilistas. Em contraste, as redes descentralizadas incorporam provas criptográficas de replicação na sua própria estrutura, transformando a conformidade em um subproduto em vez de um complemento caro.
Ignorar armazenamento ao custo de perigo
Com latência de borda medida em microssegundos e penalidades legais medidas em bilhões, o armazenamento não é mais uma utilidade de fundo; é o único substrato onde a IA de amanhã pode operar legal e fisicamente. As empresas que ainda tratam a capacidade como um item de linha de commodity estão cortejando dívida técnica e choque regulatório em igual medida.
A inovação computacional continuará a roubar as manchetes, mas sem uma reavaliação igualmente radical sobre onde ( e como ) os dados residem, o silício mais avançado ficará parado enquanto os custos e os riscos de conformidade disparam.
A corrida pela dominância da IA está em andamento, e será vencida por aqueles que elevam o armazenamento a uma prioridade estratégica de primeira classe, abraçam a descentralização e constroem pipelines prontos para auditoria que escalam do núcleo até a borda. Todos os outros descobrirão que nenhuma quantidade de poder de GPU pode superar um gargalo construído nas próprias fundações de sua pilha.
Kai Wawrzinek
Kai Wawrzinek é co-fundador da Impossible Cloud & Impossible Cloud Network. Ele é um empreendedor experiente com um doutorado em Direito e um histórico comprovado de construção de empreendimentos de sucesso. Reconhecendo a necessidade de soluções de nível empresarial no espaço web3, Kai fundou a Impossible Cloud Network (ICN), uma plataforma de nuvem descentralizada destinada a criar uma alternativa descentralizada ao AWS. Antes da ICN, Kai fundou a Goodgame Studios, uma empresa de jogos online, e fez a empresa crescer para mais de 1.000 funcionários, gerando mais de 1 bilhão de euros em receita, tornando-a pública na Nasdaq em 2018 através de uma fusão reversa.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O armazenamento, e não o silício, irá desencadear o próximo avanço da IA.
O debate sobre a potência de processamento gráfico é uma notícia antiga. Aqueles que terão sucesso no futuro serão aqueles que dominarem onde os dados estão. À medida que a criação de dados globais continua a explodir, as empresas que ficam para trás ficarão excluídas da próxima fase de inovação.
Resumo
A criação de dados deverá atingir 200 zettabytes em todo o mundo até ao final de 2025; isso é suficiente para transmitir todos os filmes já feitos mais de 100 mil milhões de vezes. Esta estimativa envolve mais matéria digital do que a humanidade gerou em todos os anos anteriores combinados.
Em conjunto com este aumento, equipas de investigação revelaram o primeiro modelo de linguagem de um trilhão de parâmetros disponibilizado publicamente. Este modelo colossal, cujo corpus de treino por si só teria preenchido arquivos nacionais inteiros há dez anos, é um exemplo de tal Leviatã que consome petabytes por hora.
Sem pipelines de armazenamento que possam ingerir, armazenar e transmitir dados a estas novas escalas, até os processadores mais rápidos sofrerão em frustração ociosa.
Nuvens centralizadas são o novo gargalo
A maioria das organizações ainda depende de um punhado de silos de armazenamento hyperscale projetados para aplicativos da web, e não para ciência de fronteira. O impacto financeiro é brutal.
Uma auditoria da indústria publicada em abril revelou que encargos ocultos de saída e recuperação podem aumentar os custos reais de armazenamento em até 80%, tornando o retraining de modelos rotineiro um empreendimento que quebra o orçamento. Pior ainda, mover dezenas de petabytes entre regiões pode levar dias; uma eternidade quando a vantagem competitiva é medida em ciclos de iteração.
A centralização, portanto, faz mais do que inflacionar faturas; ela incorpora desigualdade diretamente na economia da inteligência artificial, dando aos incumbentes com bolsos mais profundos uma vantagem automática sobre todos os outros. Em resposta a essa realidade, um plano diferente está ganhando força à medida que redes de armazenamento descentralizadas que fragmentam dados por milhares de nós independentes abrem caminho para um futuro construído em condições de igualdade.
Igualmente vital é a necessidade de trilhas de auditoria transparentes que satisfaçam os mandatos de divulgação iminentes sobre como os dados de negociação são obtidos, curados e governados. Em última análise, a regulação será o fator decisivo sobre se os modelos de amanhã verão a luz do dia ou enfrentarão litígios.
O novo teste de stress do Storage
A IA em tempo real agora se estende muito além da parede do centro de dados, levando modelos para chão de fábrica, hospitais e veículos autônomos. Nesses limites, um milissegundo perdido devido a I/O lenta pode desencadear uma falha de produção ou um risco à segurança.
Os mais recentes benchmarks MLPerf Storage v2.0 provam a pressão: a verificação de ponto de uma carga de trabalho do tipo GPT através de 10.000 aceleradores agora leva 37 segundos, e até mesmo um supercluster de 100.000 GPUs ainda para por 4,4 segundos enquanto espera pelos discos em vez de realizar operações matemáticas.
A menos que os pipelines consigam entregar petabytes em explosões e depois replicar os mesmos dados para milhares de micro-sites, a ‘edge-AI’ continuará a ser mais uma keynote do que uma realidade. Os analistas já estão ecoando o aviso de que a capacidade de armazenamento, e não a memória ou a rede, será o principal gargalo que restringirá os clusters da próxima geração.
A regulamentação adiciona outra camada de urgência, como o Ato de IA da União Europeia, que entrou na sua segunda fase de aplicação em 2 de agosto — forçando os provedores de modelos de uso geral a documentar cada fragmento de dados de treinamento… ou arriscar multas de até 7% do volume de negócios global.
Os silos centralizados lutam para satisfazer este mandato. Cópias duplicadas obscurecem a proveniência, e os registos de saída opacos tornam as trilhas de auditoria um pesadelo para os contabilistas. Em contraste, as redes descentralizadas incorporam provas criptográficas de replicação na sua própria estrutura, transformando a conformidade em um subproduto em vez de um complemento caro.
Ignorar armazenamento ao custo de perigo
Com latência de borda medida em microssegundos e penalidades legais medidas em bilhões, o armazenamento não é mais uma utilidade de fundo; é o único substrato onde a IA de amanhã pode operar legal e fisicamente. As empresas que ainda tratam a capacidade como um item de linha de commodity estão cortejando dívida técnica e choque regulatório em igual medida.
A inovação computacional continuará a roubar as manchetes, mas sem uma reavaliação igualmente radical sobre onde ( e como ) os dados residem, o silício mais avançado ficará parado enquanto os custos e os riscos de conformidade disparam.
A corrida pela dominância da IA está em andamento, e será vencida por aqueles que elevam o armazenamento a uma prioridade estratégica de primeira classe, abraçam a descentralização e constroem pipelines prontos para auditoria que escalam do núcleo até a borda. Todos os outros descobrirão que nenhuma quantidade de poder de GPU pode superar um gargalo construído nas próprias fundações de sua pilha.
Kai Wawrzinek
Kai Wawrzinek é co-fundador da Impossible Cloud & Impossible Cloud Network. Ele é um empreendedor experiente com um doutorado em Direito e um histórico comprovado de construção de empreendimentos de sucesso. Reconhecendo a necessidade de soluções de nível empresarial no espaço web3, Kai fundou a Impossible Cloud Network (ICN), uma plataforma de nuvem descentralizada destinada a criar uma alternativa descentralizada ao AWS. Antes da ICN, Kai fundou a Goodgame Studios, uma empresa de jogos online, e fez a empresa crescer para mais de 1.000 funcionários, gerando mais de 1 bilhão de euros em receita, tornando-a pública na Nasdaq em 2018 através de uma fusão reversa.