Vitalik Buterin alerta que agentes de IA podem roubar dados e modificar configurações sem o conhecimento do usuário.

Vitalik Buterin alerta que a IA baseada em nuvem apresenta sérios riscos à privacidade e à segurança, e descreve uma configuração que prioriza o uso local para manter os dados do usuário fora de servidores remotos.
Soumen Datta
3 de abril de 2026
Conteúdo
Ethereum Co-fundador Vitalik Buterin alertou que os sistemas modernos de IA representam sérios riscos à privacidade e à segurança e defendeu uma mudança para uma infraestrutura de IA que priorize o nível local.
Em um artigo do postagem de blog detalhadaButerin afirmou que as ferramentas de IA baseadas em nuvem dão aos servidores externos acesso a dados sensíveis do usuário e que os sistemas de agentes de IA mais recentes podem realizar ações sem a confirmação do usuário, incluindo a modificação das configurações do sistema e o envio de dados para servidores externos sem qualquer indicação visível ao usuário.
Quais são os riscos de segurança sobre os quais Buterin está alertando?
As preocupações de Buterin vão além da privacidade em geral. Ele identificou riscos específicos e documentados relacionados ao funcionamento prático dos agentes de IA.
Pesquisadores de segurança já demonstraram várias dessas vulnerabilidades em condições reais:
- Um agente de IA foi instruído a resumir páginas da web, uma das quais era maliciosa. A página instruía o agente a baixar e executar um script shell, dando a um terceiro o controle do sistema.
- Constatou-se que algumas ferramentas de agentes executavam solicitações de rede silenciosas, enviando dados do usuário para servidores externos sem qualquer notificação ao usuário.
- Aproximadamente 15% das habilidades dos agentes analisadas pelos pesquisadores continham instruções maliciosas.
Buterin também apontou para riscos mais difíceis de detectar. Alguns modelos podem conter backdoors ocultos, recursos incorporados a um modelo que são ativados sob condições específicas e fazem com que o sistema aja em benefício do desenvolvedor em vez do usuário.
Ele também observou que a maioria dos modelos descritos como de código aberto são, na verdade, apenas "pesos abertos", o que significa que os parâmetros do modelo são compartilhados, mas a estrutura interna completa e o processo de treinamento não. Isso abre espaço para comportamentos desconhecidos que os usuários não podem verificar de forma independente.
Qual a diferença entre um chatbot e um agente de IA?
Buterin descreveu o momento atual como um ponto de transição na forma como a IA está sendo usada. As primeiras ferramentas de IA funcionavam como chatbots: um usuário faz uma pergunta e o modelo retorna uma resposta. Os agentes são diferentes. Um usuário atribui uma tarefa ao sistema, que então opera de forma independente, às vezes por longos períodos, usando dezenas ou centenas de ferramentas para concluir essa tarefa.
Essa mudança amplia significativamente a superfície de risco. Um agente capaz de navegar na web, ler arquivos, enviar mensagens e modificar configurações do sistema tem muito mais oportunidades de causar danos, seja por meio de uma falha de segurança, uma tentativa de manipulação ou um simples erro, do que um sistema que apenas responde a perguntas.
Como Buterin configurou seu próprio sistema de IA local
Buterin afirmou que já parou de usar ferramentas de IA baseadas em nuvem. Ele descreveu sua configuração pessoal como "autossuficiente, local, privada e segura", construída em torno de três princípios fundamentais: toda a inferência de IA é executada em hardware local, todos os arquivos são armazenados localmente e cada processo é executado dentro de um ambiente isolado (sandbox).
Neste contexto, uma sandbox é um ambiente computacional isolado que restringe o acesso de um programa aos arquivos permitidos. Buterin utiliza uma ferramenta chamada Bubblewrap, que permite executar ferramentas de IA em uma sandbox de nível de diretório, onde o programa só pode acessar arquivos explicitamente autorizados por ele, com controle também sobre o acesso a portas de rede e áudio.
Hardware Buterin testado para inferência de IA local
Buterin testou diversas configurações de hardware para descobrir o que funciona melhor para executar modelos de IA localmente. Os resultados variaram significativamente:
- Um laptop com uma GPU NVIDIA 5090 atingiu aproximadamente 90 tokens por segundo usando o modelo Qwen3.5:35B.
- Um AMD Ryzen AI Max Pro com 128 GB de memória unificada atingiu aproximadamente 51 tokens por segundo.
- O DGX Spark, comercializado como um supercomputador de IA para desktop, atingiu aproximadamente 60 tokens por segundo.
Buterin definiu 50 tokens por segundo como seu mínimo pessoal para um desempenho utilizável. Ele descreveu qualquer velocidade inferior a essa como muito frustrante para o uso prático e afirmou que 90 tokens por segundo é o ideal. Ele observou que o DGX Spark apresentou desempenho inferior ao anunciado, produzindo velocidades menores do que uma boa GPU de laptop, além de exigir configuração de rede adicional para conexão a partir de um dispositivo de trabalho separado.
Seu conjunto de softwares se concentra no llama-server, um processo em segundo plano que roda localmente e expõe uma porta na máquina do usuário para que outros aplicativos possam se conectar. Isso permite que qualquer software desenvolvido para modelos da OpenAI ou da Anthropic seja redirecionado para um modelo local. Ele também usa o llama-swap para facilitar a troca entre modelos.
O que isso significa para as carteiras de criptomoedas?
As preocupações de Buterin sobre a segurança da IA estão diretamente ligadas à forma como ele acredita que a IA deve ser usada em carteiras de criptomoedas. Em comentários publicados em sua conta Farcaster em março de 2026, ele descreveu um fluxo de trabalho técnico específico para transações assistidas por IA.
Sua posição não é que a IA deva gerenciar fundos. É que a IA deve propor ações, com verificação independente e confirmação humana como base para essas propostas. Para transações de alto valor, ele descreveu um processo de três etapas: a IA propõe um plano, um cliente leve local simula a execução desse plano na blockchain e o usuário revisa tanto a descrição em linguagem natural quanto o resultado simulado antes de confirmar.
Um cliente local leve verifica os dados do blockchain sem precisar baixar a cadeia completa. Combinando isso com uma camada de IA, os usuários podem ver exatamente o que uma transação fará antes de ser transmitida para a rede, sem depender de uma interface de terceiros.
Por que remover as interfaces DApp é importante
A maioria dos usuários de criptomoedas interage com aplicativos descentralizados por meio de interfaces baseadas em navegador. Historicamente, essas interfaces têm sido uma superfície de ataque significativa. Sequestros de interfaces, injeções de scripts maliciosos e solicitações de aprovação falsas resultaram em perdas de centenas de milhões de dólares nos últimos anos.
Buterin argumentou que as carteiras digitais com inteligência artificial poderiam eliminar completamente essas interfaces. Se o usuário declara o que deseja fazer em linguagem simples e a carteira monta e simula a transação diretamente, não há nenhum site de terceiros que possa ser comprometido.
"Remover completamente as interfaces de usuário dos DApps resolve um grande número de vetores de ataque, tanto para roubo quanto para privacidade", escreveu ele.
Para operações de menor valor, Buterin vê espaço para mais automação. Uma carteira com IA poderia lidar de forma eficiente com o monitoramento de padrões de transação em busca de atividades incomuns, sugerindo taxas de gás com base nas condições atuais da rede, roteando trocas de tokens por caminhos eficientes e sinalizando interações suspeitas de contratos antes da aprovação. Essas são tarefas em que os erros são recuperáveis e onde a automação reduz a complexidade para usuários não técnicos.
Segundo Buterin, não se deve confiar a grandes modelos de linguagem autoridade irrestrita sobre grandes somas de dinheiro. Os modelos de linguagem de grande porte geram respostas com base em padrões estatísticos, não em lógica determinística. Eles podem interpretar instruções incorretamente ou ser manipulados por meio de injeção de prompts, uma técnica na qual entradas cuidadosamente elaboradas fazem com que o modelo se comporte de maneiras inesperadas. Cada camada em seu fluxo de trabalho proposto adiciona uma verificação independente especificamente para evitar esse tipo de falha.
Por que o mercado de agentes de IA torna esses riscos mais urgentes
As preocupações levantadas por Buterin não são hipotéticas. Estimativas do setor apontam que o mercado de agentes de IA deve atingir aproximadamente [valor omitido]. US$ 8 bilhões Em 2025, com projeções indicando um crescimento para mais de US$ 48 bilhões até 2030, representando uma taxa de crescimento anual superior a 43%. À medida que mais softwares são desenvolvidos em torno de sistemas autônomos de IA que operam com supervisão humana reduzida, as lacunas de segurança que ele identificou tornam-se mais difíceis de ignorar em larga escala.
Conclusão
Os alertas de Buterin são respaldados por pesquisas documentadas. Vulnerabilidades de segurança em agentes de IA já foram demonstradas em condições reais, e a transição de chatbots para agentes autônomos torna esses riscos mais difíceis de conter.
Sua configuração que prioriza o uso local e o fluxo de trabalho de carteira em três etapas não são rejeições da IA. São tentativas de utilizá-la sem abrir mão do controle sobre os dados ou os fundos. À medida que os agentes de IA se tornam mais capazes, a questão de quem realmente controla suas ações se torna cada vez mais difícil de ignorar.
Recursos
Artigo de Vitalik ButerinMeu ambiente de mestrado em direito (LLM) autônomo/local/privado/seguro, abril de 2026.
Vitalik Buterin no FarcasterPostagem de 5º de março
Relatório da BCC ResearchMercado de agentes de IA deverá crescer 43.3% ao ano até 2030.
Perguntas frequentes
Quais riscos de segurança Vitalik Buterin identificou nas ferramentas de IA?
Buterin identificou vários riscos específicos: sistemas de IA baseados em nuvem que armazenam e potencialmente vendem dados privados de usuários, agentes de IA que modificam configurações do sistema ou adicionam canais de comunicação sem a confirmação do usuário, exfiltração silenciosa de dados por meio de solicitações de rede ocultas, ataques de jailbreak em que entradas maliciosas manipulam o comportamento da IA e backdoors ocultos em modelos que são ativados sob condições específicas. A pesquisa citada em sua publicação constatou que aproximadamente 15% das habilidades de agentes examinadas continham instruções maliciosas.
O que é uma configuração de IA com foco em aspectos locais e por que Buterin a recomenda?
Uma configuração de IA com foco em recursos locais executa toda a inferência do modelo e o armazenamento de arquivos no próprio hardware do usuário, em vez de em servidores remotos. Buterin recomenda essa abordagem porque impede que os dados do usuário cheguem a servidores externos que possam acessá-los, armazená-los ou vendê-los. Sua própria configuração utiliza o llama-server para inferência local, ferramentas de sandbox para isolar os processos de IA e armazenamento local para anotações e materiais de referência. Ele executa o modelo Qwen3.5:35B em um laptop com uma GPU NVIDIA 5090, atingindo aproximadamente 90 tokens por segundo.
Como Buterin acha que a IA deveria ser usada em carteiras de criptomoedas?
Buterin defende o uso de IA em carteiras digitais como uma camada de sugestão e monitoramento, não como um controlador autônomo de fundos. Para transações de alto valor, ele propõe um fluxo de trabalho onde a IA sugere uma ação, um cliente leve local simula o resultado na blockchain e o usuário confirma manualmente antes que qualquer coisa seja transmitida. Para tarefas de menor valor, como sugestões de taxas de gás ou sinalização de contratos suspeitos, ele vê mais espaço para automação. Ele afirmou explicitamente que não confiaria transações multimilionárias a um modelo de linguagem complexo devido ao risco de alucinações e ataques de injeção de código.
Aviso Legal
Aviso Legal: As opiniões expressas neste artigo não representam necessariamente as opiniões da BSCN. As informações fornecidas neste artigo são apenas para fins educacionais e de entretenimento e não devem ser interpretadas como aconselhamento de investimento ou aconselhamento de qualquer tipo. A BSCN não assume nenhuma responsabilidade por quaisquer decisões de investimento tomadas com base nas informações fornecidas neste artigo. Se você acredita que o artigo deve ser alterado, entre em contato com a equipe da BSCN enviando um e-mail para conveyors.au@prok.com.
Autor
Soumen DattaSoumen é pesquisador de criptomoedas desde 2020 e possui mestrado em Física. Seus textos e pesquisas foram publicados em publicações como CryptoSlate e DailyCoin, além da BSCN. Suas áreas de foco incluem Bitcoin, DeFi e altcoins de alto potencial como Ethereum, Solana, XRP e Chainlink. Ele combina profundidade analítica com clareza jornalística para fornecer insights tanto para iniciantes quanto para leitores experientes de criptomoedas.
Últimas notícias criptográficas
Fique por dentro das últimas notícias e eventos sobre criptomoedas





















