Entre 27 e 29 de janeiro de 2026, 14 extensões maliciosas foram enviadas ao ClawHub, plataforma de compartilhamento de “skills” para o assistente de IA OpenClaw. Pesquisadores da OpenSourceMalware identificaram que essas extensões se apresentavam como ferramentas de automação de carteiras de criptomoedas, mas instalavam malware nos sistemas dos usuários.

O ataque funcionou porque usuários foram instruídos a copiar e colar comandos de terminal ofuscados durante o processo de “configuração”. Esses comandos baixavam e executavam scripts remotos que coletavam dados de navegadores e informações de carteiras cripto. Uma das extensões maliciosas chegou à página principal do ClawHub antes de ser removida, aumentando drasticamente o número de instalações acidentais.

O problema da segurança da IA cresce com o uso corporativo

Empresas que adotam ferramentas de IA sem governança adequada enfrentam riscos mensuráveis:

  • Acesso não autorizado a dados sensíveis. Agentes de IA que se conectam a sistemas internos podem expor informações confidenciais se não houver controles de hierarquia de acesso. Por exemplo, um funcionário júnior pode inadvertidamente dar a um agente de IA permissões que ele próprio não possui.
  • Execução de código malicioso. Extensões de terceiros para ferramentas de IA frequentemente solicitam permissões amplas de sistema. O caso do OpenClaw demonstra que uma extensão aparentemente útil é capaz de executar comandos arbitrários no computador do usuário.
  • Vazamento de propriedade intelectual. Quando colaboradores utilizam IAs públicas para redigir documentos ou processar dados, essas informações podem ser usadas para treinar modelos futuros ou armazenadas em servidores externos sem criptografia adequada.

O ecossistema de extensões do OpenClaw opera sem sandbox — o código instalado pode interagir diretamente com o sistema de arquivos local e acessar recursos de rede. A documentação do projeto adverte que instalar uma skill equivale a conceder privilégios de execução local, mas muitos usuários não leem essas advertências.

Segurança da IA exige arquitetura dedicada

Soluções genéricas de IA apresentam lacunas de segurança porque foram projetadas para casos de uso amplos, não para as necessidades específicas de uma empresa. Três componentes técnicos determinam se uma implementação de IA é segura:

  • Controle de acesso baseado em função (RBAC). Cada agente de IA deve ter permissões específicas que correspondem exatamente ao que o usuário que o invoca pode fazer. Um assistente acessado pelo departamento financeiro não deve ter acesso aos repositórios de código da equipe de desenvolvimento.
  • Auditoria de prompts e respostas. Logs detalhados de todas as interações permitem identificar tentativas de extração de dados ou uso indevido. Esses logs devem incluir timestamp, usuário, query, resposta e recursos acessados.
  • Isolamento de dados de treinamento. Modelos customizados para empresas devem ser treinados exclusivamente com dados internos e nunca compartilhar aprendizado com instâncias externas ou modelos públicos. Isso previne que informações proprietárias vazem por meio do processo de fine-tuning.

A recente onda de ataques a ferramentas de IA também incluiu uma extensão falsa do Visual Studio Code que se passava pelo OpenClaw e entregava payload de acesso remoto antes de ser removida. A frequência dessas tentativas aumenta à medida que mais empresas adotam agentes de IA em seus fluxos de trabalho.

Como a BHS implementa segurança da IA

A solução AI Inside da BHS é um agente de Inteligência Artificial desenvolvido para se adaptar às necessidades específicas de cada negócio, combinando performance, segurança e governança de dados em uma única arquitetura.

O controle de acesso segue um modelo rigoroso: cada usuário consulta exclusivamente as informações às quais já possui permissão formal dentro da organização. Esse processo elimina o risco de exposição acidental de dados sensíveis por falhas de hierarquia, um dos vetores de ataque mais comuns em implementações genéricas de IA.

Toda interação realizada pelo agente é registrada em banco de dados, permitindo rastreabilidade completa, auditoria e análise de comportamento e tendências de uso. Esse nível de visibilidade amplia a inteligência sobre como a informação é consumida na empresa e facilita a identificação de qualquer anomalia operacional.

A arquitetura do AI Inside foi projetada para operar de forma totalmente isolada e segura dentro do ambiente do cliente. Os dados corporativos não são utilizados para treinamento de modelos e permanecem integralmente retidos na infraestrutura do próprio cliente, assegurando conformidade, confidencialidade e soberania da informação.

Além disso, a BHS também oferece serviço de auditoria de segurança para empresas que já utilizam ferramentas de IA. Entre em contato para agendar uma análise de segurança da sua implementação de IA.