OpenAI cria Modo de Bloqueio para blindar o ChatGPT contra ataques avançados

Renê Fraga
4 min de leitura

Principais destaques

  • Novo Modo de Bloqueio limita conexões externas para reduzir risco de vazamento de dados
  • Recursos com potencial sensível passam a receber selo de Risco Elevado
  • Medidas são voltadas inicialmente a empresas e usuários sob ameaça sofisticada

A OpenAI anunciou um reforço importante na segurança do ChatGPT.

A empresa revelou o Modo de Bloqueio, uma configuração opcional criada para proteger usuários contra ataques de injeção de prompt, técnica usada para manipular sistemas de inteligência artificial e extrair informações sensíveis.

A novidade chega em um momento em que ferramentas baseadas em IA estão cada vez mais conectadas à internet e a sistemas corporativos, ampliando também a superfície de ataque. Além do novo modo, a companhia passou a adotar rótulos padronizados de Risco Elevado em funcionalidades consideradas mais sensíveis.

Modo de Bloqueio é voltado a usuários sob ameaça avançada

O Modo de Bloqueio foi desenvolvido especialmente para executivos, equipes de segurança e organizações que lidam com dados estratégicos. Não é um recurso pensado para o público geral, mas sim para quem enfrenta riscos mais sofisticados.

Quando ativado, o sistema restringe de forma determinística diversas funções conectadas à rede. A navegação na web, por exemplo, passa a funcionar apenas com conteúdo previamente armazenado em cache, impedindo requisições externas em tempo real. Também ficam desativados recursos como Modo Agente, Pesquisa Aprofundada, conexões externas do Canvas e downloads de arquivos.

Segundo a própria OpenAI, o objetivo é reduzir significativamente a possibilidade de exfiltração de dados por meio de injeção de prompt. A empresa reconhece, no entanto, que nenhuma proteção é absoluta.

Inicialmente, o recurso está disponível para clientes dos planos Enterprise, Edu, Healthcare e Teachers. A promessa é que versões para consumidores sejam liberadas nos próximos meses.

Rótulos de Risco Elevado trazem mais transparência

Outra mudança importante é a introdução de avisos claros de Risco Elevado em determinadas funcionalidades do ChatGPT, do ChatGPT Atlas e do Codex.

Esses alertas aparecem nas telas de configuração e explicam de maneira objetiva o que muda quando o recurso é ativado, quais riscos podem surgir e em que contexto o uso é apropriado. No caso do Codex, por exemplo, o aviso surge quando o assistente recebe permissão para acessar a internet e executar ações online, como consultar documentações externas.

A OpenAI afirmou que os selos serão removidos assim que os riscos forem suficientemente mitigados para uso amplo.

Segurança em IA entra em nova fase

O anúncio reflete uma preocupação crescente do setor com ataques de injeção de prompt, considerados difíceis de eliminar completamente, principalmente em sistemas com capacidades autônomas e acesso à web.

A OpenAI vem investindo em técnicas automatizadas de red-teaming, utilizando aprendizado por reforço para identificar novos padrões de ataque antes que eles sejam explorados no mundo real. A empresa também reforça que o Modo de Bloqueio complementa outras camadas de proteção já existentes, como sandboxing, monitoramento contínuo, controles de acesso baseados em função e registros de auditoria.

À medida que sistemas de IA passam a executar tarefas mais complexas e interagir com aplicações externas, a segurança deixa de ser apenas um diferencial e se torna um pilar central da evolução dessas plataformas.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário