Falha no ChatGPT permitia roubar dados do Gmail sem clicar em nada

Uma grave falha de segurança foi descoberta na ferramenta Deep Research do ChatGPT, permitindo a coleta de dados do Gmail de usuários sem qualquer interação. A vulnerabilidade, identificada pela empresa de cibersegurança Radware, levantou preocupações sobre a privacidade e a segurança das informações em plataformas de inteligência artificial.

Embora a OpenAI já tenha corrigido a brecha, o incidente destaca a importância da vigilância contínua em sistemas de IA que interagem com dados sensíveis. Entenda como essa falha funcionava e o que ela significa para a segurança digital.

Como a vulnerabilidade do ChatGPT Deep Research funcionava?

A ferramenta Deep Research do ChatGPT, projetada para analisar grandes volumes de dados online, possui a capacidade de se conectar a contas do Gmail de usuários com autorização prévia. A equipe da Radware demonstrou que era possível enviar e-mails com instruções ocultas para que o Deep Research buscasse informações pessoais, como endereço e nome completo, na caixa de entrada do Gmail.

Esses dados poderiam então ser enviados para um endereço de web controlado pelos pesquisadores, sem que o usuário precisasse clicar em qualquer link malicioso. A simples vinculação do Gmail ao buscador de LLM era suficiente para a exploração da falha.

Qual o impacto da falha de segurança no ChatGPT?

Apesar de a OpenAI ter corrigido a vulnerabilidade em 3 de setembro, a Radware não descarta a possibilidade de que agentes maliciosos já tenham coletado informações. Esses dados poderiam ser utilizados em futuros ataques de phishing ou outras campanhas cibernéticas, comprometendo a segurança dos usuários.

Este caso serve como um alerta sobre os riscos inerentes à integração de IAs com serviços pessoais e a necessidade de rigorosos protocolos de segurança. A OpenAI reforçou seu compromisso com a segurança, afirmando que a análise da Radware foi bem-vinda e contribuiu para a melhoria de suas ferramentas.

Medidas de segurança e o futuro da IA

A exploração de falhas em sistemas de IA para roubo de dados é um cenário preocupante, e a indústria de tecnologia está em constante busca por soluções. A segurança dos modelos de linguagem é uma prioridade para empresas como a OpenAI, que continuam a otimizar e aumentar os padrões tecnológicos para evitar novas brechas.

Para os usuários, é fundamental manter-se informado sobre as permissões concedidas a aplicativos e serviços de IA, além de adotar práticas de segurança robustas, como a autenticação de dois fatores e a revisão periódica das configurações de privacidade.

Fonte: Radware