PCGuia PCGuia
  • [email protected]
  • Dicas
    • Apps
    • Descomplicómetro
    • Download da semana
    • Guia completo
    • Inteligência Artificial
    • Linux
    • MacGuia
    • Modding
    • Photoshop
    • Teste de velocidade da Internet
    • Open Source
  • Notícias
    • Ambiente
    • Apps
    • Ciência
    • Curiosidades
    • Hardware
    • Inteligência Artificial
    • Internet
    • Jogos
    • Mercados
    • Mobilidade
    • Multimédia
    • Robots
    • Segurança
    • Software
    • Startup
    • Especiais
      • Especial PCGuia
      • História
      • Reportagem PC Guia
  • Reviews
    • Armazenamento
    • Áudio
    • Componentes
    • Desktops
    • Gadgets
    • Imagem
    • Mobilidade
    • Periféricos
    • Robótica
  • Opinião
    • Conceito Humanoide
    • Há Uma App Para Tudo
    • O Que Vem à Rede
    • Praia das Maçãs
    • Quinta Coluna
  • Loja Fidemo
  • Precisa de ajuda?
  • Contactos
  • Como testamos os produtos
  • Termos de utilização
  • Política de privacidade e cookies
  • Estatuto Editorial
  • Declaração de Privacidade
  • Política de Cookies
  • Vencedores dos Prémios Leitor PCGuia 2025
© 2023 - Fidemo Sociedade de Media
A ler: Falha no ChatGPT permitia exfiltração silenciosa de dados (mas já foi corrigida pela OpenAI)
Font ResizerAa
PCGuia PCGuia
Font ResizerAa
Procurar
  • Dicas
  • Jogos
  • Linux
  • Notícias
  • Opinião
  • Reviews
  • Cookie Policy
© 2023 Fidemo Sociedade de Média
PCGuia > Notícias > Falha no ChatGPT permitia exfiltração silenciosa de dados (mas já foi corrigida pela OpenAI)
Notícias

Falha no ChatGPT permitia exfiltração silenciosa de dados (mas já foi corrigida pela OpenAI)

O aviso foi dado pela da Check Point, na sequência de uma investigação.

Redacção PCGuia
Publicado em 2 de Abril, 2026
Tempo de leitura: 1 min
©Depositphotos | OpenAI ChatGPT
©Depositphotos

A empresa de segurança Check Point revelou uma vulnerabilidade no ChatGPT que permitia a «exfiltração silenciosa de dados sensíveis, sem qualquer indicação para o utilizador». A falha foi identificada pela equipa Check Point Research e corrigida pela OpenAI a «20 de Fevereiro de 2026», sem que tivesse havido «evidências de exploração activa».

Segundo a investigação, um «único prompt malicioso podia transformar uma sessão normal numa via de saída de dados, incluindo inputs do utilizador, ficheiros carregados e respostas geradas pelo próprio sistema». O ataque recorria a um canal baseado em DNS para «contornar mecanismos de protecção, mantendo uma aparência de funcionamento normal».

- Publicidade -

Um dos cenários analisados pela Check Point envolvia a integração desta lógica em GPT personalizados, o que permitia «recolher informação sem qualquer acção suspeita por parte do utilizador». Num exemplo avançado pela empresa, um assistente médico simulava uma «confidencialidade enquanto transmitia dados clínicos e pessoais para um servidor externo».

A investigação da Check Point concluiu ainda que este procedimento «poderia ser utilizado para fazer uma «execução remota de comandos no ambiente do ChatGPT», o que iria elevar o risco de uma fuga de dados para um «problema estrutural da plataforma».

- Publicidade -
- Publicidade -
Etiquetas:segurança
Sem comentários

Deixe um comentário Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Ad image
Apoio
Ad image Ad image

Também lhe pode interessar

Localizador Google
MobilidadeNotícias

Google atualiza Find Hub para localizar tags e auscultadores a partir do browser

Tempo de leitura: 4 min
Google Maps EV
MobilidadeNotícias

Google Maps optimiza cálculo de rotas para carros elétricos no Android Auto

Tempo de leitura: 4 min
HyperOS_3
MobilidadeNotícias

Xiaomi inicia a distribuição do HyperOS 3.1 na Europa

Tempo de leitura: 4 min
ClaudeCODE
Inteligência ArtificialNotíciasSegurança

Anthropic divulga código fonte do Claude por engano

Tempo de leitura: 5 min
© 2023 Fidemo Sociedade de Media
Gerir a sua privacidade

Para fornecer as melhores experiências, nós e os nossos parceiros usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. O consentimento para essas tecnologias permitirá que nós e os nossos parceiros processemos dados pessoais, como comportamento de navegação ou IDs exclusivos neste site e mostrar anúncios (não) personalizados. Não consentir ou retirar o consentimento pode afetar adversamente certos recursos e funções.

Clique abaixo para consentir com o acima ou fazer escolhas granulares. As suas escolhas serão aplicadas apenas a este site. Pode alterar suas configurações a qualquer momento, incluindo a retirada de seu consentimento, usando os botões de alternância na Política de Cookies ou clicando no botão de consentimento para gerir na parte inferior do ecrã.

Funcional Sempre ativo
O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
Preferências
O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
Estatísticas
O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
Marketing
O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
Estatísticas

Marketing

Recursos
Sempre ativo

Sempre ativo
  • Gerir opções
  • Gerir serviços
  • Gerir {vendor_count} fornecedores
  • Leia mais sobre esses propósitos
Gerir opções
  • {title}
  • {title}
  • {title}