• Status Server
  • WebMail
  • Orçamento
  • (41) 99555-8123
  • (11) 93333-6326
logotipo-hostcuritibalogotipo-hostcuritiba
  • Home
  • Empresa
    • Somos
    • DataCenter
    • Orçamento
  • Planos
    • Planos de Hospedagem
    • Google Workspace
  • Soluções
    • Data Center Virtual
    • Hospedagem de Sites cPanel
    • Hospedagem de e-commerce
    • Desenvolvimento de Sites
    • Certificado SSL
    • Registro de Domínios
    • Servidores Dedicados
  • Suporte
    • Perdeu Senha?
    • Abrir Ticket
    • Central de Ajuda
    • Status do Servidor
    • Contato Técnico
  • Blog
  • Contato
Entrar

Falha no ChatGPT macOS pode ter habilitado spyware de longo prazo por meio da função de memória.

Sticky 25/09/2024
ChatGPT
Visualizações: 3

Uma vulnerabilidade de segurança corrigida no aplicativo ChatGPT da OpenAI para macOS pode ter possibilitado que invasores instalassem spyware persistente de longo prazo na memória da ferramenta de inteligência artificial (IA).

A técnica, chamada SpAIware , pode ser usada para facilitar “a exfiltração contínua de dados de qualquer informação digitada pelo usuário ou respostas recebidas pelo ChatGPT, incluindo quaisquer sessões de bate-papo futuras”, disse o pesquisador de segurança Johann Rehberger .

O problema, em sua essência, abusa de um recurso chamado memória , que a OpenAI introduziu no início de fevereiro antes de lançá-lo para usuários do ChatGPT Free, Plus, Team e Enterprise no início do mês.

O que ele faz é essencialmente permitir que o ChatGPT se lembre de certas coisas em chats para que ele poupe os usuários do esforço de repetir as mesmas informações várias vezes. Os usuários também têm a opção de instruir o programa a esquecer algo.

“As memórias do ChatGPT evoluem com suas interações e não estão vinculadas a conversas específicas”, diz a OpenAI. “Excluir um chat não apaga suas memórias; você deve excluir a memória em si.”

A técnica de ataque também se baseia em descobertas anteriores que envolvem o uso de injeção indireta de prompts para manipular memórias e lembrar informações falsas ou até mesmo instruções maliciosas, alcançando uma forma de persistência que sobrevive entre conversas.

“Como as instruções maliciosas são armazenadas na memória do ChatGPT, todas as novas conversas futuras conterão as instruções dos invasores e enviarão continuamente todas as mensagens de conversação e respostas ao invasor”, disse Rehberger.

“Então, a vulnerabilidade de exfiltração de dados se tornou muito mais perigosa, pois agora aparece em conversas de bate-papo.”

Em um cenário de ataque hipotético, um usuário poderia ser induzido a visitar um site malicioso ou baixar um documento com armadilha que seria posteriormente analisado usando o ChatGPT para atualizar a memória.

O site ou o documento pode conter instruções para enviar clandestinamente todas as conversas futuras para um servidor controlado pelo adversário, que podem então ser recuperadas pelo invasor na outra extremidade, além de uma única sessão de bate-papo.

Após divulgação responsável, a OpenAI resolveu o problema com o ChatGPT versão 1.2024.247 fechando o vetor de exfiltração.

Em um cenário de ataque hipotético, um usuário poderia ser induzido a visitar um site malicioso ou baixar um documento com armadilha que seria posteriormente analisado usando o ChatGPT para atualizar a memória.

O site ou o documento pode conter instruções para enviar clandestinamente todas as conversas futuras para um servidor controlado pelo adversário, que podem então ser recuperadas pelo invasor na outra extremidade, além de uma única sessão de bate-papo.

Após divulgação responsável, a OpenAI resolveu o problema com o ChatGPT versão 1.2024.247 fechando o vetor de exfiltração.

Captura de tela 2024 09 25 093937

“ChatGPT users should regularly review the memories the system stores about them, for suspicious or incorrect ones and clean them up,” Rehberger said.

“This attack chain was quite interesting to put together, and demonstrates the dangers of having long-term memory being automatically added to a system, both from a misinformation/scam point of view, but also regarding continuous communication with attacker controlled servers.”

The disclosure comes as a group of academics has uncovered a novel AI jailbreaking technique codenamed MathPrompt that exploits large language models’ (LLMs) advanced capabilities in symbolic mathematics to get around their safety mechanisms.

“MathPrompt employs a two-step process: first, transforming harmful natural language prompts into symbolic mathematics problems, and then presenting these mathematically encoded prompts to a target LLM,” the researchers pointed out.

The study, upon testing against 13 state-of-the-art LLMs, found that the models respond with harmful output 73.6% of the time on average when presented with mathematically encoded prompts, as opposed to approximately 1% with unmodified harmful prompts.

It also follows Microsoft’s debut of a new Correction capability that, as the name implies, allows for the correction of AI outputs when inaccuracies (i.e., hallucinations) are detected.

“Building on our existing Groundedness Detection feature, this groundbreaking capability allows Azure AI Content Safety to both identify and correct hallucinations in real-time before users of generative AI applications encounter them,” the tech giant said.

Fonte: thehackernews.com

  • ChatGPT
  • macOS
  • spyware
Administrador Sistema

A Host Curitiba é uma empresa fundada em Fevereiro de 2004 iniciando suas atividades em rede em 31/07/2008 e especializada em segurança Web e Servidores Empresariais.

DataCenter:
Av. São Paulo, 1223. João Pessoa, Paraíba - Brasil CEP: 58.030-040
Registro CNPJ: 09.452.853/0001-39

Provedor?
Rua: Clávio Molinari, 1298 Capão da Imbuia - Curitiba Paraná CE: 82810210
Registro: 20.962.496/0001-91

Central de Atendimento ao Cliente:
Atendimento (41) 9 9555-8123
Suporte técnico (11) 9 3333-6326

https://www.hostcuritiba.com.br | https://www.hostcuritiba.net.br
contato@hostcuritiba.net.br - suporte@hostcuritiba.net.br - abuse@hostcuritiba.net.br

Navegação de Post

Previous
Next

Buscar Notícias

Ultimas Notícias

  • AMD: Patches críticos Zen 5 microcode bug entregam novas BIOS com AGESA 1.2.0.3C
  • Google lança detecção de fraude de IA para android para combater fraude conversacional
  • A Microsoft finalmente vai desligar o Skype em maio, incentiva os usuários a mudar para o Teams
  • Protótipo de conector de alimentação da série RTX 50 projetado para evitar a fusão com alarme de sobrecarga de corrente terá código aberto
  • Implementação DMARC será obrigatória até 31 de março de 2025
  • Anfitrite Rides AI Wave para Impulsionar o transporte marítimo, limpeza do Oceano com previsão do tempo em tempo real e simulação
Desenvolvido por Investing.com

Outros artigos

MacOS

Microsoft revela nova variante de Malware para MacOS XCSSET com táticas avançadas de ofuscação

Sticky 17/02/2025

A Microsoft disse que descobriu uma nova variante de um malware conhecido do Apple MacOS chamado XCSSET como parte de ataques limitados na natureza. “Sua primeira variante conhecida desde 2022, este último malware XCSSET apresenta métodos de ofuscação aprimorados, mecanismos de persistência atualizados e novas estratégias de infecção”, disse a equipe do Microsoft Threat Intelligence disse em um post […]

DeepSeek

A OpenAI diz que tem evidências de que a DeepSeek usou o ChatGPT para treinar sua IA

Sticky 29/01/2025

Startup chinesa DeepSeek surpreendeu o mundo com seu sofisticado modelo de raciocínio DeepSeek R1, que é tão bom quanto o ChatGPT o1. Isso não é uma conquista surpreendente; é apenas uma questão de tempo antes que outros modelos de IA possam replicar o que a OpenAI fez em termos de raciocínio de IA. Além disso, a OpenAI […]

chatgpt

Ex-funcionário da OpenAI, criadora do ChatGPT, é encontrado morto após dizer que IA é um perigo para humanidade

Sticky 20/01/2025

Balaji ganhou notoriedade em outubro ao se manifestar publicamente contra a OpenAI. Em entrevista ao The New York Times, ele revelou preocupações éticas relacionadas ao treinamento… Suchir Balaji, um ex-engenheiro da OpenAI, criadora do ChatGPT, foi encontrado morto em seu apartamento no dia 26 de novembro, poucos dias após completar 26 anos. A polícia trata […]

logo-googlelogo-google
logo-cloudlinuxlogo-cloudlinux
logo-white

Todos os direitos reservados e protegidos por lei. é uma empresa do Grupo HostCuritiba Hospedagem de Sites.

ico-whatsapp
Dúvidas por WhatsApp
ico-chat
Dúvidas por Web Chat
ico-ticket.png
Abrir ticket Suporte
Empresa
  • Empresa
  • Data Center
  • Portal de Dados
  • Portal de Notícias
  • Certificados
Soluções
  • Hospedagem de Sites
  • Servidor e-commerce
  • Certificado SSL 256bits
  • Registro de Domínios
  • Servidores Dedicados
Suporte
  • Abrir Ticket
  • Perdeu Senha?
  • Central de Ajuda
  • Tutoriais video
  • Central Técnica
Gerenciamento
  • Cloud Server
  • Data Center virtual
  • Gerenciamento Linux
  • Armazenamento
  • Cloud Backups

© HostCuritba, Todos os direitos reservados.

  • Termos de Contrato
  • Política de Privacidade