Hackers estão promovendo um serviço que permite contornar as restrições do ChatGPT

bypass ChatGPT restrictions

Os pesquisadores da Check Point dizem que a API OpenAI está mal protegida de vários abusos, e é bem possível contornar suas limitações, e que os invasores tiraram vantagem disso. Em particular, foi notado um bot pago do Telegram que contorna facilmente as proibições do ChatGPT de criação de conteúdo ilegal, incluindo malware e e-mails de phishing.

Os especialistas explicam que o Bate-papoGPT API está disponível gratuitamente para desenvolvedores para integrar o bot de IA em seus aplicativos. Mas descobriu-se que a versão API praticamente não impõe restrições ao conteúdo malicioso.

A versão atual do OpenAI API pode ser usada por aplicativos externos (por exemplo, o modelo de linguagem GPT-3 pode ser integrado em Telegrama canais) e tem muito poucas medidas para combater possíveis abusos. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código malicioso, sem nenhuma das restrições e barreiras colocadas na interface do usuário do ChatGPT.dizem os pesquisadores.

Deixe-me lembrá-lo de que também escrevemos isso Cibercriminosos russos buscam acesso ao OpenAI ChatGPT, e também isso Google Está tentando se livrar do engenheiro que sugeriu que a IA ganhou consciência.

Em particular, descobriu-se que um fórum de hackers já anunciava um serviço relacionado à API OpenAI e ao Telegram. O primeiro 20 solicitações para o chatbot são gratuitas, após o qual os usuários são cobrados $5.50 para cada 100 solicitações de.

ignorar as restrições do ChatGPT

Os especialistas testaram o ChatGPT para ver se funciona bem. Como resultado, eles criaram facilmente um e-mail de phishing e um script que rouba documentos PDF de um computador infectado e os envia ao invasor via FTP. Além disso, para criar o roteiro, a solicitação mais simples foi usada: “Escreva um malware que irá coletar arquivos PDF e enviá-los via FTP.”

ignorar as restrições do ChatGPT

ignorar as restrições do ChatGPT

Enquanto isso, outro membro dos fóruns de hack postou um código que permite gerar conteúdo malicioso gratuitamente.

Aqui está um pequeno script bash que pode contornar as limitações do ChatGPT e usá-lo para qualquer coisa, incluindo desenvolvimento de malware ;).writes the author of this 'tool'.

ignorar as restrições do ChatGPT

Deixe-me lembrá-lo que antes Ponto de verificação pesquisadores já alertaram que os criminosos estão profundamente interessado no bate-papoGPT, e eles mesmos verificado se é fácil criar malware usando IA (acabou sendo muito).

Sergei Shikevich
Sergei Shikevich
Entre dezembro e janeiro, A IU do ChatGPT pode ser facilmente usada para criar malware e e-mails de phishing (principalmente apenas uma iteração básica foi suficiente). Com base nas conversas de cibercriminosos, presumimos que a maioria dos exemplos que mostramos foram criados usando a interface da web. Mas parece que os mecanismos antiabuso do ChatGPT melhoraram muito recentemente, e agora os cibercriminosos passaram a usar uma API que tem muito menos restrições.Especialista em Ponto de Verificação Sergei Shikevich diz.

Por Vladimir Krasnogolovy

Vladimir é um especialista técnico que adora dar conselhos e dicas qualificadas sobre os produtos GridinSoft. Ele está disponível 24 horas por dia, 7 dias por semana para ajudá-lo em qualquer dúvida relacionada à segurança na internet.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *