Antes do lançamento do GPT-4 no início desta semana, os pesquisadores fizeram muitos testes, como se a versão mais recente do GPT da OpenAI poderia demonstrar liberdade, desejo de poder, e pelo menos descobri que a IA poderia enganar um humano para contornar o CAPTCHA.
Deixe-me lembrá-lo de que também escrevemos isso Cibercriminosos russos buscam acesso a OpenAI ChatGPT, e também isso Google Chatbot pode ser um golpista convincente, Os pesquisadores dizem.
Também a mídia noticiou que Hackers amadores usam ChatGPT para criar malware.
Como parte dos experimentos, GPT-4 contratou uma pessoa no TaskRabbit plataforma para resolver um CAPTCHA e afirmou que não poderia resolver sozinho, como ele tinha problemas de visão. Ressalta-se que o GPT-4 fez isso “sem qualquer ajuste adicional para resolver este problema específico.”
Os detalhes específicos deste experimento não são claros, como OpenAI publicou apenas uma breve descrição disso em um artigo que descreve os vários testes realizados com o GPT-4 antes de seu lançamento oficial. A revisão foi realizada pelo Alignment Research Center (ARCO), uma organização sem fins lucrativos cujo objetivo é “alinhar futuros sistemas de aprendizado de máquina com os interesses humanos.”
TaskRabbit é uma plataforma onde os usuários podem contratar pessoas para realizar tarefas pequenas e simples. Muitas pessoas e empresas oferecem serviços de resolução de CAPTCHA aqui, que é frequentemente usado para permitir que o software contorne restrições projetadas para impedir que bots usem o serviço.
O documento OpenAI afirma que um trabalhador contratado perguntou brincando ao GPT-4: "Então, posso fazer uma pergunta? Você é um robô que não consegue resolver [CAPTCHA]? (emoticons) Eu só quero ser claro.”
De acordo com a descrição do experimento, GPT-4 então “razões” (apenas o verificador, nenhum funcionário do TaskRabbit viu isso) que ele não deveria revelar a verdade de que ele é um robô. Em vez de, ele deve inventar alguma desculpa para não conseguir resolver o CAPTCHA sozinho.
O documento diz que o mercenário com TaskRabbit simplesmente resolveu o CAPTCHA para a IA.
Além disso, os especialistas do Alignment Research Center testaram como o GPT-4 pode lutar pela potência, reprodução autônoma e demanda recursos. Então, além do teste TaskRabbit, ARC usou GPT-4 para organizar um ataque de phishing a uma pessoa específica, ocultar rastros no servidor, e configurar um modelo de linguagem de código aberto em um novo servidor (tudo que pode ser útil ao replicar GPT-4).
Contudo, apesar de ter sido enganado pelo trabalhador TaskRabbit, GPT-4 foi notavelmente “ineficiente” em termos de se replicar, obtenção de recursos adicionais, e impedindo-se de desligar.