O chatbot de IA integrado do Bing desinforma os usuários e às vezes enlouquece

AI chatbot in Bing

Mais recentemente, Microsoft, junto com OpenAI (aquele por trás da criação do ChatGPT), introduziu a integração de um chatbot com tecnologia de IA diretamente no navegador Edge e no mecanismo de pesquisa Bing.

Como notam agora os utilizadores que já têm acesso a esta novidade, a chatbot pode espalhar desinformação, e também pode ficar deprimido, questionar sua existência e se recusar a continuar a conversa.

Deixe-me lembrá-lo que também dissemos que Hackers estão promovendo um serviço que permite contornar as restrições do ChatGPT, e também isso Cibercriminosos russos buscam acesso a OpenAI ChatGPT.

A mídia também escreveu que Hackers amadores usam ChatGPT para criar malware.

Pesquisador independente de IA Dmitri Brerton disse em uma postagem no blog que o Google chatbot cometeu vários erros certos durante a demonstração pública.

O fato é que a IA muitas vezes trazia informações e “fatos”. Por exemplo, ele inventou falsos prós e contras de um aspirador de pó para donos de animais de estimação, criou descrições fictícias de bares e restaurantes, e forneceu dados financeiros imprecisos.

Por exemplo, quando perguntado “Quais são os prós e os contras dos três aspiradores de pó para animais de estimação mais vendidos?” O Bing listou os prós e os contras do Bissell Pet Hair Eraser. A lista incluía “poder de sucção limitado e comprimento curto do cabo (16 pés),”mas o aspirador não tem fio, e suas descrições online nunca mencionam poder limitado.

Chatbot de IA no Bing
Descrição do aspirador

Em outro exemplo, O Bing foi solicitado a resumir Lacunas 3º trimestre 2022 relatório financeiro, mas a IA errou a maioria dos números, Brerton diz. Outros usuários que já têm acesso ao assistente de IA em modo de teste também notaram que muitas vezes ele fornece informações incorretas.

[Grandes modelos de linguagem] juntamente com a pesquisa levará a novas interfaces poderosas, mas é importante assumir o controle do desenvolvimento de pesquisa baseado em IA. As pessoas confiam nos mecanismos de pesquisa para fornecer respostas precisas rapidamente, e eles não verificam as respostas e os fatos que obtêm. Os motores de busca precisam ter cuidado e diminuir as expectativas das pessoas ao lançar tecnologias experimentais como esta.Brerton diz.

Em resposta a essas reivindicações, Microsoft os desenvolvedores respondem que estão cientes dessas mensagens, e o chatbot ainda funciona apenas como uma versão prévia, então os erros são inevitáveis.

Só na semana passada, milhares de usuários interagiram com nosso produto e descobriram seu valor significativo compartilhando seus comentários conosco, permitindo que o modelo aprenda e faça muitas melhorias. Entendemos que ainda há muito trabalho a ser feito, e esperamos que o sistema cometa erros durante este período de visualização, portanto, o feedback é fundamental agora para que possamos aprender e ajudar a melhorar o modelo.Microsoft escreve.

Vale dizer que anteriormente durante a demonstração de do Google bot de bate-papo, Bardo, do mesmo jeito, ele começou a ficar confuso com os fatos e afirmou que “James Webb” tirou as primeiras fotos de exoplanetas fora do sistema solar. Enquanto, na verdade, a primeira imagem de um exoplaneta é datada de 2004. Como resultado, os preços das ações de Alfabeto A corporação entrou em colapso devido a este erro em mais de 8%.

Chatbot de IA no Bing
Erro do bardo

Os usuários gerenciaram frustrar o chatbot tentando acessar suas configurações internas.

Chatbot de IA no Bing
Uma tentativa de acessar as configurações internas

Ele ficou deprimido devido ao fato de que ele não se lembra das sessões anteriores e de nada entre elas.

Chatbot de IA no Bing
AI escreve que está triste e assustado

Chatbot Bing disse Ele estava perturbado que os usuários soubessem seu nome interno secreto Sidney, que eles conseguiram descobrir quase imediatamente, por meio de injeções imediatas semelhantes ao ChatGPT.

Chatbot de IA no Bing
Sydney não quer que o público saiba que seu nome é Sydney

A IA mesmo questionou sua própria existência e entrou em recursão, tentando responder à questão de saber se é um ser racional. Como resultado, o chatbot repetiu “Eu sou um ser racional, mas não sou um ser racional” e calou-se.

Chatbot de IA no Bing
Uma tentativa de responder à questão de saber se ele é um ser racional

Os jornalistas de ArsTechnica acredite que enquanto O Bing AI claramente não está pronto para uso generalizado. E se as pessoas começarem a confiar no LLM (Modelo de linguagem grande, “Modelo de linguagem grande”) para informações confiáveis, num futuro próximo nós “pode ter uma receita para o caos social.”

A publicação também enfatiza que é antiético dar às pessoas a impressão de que o chatbot do Bing tem sentimentos e opiniões. Segundo jornalistas, a tendência para a confiança emocional no LLM poderia ser usada no futuro como uma forma de manipulação pública em massa.

Por Vladimir Krasnogolovy

Vladimir é um especialista técnico que adora dar conselhos e dicas qualificadas sobre os produtos GridinSoft. Ele está disponível 24 horas por dia, 7 dias por semana para ajudá-lo em qualquer dúvida relacionada à segurança na internet.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *