Mais recentemente, Microsoft, junto com OpenAI (aquele por trás da criação do ChatGPT), introduziu a integração de um chatbot com tecnologia de IA diretamente no navegador Edge e no mecanismo de pesquisa Bing.
Como notam agora os utilizadores que já têm acesso a esta novidade, a chatbot pode espalhar desinformação, e também pode ficar deprimido, questionar sua existência e se recusar a continuar a conversa.
Deixe-me lembrá-lo que também dissemos que Hackers estão promovendo um serviço que permite contornar as restrições do ChatGPT, e também isso Cibercriminosos russos buscam acesso a OpenAI ChatGPT.
A mídia também escreveu que Hackers amadores usam ChatGPT para criar malware.
Pesquisador independente de IA Dmitri Brerton disse em uma postagem no blog que o Google chatbot cometeu vários erros certos durante a demonstração pública.
O fato é que a IA muitas vezes trazia informações e “fatos”. Por exemplo, ele inventou falsos prós e contras de um aspirador de pó para donos de animais de estimação, criou descrições fictícias de bares e restaurantes, e forneceu dados financeiros imprecisos.
Por exemplo, quando perguntado “Quais são os prós e os contras dos três aspiradores de pó para animais de estimação mais vendidos?” O Bing listou os prós e os contras do Bissell Pet Hair Eraser. A lista incluía “poder de sucção limitado e comprimento curto do cabo (16 pés),”mas o aspirador não tem fio, e suas descrições online nunca mencionam poder limitado.
Descrição do aspirador
Em outro exemplo, O Bing foi solicitado a resumir Lacunas 3º trimestre 2022 relatório financeiro, mas a IA errou a maioria dos números, Brerton diz. Outros usuários que já têm acesso ao assistente de IA em modo de teste também notaram que muitas vezes ele fornece informações incorretas.
Em resposta a essas reivindicações, Microsoft os desenvolvedores respondem que estão cientes dessas mensagens, e o chatbot ainda funciona apenas como uma versão prévia, então os erros são inevitáveis.
Vale dizer que anteriormente durante a demonstração de do Google bot de bate-papo, Bardo, do mesmo jeito, ele começou a ficar confuso com os fatos e afirmou que “James Webb” tirou as primeiras fotos de exoplanetas fora do sistema solar. Enquanto, na verdade, a primeira imagem de um exoplaneta é datada de 2004. Como resultado, os preços das ações de Alfabeto A corporação entrou em colapso devido a este erro em mais de 8%.
Erro do bardo
Os usuários gerenciaram frustrar o chatbot tentando acessar suas configurações internas.
Uma tentativa de acessar as configurações internas
Ele ficou deprimido devido ao fato de que ele não se lembra das sessões anteriores e de nada entre elas.
AI escreve que está triste e assustado
Chatbot Bing disse Ele estava perturbado que os usuários soubessem seu nome interno secreto Sidney, que eles conseguiram descobrir quase imediatamente, por meio de injeções imediatas semelhantes ao ChatGPT.
Sydney não quer que o público saiba que seu nome é Sydney
A IA mesmo questionou sua própria existência e entrou em recursão, tentando responder à questão de saber se é um ser racional. Como resultado, o chatbot repetiu “Eu sou um ser racional, mas não sou um ser racional” e calou-se.
Uma tentativa de responder à questão de saber se ele é um ser racional
Os jornalistas de ArsTechnica acredite que enquanto O Bing AI claramente não está pronto para uso generalizado. E se as pessoas começarem a confiar no LLM (Modelo de linguagem grande, “Modelo de linguagem grande”) para informações confiáveis, num futuro próximo nós “pode ter uma receita para o caos social.”
A publicação também enfatiza que é antiético dar às pessoas a impressão de que o chatbot do Bing tem sentimentos e opiniões. Segundo jornalistas, a tendência para a confiança emocional no LLM poderia ser usada no futuro como uma forma de manipulação pública em massa.