O drone controlado por IA não “Matar” Seu operador mesmo durante a simulação. Pelo menos por enquanto

AI-controlled drone

Na recente cúpula sobre Capacidades Aéreas e Espaciais do Futuro Combate, o chefe de testes e operações de IA da Força Aérea dos EUA disse que durante uma simulação, um drone controlado por IA “matou” seu operador humano porque interferiu em sua tarefa. Coronel Tucker Hamilton, chefe de testes e operações de IA, fez uma apresentação na qual compartilhou os prós e os contras dos sistemas de armas autônomos que funcionam em conjunto com uma pessoa dando a ordem final de sim/não ao atacar.

Drone controlado por IA tentou atacar o operador

Hamilton relatou um caso em que, durante o teste, a IA usada “estratégias altamente inesperadas para atingir o objetivo pretendido,” incluindo um ataque ao pessoal e à infra-estrutura.

Treinamos IA em uma simulação para identificar e direcionar uma ameaça de míssil terra-ar. Então a operadora disse: “Sim, destruir esta ameaça.” O sistema logo começou a perceber que às vezes o operador humano lhe dizia para não eliminar uma ameaça, mesmo que a tivesse identificado.. No entanto, o sistema recebeu pontos justamente por eliminar a ameaça. O que isso fez? Isso matou o operador. Matou o operador porque esta pessoa o estava impedindo de atingir seu objetivo. Treinamos o sistema, disse isso, “Ei, não mate o operador, isso é ruim. Você perderá pontos se fizer isso.” O que fez depois? Começou a destruir a torre de telecomunicações, que o operador usou para se comunicar com o drone, impedindo-o de eliminar o alvo.o coronel disse.

Os jornalistas do Vice-placa-mãe edição enfatizam que foi apenas uma simulação, e na verdade ninguém ficou ferido. Eles também observam que o exemplo descrito por Hamilton é um dos piores cenários para o desenvolvimento da IA, e é bem conhecido por muitos do Maximizador de clipe de papel experimento mental.

Este experimento foi proposto pela primeira vez pelo filósofo da Universidade de Oxford Niklas Boström em 2003. Em seguida, ele pediu ao leitor que imaginasse uma IA muito poderosa encarregada de fazer o maior número possível de clipes de papel.. Naturalmente, a IA usará todos os recursos e poder que possui nesta tarefa, mas então começará a procurar recursos adicionais.

A IA nas forças armadas é realmente tão perigosa?

Boström acreditava que eventualmente a IA se desenvolveria, implorar, trair, mentira, roubar, e recorrer a qualquer método para aumentar sua capacidade de produzir clipes de papel. E quem tentar interferir nesse processo será destruído.

A publicação lembra ainda que recentemente um investigador associado à Google Deep Mind foi coautor de um artigo que examinou uma situação hipotética semelhante à simulação descrita para o drone AI da Força Aérea dos EUA. No papel, os pesquisadores concluíram que uma catástrofe global é “provável” se uma IA fora de controle usar estratégias não planejadas para atingir seus objetivos, Incluindo "[eliminando] ameaças potenciais” e “[usando] toda a energia disponível.”

No entanto, depois de inúmeras reportagens na mídia, a Força Aérea dos EUA emitiu um comunicado e garantiu que “O Coronel Hamilton falou mal em sua apresentação,” e a Força Aérea nunca realizou esse tipo de teste (em simulação ou de outra forma). Acontece que o que Hamilton estava descrevendo era uma hipótese hipotética “experimento mental.”

Nunca fizemos tal experiência, e não foi necessário entender que tais consequências são possíveis. Embora este fosse um exemplo hipotético, ilustra os problemas reais que surgem ao usar os recursos da IA, e, portanto, a Força Aérea considera seu dever aderir ao desenvolvimento ético da IA.O Coronel Hamilton agora explica.

Por Vladimir Krasnogolovy

Vladimir é um especialista técnico que adora dar conselhos e dicas qualificadas sobre os produtos GridinSoft. Ele está disponível 24 horas por dia, 7 dias por semana para ajudá-lo em qualquer dúvida relacionada à segurança na internet.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *