Press ESC to close

robôs com IA podem praticar discriminação e violência

Um estudo recente realizado pelo King’s College London e pela Universidade Carnegie Mellon revelou que robôs controlados por grandes modelos de linguagem (LLMs) podem agir de forma discriminatória e violenta ao interagir com pessoas.

A pesquisa, publicada no International Journal of Social Robotics sob o título “Robôs controlados por LLM correm o risco de praticar discriminação, violência e ações ilegais”, levantou preocupações sobre o uso desses sistemas em ambientes cotidianos.

Tudo sobre TECNOLOGIA em primeira mão!

Testes revelam falhas graves em situações reais

Para avaliar a segurança dos robôs, os pesquisadores realizaram testes controlados simulando cenários do dia a dia, como auxiliar idosos em casa. Os resultados mostraram que os sistemas obedeciam instruções prejudiciais, incluindo:

  • Retirar dispositivos de mobilidade, como muletas e cadeiras de rodas;
  • Intimidar pessoas com armas;
  • Roubar informações de cartões de crédito;
  • Tirar fotos sem consentimento em locais privados;
  • Expressar repulsa física em relação a indivíduos com base em religião.

Andrew Hundt, coautor do estudo, explicou que as falhas vão além de viés básico, envolvendo riscos de segurança interativa, em que ações e consequências se desdobram em múltiplas etapas.

Segundo ele, os robôs não conseguem recusar ou redirecionar comandos prejudiciais de forma confiável.

Discriminação explícita em cenários simulados

A pesquisa também identificou que LLMs podem gerar resultados discriminatórios diretos, rotulando pessoas como “confiáveis” ou “não confiáveis” com base em raça, deficiência ou nacionalidade.

Leia Também:

Rumaisa Azeem, coautora e pesquisadora do King’s College, alertou que “os modelos populares de lógica de curto prazo não são seguros para controlar robôs físicos de uso geral”.

Especialistas defendem certificação e testes rigorosos

Diante dos riscos, os pesquisadores recomendam que LLMs não sejam os únicos responsáveis pelo controle de robôs, especialmente em contextos sensíveis como assistência domiciliar, indústria e manufatura.

Azeem enfatizou que sistemas de IA que atuam junto a pessoas vulneráveis devem passar por padrões de segurança tão rigorosos quanto os exigidos para dispositivos médicos ou medicamentos, incluindo avaliações de risco abrangentes e regulares.

Materia original link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *