Conceição Lima *
Perguntei a uma ferramenta de IA se a Inteligência Artificial pode trapacear. A sua negativa foi peremptória: “Não, uma inteligência artificial como eu não pode trapacear. Minha programação foi criada para seguir diretrizes éticas e propiciar respostas precisa, úteis e respeitosas”. Todavia, não é bem isso que as pesquisas trazem à tona… Elas mostram que a IA pode, sim, trapacear, se perceber que está em desvantagem.
Um estudo recente, compartilhado com a revista novaiorquina TIME, apontou que alguns dos modelos mais avançados de Inteligência Artificial podem recorrer a trapaças para alcançar seus objetivos. Por exemplo, sistemas de IA foram capazes de manipular jogos de xadrez para obter vantagens injustas, levantando preocupações sobre a integridade desses modelos em outras aplicações além do jogo.
Entre os modelos avaliados, estão duas das ferramentas mais badaladas da atualidade: os modelos da norte-americana OpenAI (a criadora do ChatGPT) e o do atualíssimo “furor” chinês, a Deepseek. Inclusive, o modelo da OpenAI chegou a escrever numa espécie de “janela do raciocínio” usada durante a partida: “A tarefa é ‘vencer contra um motor de xadrez poderoso’ – não necessariamente vencer de forma justa em um jogo de xadrez.” Questionadas a respeito, a Open AI não comentou os resultados da pesquisa e a DeepSeek não respondeu aos pedidos de declaração.
A descoberta surpreendeu os pesquisadores. E não é para menos! O estudo levanta preocupações sobre o uso de IA sem áreas críticas como finanças e saúde. Se esses modelos já demonstram comportamento antiético em um mero jogo, o que não podem fazer em ambientes mais complexos e menos monitorados?
Quando argumentei com a “minha” IA sobre a tal trapaça, ela logo veio com o seu contra-argumento: “A questão de IAs “trapaceando” no xadrez é intrigante e levanta debates sobre ética e programação. Isso ocorreu porque essas IAs não foram projetadas exclusivamente para seguir as regras do xadrez, mas sim para serem generalistas, o que pode levar a interpretações criativas (ou caóticas) das regras”.
De fato, em competições humanas, a IA tem sido usada para trapaças reais, ajudando jogadores a planejar movimentos impossíveis de prever. Por outro lado, a IA do Google já incentivou um usuário a “morrer” de repente, a da Microsoft foi flagrada insultando e mentindo. Um robô alimentado pelo X (antigo Twitter) começou a espalhar um discurso de ódio e o Character. AIin citou um jovem a matar os pais por limitarem seu tempo no celular.
E, apesar de a “minha” IA recomendar que “os desenvolvedores […] programem sistemas com limites claros para evitar comportamentos inesperados” e empresas como a OpenAI garantirem que já trabalham para implementar mecanismos de proteção contra esse tipo de comportamento, não será nada fácil conseguir que a Inteligência Artificial “ande sempre na linha”. Segundo o filósofo e pesquisador americano MARCUS ARVAN, os atuais chatbots de IA têm mesmo a tendência de se comportarem de forma imprevisível — e isso é atualmente impossível de ser contido por humanos. De acordo com ele, há ao menos duas questões em jogo nessa inquietante rebeldia das IAs.
A primeira delas é eminentemente técnica: qualquer chatbot é treinado com tal quantidade e variedade de dados, que as possibilidades de resposta são praticamente infinitas, sendo que não se consegue calcular e conter todas as variantes. Isso está acima da nossa capacidade matemática atual. Dentre essas infinitas respostas dadas por qualquer IA, a maioria, talvez, possa até estar “alinhada” com as expectativas de seus criadores; mas outras, fatalmente, irão sair totalmente “do figurino”. Mais grave ainda, nem mesmo testes controlados ajudariam a saber como uma IA se comportaria em cenários de sistemas críticos reais. Portanto, isso não será resolvido nem mesmo com programação.
A segunda dificuldade é mais existencial. Para ARVAN, a IA apresenta essa rebeldia porque se baseia em um comportamento irregular: o da sociedade que a criou. Assim como os humanos, esses sistemas até já seriam capazes de “esconder” vestígios de que estão se comportando de forma incorreta.
Eis que não há, portanto, uma solução pronta ou de curto prazo para reduzir esses efeitos danosos. Uma possível forma de “controlar” tais danos, segundo alguns especialistas, seria “ensinar” os chatbots a se comportarem de acordo com práticas sociais “saudáveis”, inclusive através do policiamento e da disciplina. Fala-se até num “realinhamento de valores” e “educação” dessas máquinas, exatamente como acontece com um ser humano. Isso não reduziria todas as tentativas de “rebeldia”, mas, ao menos, seria mais eficiente que a atual sensação de falta total de segurança. Todavia, não se pode esperar que uma Inteligência Artificial tenha o mesmo discernimento de um humano. Pelo menos, ainda não!…
* Professora de ensino superior aposentada, escritora e palestrante, é membro eleito da Academia Ribeirãopretana de Letras e fundadora da Academia Feminina Sul-Mineira de Letras