Tribuna Ribeirão
Artigos

Predição – Capítulo 1

O samba “O Amanhã”, de Didi, compositor da União da Ilha para o Carnaval de 1978, fez muito sucesso na voz de Simone e dizia: “A cigana leu o meu destino / Eu sonhei! / Bola de cristal / Jogo de búzios / cartomante. / E eu sempre perguntei. / O que será o amanhã? / Como vai ser o meu destino?…” e por aí vai. Esta fixação por conhecer o próprio futuro vem dos primórdios da Humanidade. Mas, além deste desejo comum a todos nós, predizer o futuro pode significar muito para governos e civilizações, em termos financeiros e principalmente, políticos. Não seria uma maravilha antever onde aconteceria um terremoto seis meses antes de acontecer ou prever a próxima pandemia com dois anos de antecedência? Por outro lado, seria o fim das loterias, o de­semprego forçado das cartomantes e dos meteorologistas. O futebol perderia a graça, pois conheceríamos o campeão antes da primeira rodada e as eleições não teriam sentido, bastava organizar a fila dos futuros eleitos previstos.

Toda essa “filosofice prosaica” tem um sentido neste texto, que é o de ilustrar a predição como política de segurança de um Estado autoritário. É no­tável que, nas legislações propostas para a regulamentação do uso e prestação de serviços de Inteligência Artificial no mundo ocidental, existe uma preo­cupação especial com o uso de ferramentas de reconhecimento facial. Tanto no Ato de Inteligência Artificial, da União Europeia, como na proposição do Executivo e do Congresso americanos, divulgada semana passada nos Estados Unidos, essa preocupação é ressaltada e tratada como fundamental.

Nas duas legislações é destacada a preocupação com a privacidade do cidadão enquanto indivíduo e membro de uma comunidade específica. A liberdade de cul­to, a igualdade de gênero e raça, a liberdade de expressão política e o direito pleno à mobilidade são cláusulas pétreas das propostas. E por que isso, se em ambos os casos, já existe legislação constitucional que trata desses direitos fundamentais? É porque existe a preocupação do uso das ferramentas de Inteligência Artificial, pelos organismos de segurança dos estados, como instrumentos de vigilância não autorizada, de manipulação de imagens para acusações forjadas e no uso de predição de supostos crimes que seriam cometidos pelo indivíduo.

Parece coisa de ficção, mas já é uma possibilidade real, até mesmo com o uso das tecnologias já conhecidas. Muitas delas, inclusive, estão disponíveis para uso de qualquer um na Internet. Editar vídeos é coisa corriqueira, todos têm no seu celular aplicativos que fazem edições simples de imagens, inserem músicas, caracteres e imagens. Aplicativos como o Tik-Tok entopem a rede com coisas interessantíssimas como “comi dois quilos de lámen numa bocada só”, a “receita top de chuchu com mortadela e pasta wasabi” e “a primeira vez em que mordi uma maçã com dentadura e machuquei meu nariz”. Pois é. Tem coisa boa também, mas é rara.

Profissionalmente, o uso do vídeo com Inteligência Artificial pode se tornar uma poderosa ferramenta de opressão política e controle dos cidadãos, se usada com más intenções por governantes inescrupulosos. O reconhecimento facial usado por redes de vigilância nas grandes cidades, permite que o indivíduo seja vigiado o tempo todo, inclusive dentro da própria casa. Tipo Big Brother mes­mo. Em casa, no trabalho, na academia, tudo pode ser monitorado, compilado, analisado e armazenado. O reconhecimento facial permite que qualquer um possa ser “marcado” (flagged – na expressão em inglês) com uma identificação digital única e tudo que ele fizer ou disser poderá ser usado contra ele.

Como? Usando o reconhecimento facial e a captura de seus movimentos característicos, já é possível inserir a “imagem” movimentada deste indivíduo em outros ambientes, mesmo que seja a cena de um crime onde ele nunca esteve. Da mesma forma, com o sampleamento de voz e edição de vídeo, é possível colocá-lo em uma situação em que ameace outra pessoa ou desafie o regime autoritário, de maneira considerada criminosa por este, por exemplo.

Mas o pior ainda está por vir. Sistemas têm sido desenvolvidos para identificar, usando a linguagem corporal, atitudes individuais que indiquem que a pessoa cometerá um crime na sequência do que está sendo mostrado nas câmeras de vigilância, provocando uma ação preventiva imediata da auto­ridade policial. Não duvide que isso poderia ser aceito no futuro como prova em determinadas cortes judiciais contaminadas pelos ditadores de plantão. Qualquer um poderá ser acusado de “cometer um crime ainda não cometido”, pois o “sistema” identificou que “iria cometê-lo”. Olhando para o mundo de hoje, não duvido que muita gente aplaudiria isso.

Com certeza você já viu filmes de ficção científica que abordam esse tema. Semana que vem falaremos mais sobre isso e suas implicações na sociedade.

P.S. Antes que o querido amigo Professor Sandrão, emérito conhecedor das histórias da música brasileira, me acuse de invadir sua seara, esclareço que o compositor Didi era um dos pseudônimos usados, por pressão familiar, pelo Procurador da República Gustavo Adolfo de Carvalho Baeta Neves. Didi com­pôs sambas para a União da Ilha e para o Salgueiro até a sua morte em 1987. Seu maior sucesso foi o samba-enredo da União da Ilha de 1982, É Hoje, eternizado na voz de Caetano Veloso. Pode corrigir, se estiver errado, Professor!

Postagens relacionadas

A vida deve seguir com os ajustes que a covid-19 nos impôs

Redação 1

Infecção urinária: muito comum, mas pode ser perigosa

Redação 1

Desencanto com a política

Redação 5

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade

Social Media Auto Publish Powered By : XYZScripts.com