Tribuna Ribeirão
Artigos

Esqueça o chip, você já está sendo vigiado

Quando falamos de Inteligência Artificial, basicamente falamos sobre tudo aquilo que um algoritmo pode fazer no lugar de um ser humano. Pode ser aquilo que você vê e interage no ambiente das mídias sociais, o que vai sendo classificado e determinado progressivamente por um algoritmo. Pode ser o que vai aparecer naquele exame de saúde feito em uma clínica especializada. Ou quando você acessa seu banco pelo celular. E não se esqueça do que pode ser feito em termos de escrita e modelagem de textos ou criação e manipulação de imagens e áudio. É fácil encontrar vídeos com o apresentador dizendo assim: “Olá, sou Fulano de Tal e sou um ser humano”. Quase como se desculpando por ser um bípede pensante em um ambiente pretensamente mais inteligente que ele.

Quando eu digo “esqueça o chip, você já está sendo vigiado”, me refiro àqueles que ainda insistem em dizer que as vacinas têm um chip colocado no líquido que será inserido em seu corpo na aplicação. Ou na gotinha da vacina infantil, na garrafa de Grapette ou no picolé saia-e-blusa que aquele sorveteiro “espião comu­nista” vende pra molecada na porta da escola. Essa conversa pode entrar na cabeça de gente de miolo mole que vive as fantasias maquiavélicas e falsas da década de 60, espalhadas por séries televisivas de quinta categoria. A Terra não é redonda, o homem não pisou na Lua e Sean Connery se aposentou luxuosamente como 007 e vive num castelo na Ilha de Capri com a Gina Lollobrigida. Se você acredita em pelo menos uma dessas aí, nem hospício te aceitará mais como paciente. Maluquice tem prazo de validade e a sua já está vencida. Ah, esqueci, aqueles que acreditam que o Palmeiras tem Mundial, podem se incluir aí.

Hoje todos nós, que um dia preenchemos um formulário de contato que seja, estamos cadastrados na gigantesca rede de dados que abastece a Internet. A cada busca de notícias, visualização de vídeo e verificação de produtos e preços, mais dados são inseridos em nosso “dossiê” na web. Alguém já disse que a Internet conhece mais de você do que você mesmo conhece. Pode acreditar que isso é verdade.

Com o desenvolvimento atingido hoje pelas IAs utilizadas pelas Big-Techs, esse conhecimento pode ir além da coleta dos dados, passando para a manipula­ção de seus hábitos, objetivos, atuação profissional e convivência social. Ou para vigilância política e policial não autorizadas, segregação em atividades profissio­nais, administrativas e sociais, baseada em dados de gênero, crença, raça, convic­ção política, limitação física ou mental. Pode servir também para segregação e confinamento de comunidades ou grupos sociais, baseadas no que bem entender a autoridade ou empresa que controla a IA que você está utilizando.

Este foco essencial na questão humana e como ela está sendo manipulada num ambiente de IA foi o ponto central da formulação, depois de três anos de estudo e debate, do Ato de Inteligência Artificial aprovado pelo Parlamento Europeu, hoje em fase de regulamentação pela Comissão Executiva da UE, para ser implementado já neste ano. Claro que ele está sendo (muito) criticado pelas empresas que atuam no setor de desenvolvimento de IA e pelas Big-Techs. O argu­mento principal é que o Ato, com a atual redação, vai cercear o desenvolvimento de novas IAs, pois tem uma “pegada” preditiva e não reativa em sua classificação tripla das IAs que estão no mercado. E, principalmente, por obrigar as empresas a estabelecerem regras de “compliance” para seus novos aplicativos, antes mesmo de seu lançamento. Segundo os críticos, isso desestimularia “startups” e estúdios de produção de aplicativos a buscar inovações e criar novos produtos, deixando a Europa na rabeira do desenvolvimento da Inteligência Artificial.

Lembrando que, pelo Ato Europeu, as IAs serão classificadas como Proibi­das, que são aquelas que podem significar risco para a vida ou a saúde humana, aquelas com risco de prejudicar comunidades e grupos étnicos e as que podem causar comportamento autoritário e discriminatório dos órgãos públicos, especialmente os departamentos policiais, de segurança de Estado e do sistema jurídico. Na segunda classificação estão as IAs com risco de “enganar” seres humanos ou comunidades, quando se apresentam de uma maneira que se possa confundir as reações da “máquina” com comportamento humano. Na terceira e última estão as IAs de risco limitado, como o ChatGPT, que devem seguir, mes­mo assim, um rígido comportamento de transparência, compliance e respeito aos direitos autorais, antes mesmo de seu lançamento.

Em uma sociedade como a europeia que, depois da Segunda Guerra, buscou na maioria de suas nações o caminho democrático com foco na estruturação de estados voltados para o desenvolvimento coletivo de suas comunidades, respeitan­do os direitos humanos fundamentais e a paz entre os povos, parece ainda brilhar a luz da ideia do avanço tecnológico em benefício de todos e não como uma peça de aprofundamento da desigualdade econômica e social que muitos dirigentes políticos e empresários da tecnologia digital parecem buscar com vontade anima­lesca em todo o mundo. Às vezes é preciso usar rédeas mais curtas para que a car­roça civilizatória não saia do caminho e capote de vez em uma curva da História.
Que me desculpem os palmeirenses pela brincadeira e paz nos estádios e entre os torcedores de boa vontade. Até mais.

Postagens relacionadas

Para onde está indo nossa querida “Terra Brasilis”?

Redação 1

A imunização contra a covid-19

Redação 1

Mobilidade urbana com planejamento e resultados

Redação 1

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade

Social Media Auto Publish Powered By : XYZScripts.com