Tribuna Ribeirão
Artigos

Predição – Capítulo 2

Este espaço existe para falar de Inteligência Artificial e das mudanças que a sua utilização vêm provocando em nossa sociedade. Nem sempre para o bem, mas isso não depende de uma máquina ou de um algoritmo. Como sempre digo, existe o fator humano por trás de toda e qualquer tecnologia. E é este fator que condi­ciona o uso da tecnologia para o bem ou para o mal. Uma sociedade governada com injustiça e desdém social, terá aplicações tecnológicas que aprofundarão as diferenças e injustiças sociais. Outra, governada com equilíbrio e respeito ético, utilizará a mesma tecnologia para melhorar a vida de seus cidadãos.

Semana passada comecei a falar sobre reconhecimento facial. Hoje é de uso corriqueiro, instituições financeiras usam-no para permitir acesso a seus servi­ços, empresas substituem o relógio de ponto e eventos utilizam-no para prevenir o uso de ingressos falsificados. Sistemas de vigilância em todo o mundo utili­zam também. Isso é aceitável? Sim. É interessante quando se pode identificar criminosos procurados, rastrear pessoas desaparecidas, entre outras aplicações.

O problema acontece quando se começa a pensar no uso desses sistemas como ferramenta de controle individual, cerceando direitos fundamentais de privacidade, deslocamento e atividades sociais de cidadãos ou comunidades pré-selecionadas. Marcar o cidadão para conhecer seu passado, entender seu presente e manipular seu futuro. Quando se acrescenta a essa equação a possi­bilidade de se “identificar” a expressão facial e corporal da pessoa e classificá­-la como boa ou ruim, começamos a cruzar a fronteira entre o mundo real e o “país do Big Brother”.

A tentação de se poder predizer o que aquele indivíduo vai ou não fazer num futuro próximo, baseado em seu histórico comportamental, pode ser irresistível para aqueles que desejam um mundo controlado por poucos. Quem vai determinar se essa pessoa é boa ou ruim, representa ou não um perigo para a sociedade? A autoridade policial? Um algoritmo criado por uma “startup”? O operador do sistema de vigilância? E, a partir dessa determina­ção, qual vai ser a atitude do Estado em relação ao cidadão vigiado?

Em 1995, a académica e PHD estadunidense Rosalind Picard, do MIT, criou o termo “computação afetiva”, que é o processo de identificação, classificação e estudo da linguagem humana, seja ela falada ou expressada em termos sonoros, visuais ou corporais, para que possa ser identificada e compreendida por sistemas computacionais. Hoje a Computação Afetiva é considerada uma ciência, com pes­quisadores trabalhando em praticamente todas as boas universidades do mundo.

Para se compreender isso melhor, faça um pequeno exercício. Grave com seu celular você mesmo dizendo “bom dia”, diversas vezes, mudando de humor, tom e expressão facial. Depois assista e veja como ficaram diferentes os seus “bons dias”. São essas diferenças e nuances que a Computação Afetiva busca captar, classificar e disponibilizar para uso em Inteligência Artificial.

Essas informações podem alimentar sistemas que respondam automatica­mente a determinados comportamentos linguísticos ou corporais de um indiví­duo. Ou de um grupo deles. Mesmo que o sistema não “domine” o idioma falado ali, naquela situação, ele pode identificar comportamentos que o obriguem a tomar uma atitude, seja ela de avisar alguém sobre o ocorrido, emitir uma ordem de intervenção, ou, sei lá, disparar um míssil em cima do pobre cidadão vigiado.

Por outro lado, sistemas específicos podem se abastecer de informações individualizadas de pequenas expressões ou sons de pessoas com alto nível de comprometimento de mobilidade ou fala. Um simples estalar de língua pode se transformar em um “quero tomar água”; outra expressão, um levantar de sobran­celha pode ser traduzida como “não gostei disso”, etc. Claro que o gestual poderia ser combinado entre a pessoa necessitada e um acompanhante. Mas e quando o acompanhante não estiver presente? A comunicação poderá ser feita por um dispositivo próprio, tipo uma Alexia com programação específica.

A Computação Afetiva é considerada uma das “galinhas de ovos de ouro” do futuro próximo da Inteligência Artificial. Vai permitir uma comunicação mais confiável entre humanos e robôs, a criação de personagens de games e filmes bem mais parecidos com pessoas reais e criar bots individualizados nos ambientes de meta-realidade.

Mas ela tem seu “lado negro”. Pode ser usada para criar um avatar “real” de qualquer pessoa do planeta. Basta recolher os dados necessários do indiví­duo e fazer seu “clone virtual”, que fala com a mesma voz e entonação, anda igualzinho e espirra da mesma forma que o original. Junte esse “clone virtual” com a tecnologia da produção de vídeos de hoje e crie o roteiro desse filme: no mesmo segundo em que ele, o real, está tomando chá em sua casa em Co­chabamba, o virtual está cometendo um homicídio em Jurucê-SP. Em quem o júri acreditará? No depoimento do homem que diz estar sozinho em casa na Bolívia ou no vídeo manipulado que o promotor apresenta, mostrando que ele estava, naquele exato instante, atirando em alguém em Jurucê?

Este texto está sendo publicado no dia 11 de agosto, Dia do Advogado. Um grande abraço a todos os amigos que trilham esse caminho tão difícil que é o das carreiras jurídicas.
Semana que vem tem mais, até lá.

Postagens relacionadas

A peste e o Exército

William Teodoro

O retorno da Agrishow

Redação 1

O indulto

William Teodoro

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade