O princípio crítico na racionalidade algorítmica
Minha formação técnica em processamento de dados, que ocorreu no final dos anos 90, me conduziu para uma jornada totalmente dedicada à tecnologia da informação. Uma linha de desenvolvimento fundamentada dentro dos limites da tecnociência, que acabou por direcionar meus estudos, trabalho, negócios, e causas nas quais me envolvi até agora, mas algo que extrapola essa área de conhecimento é que realmente está despertando minha atenção nesses últimos tempos. É preciso entender a relevância do pensamento crítico na era da informação.
Enquanto ocorria o exponencial crescimento do volume, variedade e velocidade dos dados, resultados do conhecido fenômeno Big Data, foi possível observar que o movimento da transformação tecnológica ficou restrito à uma pequena parte das pessoas, afinal, a complexidade das técnicas e terminologias utilizadas carregam muitas especificidades que acabam por afastar grupos não especialistas desse diálogo. Essa segmentação, que acabou por limitar a abrangência do movimento, tanto em número de pessoas quanto na diversidade de perfis dos envolvidos nos projetos, restringiu o alcance da tarefa de pensar - e executar - a tecnologia nos ambientes sociais e de negócio, e isso cria um paradoxo sobre o atual momento onde convivemos com máquinas inteligentes e precisamos adotar o pensamento analítico.
Um sistema de inteligência artificial é composto por dois fundamentos, primeiramente uma condição técnica que utiliza-se de códigos e recursos tecnológicos para viabilizar a reprodução automática e sistêmica de tarefas com maior eficiência. De outro lado estão as regras, processos que são definidos por indivíduos que precisam estabelecer as atividades que serão executadas através daqueles recursos técnicos. Quando a regra é estabelecida de forma inadequada, seja em razão de uma falha na definição dos dados que serão utilizados, um problema na modelagem, alguma inconsistência nas rotinas de repetição, ou ainda inclusão de instruções incompletas para que os sistemas evoluam, isso eleva o risco desses artifícios inteligentes gerarem resultados negativos em escalas incontroláveis. As falhas no desenvolvimento técnico costumam ser mais rastreáveis e mais fáceis de serem identificadas, pois geralmente os erros se concentram na produção do código ou em uma falha mecânica, mas limitam-se realmente na execução técnica. Então, quando um sistema de inteligência artificial falha, é possível rapidamente identificar o problema quando é de origem técnica, pois o erro estará na produção ou falta de manutenção, trata-se de um erro rastreável. Já quando a falha é na regra, seja a partir de um procedimento mal estabelecido ou configuração inadequada, tanto o problema quanto a responsabilidade são mais difíceis de diagnosticar, afinal, muitas pessoas podem contribuir na concepção de uma determinada regra de funcionamento de um sistema artificial, sem muitas vezes gerarem registros adequados desse procedimento de construção de conhecimento. A racionalidade algorítmica, nesses casos, já nascerá mal estabelecida.
Quando a racionalidade humana é transformada em códigos para reprodução por meio de processos automatizados, utiliza-se da lógica dos algoritmos. Na racionalidade algorítmica, os sistemas passam a ocupar um lugar central nos processo de conhecimento de uma certa realidade, seja no processo de tomada de decisão ou na gestão. Podemos encontrar esses algoritmos autônomos em tudo que atualmente está ao nosso redor, desde sistemas de recomendação de conteúdo que estão presentes nas redes sociais, passando por recursos tecnológicos que realizam tarefas repetitivas do nosso cotidiano, chegando até aos assistentes virtuais inteligentes instalados em nossas casas e nos veículos autônomos. A pesquisadora Fernanda Bruno faz uma afirmação muito interessante sobre tal evolução:
"...passamos a achar que as máquinas seriam mais eficientes que os humanos não apenas na execução de certas tarefas, mas também na capacidade de processar e produzir informação, assim como de decidir de modo mais confiável.
Mas é preciso lembrar que a produção de algoritmos inteligentes não significa a transferência da responsabilidade da decisão, trata-se na verdade de uma terceirização da execução de determinada tarefa. Quem deve prestar contas sobre aquele raciocínio instaurado na máquina é aquele que determina as regras, e posteriormente produz os códigos. Neste aspecto, um complemento de Fernanda Bruno também é relevante:
Os nossos ideais de objetividade têm uma íntima relação com a mecanização e a automação, especialmente a partir do século XIX. O triunfo do algoritmo como modelo de gestão e decisão racional está relacionado a um deslocamento epistemológico, que marca a passagem do modelo iluminista de razão fundamentado na reflexividade crítica para um modelo de racionalidade baseado em regras algorítmicas. Claro que essa passagem não se dá de forma completa e esses modelos, na realidade, se sobrepõem e convivem."
Durante a pandemia esse paradoxo foi inserido na vida de muitas pessoas ao redor do mundo, com ou sem o consenso das mesmas. Líderes estabeleceram regras em seus territórios de poder com o objetivo de garantir o funcionamento do ecossistema social, utilizando-se geralmente de premissas individuais, ou a partir do consenso de pequenos grupos de decisão, essas funcionam como regras algorítmicas. A partir disso, recursos técnicos e artificiais foram ativados para monitorar o cumprimento de tais regras, através da automação desses algoritmos. Em diversas partes do mundo esses sistemas inteligentes ainda monitoram a disseminação de vírus biológicos, exigindo que indivíduos insiram seus dados em certos sistemas, para assim ter algum tipo de liberdade no seu próprio convívio social, se mantendo restritos ao universo de controle sistematicamente planejado por terceiros. O paradoxo talvez aqui esteja no estabelecimento dos parâmetros, ou seja, na definição das regras: quando um sistema é utilizado de forma adequada, poderá sim proteger vidas ao redor do mundo, mas isso também instaura o sistema vigilante de controle social, que utiliza-se daquelas regras pré-estabelecidas por grupos de indivíduos que ocupam a posição de liderança. Os algoritmos, aqui nesse caso, mesmo que considerados inteligentes, podem ser invasivos e controladores, por mais que o objetivo seja salvar vidas humanas.
Tomar decisões técnicas na era da informação, onde a tecnociência costuma prevalecer em razão do alcance e potencial de suas ações, acaba por ser uma tarefa simples quando comparada a necessidade de definir as regras que serão inseridas nesses códigos. Nas regras serão estabelecidos todos os parâmetros de funcionamento desse determinado sistema, onde é preciso inclusive prever as questões éticas relacionadas ao tema, afinal, essas regras quando reproduzidas de forma automática irão afetar em alta velocidade uma grande quantidade de pessoas simultaneamente. A responsabilidade da racionalidade algorítmica que é inserida nesses sistemas precisa ser rastreável e devidamente atribuída aos criadores, pois os efeitos de tal tecnologia podem ser de proporções imensuráveis - e até incontroláveis. O pensamento crítico precisa ser a base da construção de qualquer automação, ele deveria ser instaurado como princípio de todo processo de concepção dos autônomos, sejam estes com a missão de execução de tarefas repetitivas ou de atuação como sistemas de inteligência artificial. Em tempos onde homem e máquina assumem uma personalidade unidimensional, sem o recurso de capacidade crítica dos indivíduos ativos nos sistemas replicantes, as consequências podem ser perigosas para a sociedade. O princípio crítico instaurado em sistemas inteligentes pode orientar as ações desses artifícios a partir de sua concepção, com possibilidade de aperfeiçoamento constante através de atualizações ou, se necessário, podem ser desativados. Fato é que, sem uma estrutura lógica de pensamento racional instalada nesses códigos, onde o desenvolvimento de sistemas inteligentes não tenha sido submetido ao princípio crítico da racionalidade humana, os algoritmos gerados inevitavelmente irão falhar.
—
Referências:
Instituto Humanas Unisinos: Tecnopolítica, racionalidade algorítmica e mundo como laboratório. Entrevista com Fernanda Bruno: http://www.ihu.unisinos.br/78-noticias/594012-tecnopolitica-racionalidade-algoritmica-e-mundo-como-laboratorio-entrevista-com-fernanda-bruno
MORIN, Edgar. O método 6 Ética. Sulina, 2017.
TEDx Ricardo Cappra: Algoritmos: você está no controle? | Ricardo Cappra | TEDxBrasilia https://youtu.be/wBz-xWPo1Fc
CAPPRA, Ricardo. Rastreável: redes, vírus, dados e tecnologias para proteger e vigiar a sociedade. Actual, 2021.