Sistemas éticos para Inteligência Artificial
Sempre que julgamos um sistema tecnológico por seu posicionamento ético, é fundamental revisitar o processo de concepção dele. Uma série de premissas e regras pré-estabelecidas, associadas ao ambiente e cultura em que o sistema está instalado, complementado por rotinas contínuas de controle, atualização e suporte, fazem com que as normas de conduta formem, originalmente, o comportamento ativo daquele sistema.
Se observarmos com atenção essa fusão de componentes, logo perceberemos que ocorre o mesmo com nosso sistema social formado por humanos. A partir do momento que determinado indivíduo recebe “configurações originais” por parte de sua família, escola, bairro, amigos, redes, ele passa a atualizar suas premissas éticas conforme a evolução do seu modo de viver.
A máquina, quando caracterizada como Inteligência Artificial, representa um repositório de informações e normas dos indivíduos que a configuraram, tornando-se, assim, uma forma de sistema autônomo baseado nas informações daqueles que a abasteceram. A autonomia, como conceito, é encontrada nos debates sobre moral e costuma ser definida como a capacidade racional de tomar decisões não forçadas baseando-se nas informações disponíveis. A premissa de autonomia não significa que não foram carregados traços históricos na definição das regras de funcionamento, afinal ele é formado por determinado meio, geralmente respeitando os limites éticos dos seus formadores. Talvez a grande diferença esteja na capacidade crítica que o ser humano possui de, a partir de sua própria percepção, alterar um determinado comportamento espontaneamente para que este esteja mais adequado às suas crenças de viver bem. Já a máquina dependerá da alteração de um determinado código para, assim, possuir um novo padrão de ação.
Se transportarmos isso para dentro do mundo corporativo, será necessário observar as pessoas que fazem parte do sistema social no ambiente de trabalho, geralmente formado pelo comportamento dos colaboradores que fazem parte daquele negócio. A partir daí, será possível identificar os principais parâmetros éticos que estão ali presentes. Caso essa análise prévia não seja realizada, corre-se o risco da criação de sistemas com divergências éticas, que serão inseridas no sistema tecnológico a ser desenvolvido, transferindo assim uma inconsistência, ou desvio ético, para uma rotina automatizada. Para exemplificar, em um sistema social com pouca diversidade, a inserção de códigos nos softwares para que promovam um processo seletivo mais diverso pode gerar uma série de problemas. A tentativa de inserir nas máquinas um padrão de comportamento não adotado por aqueles indivíduos está carregada de elementos divergentes, algo que inevitavelmente irá incorrer em uma falha sistêmica, seja ela social ou técnica. A falha, nesse caso, é no sistema social nativo, e não no código inserido para ativação por meio de IA.
Em razão disso, um comitê para compreender os princípios de comportamento e estabelecer premissas, que acompanhará a implementação das mesmas em forma de códigos, é algo fundamental em uma era onde máquinas interagem continuamente com humanos. Ele irá testar as hipóteses e possíveis falhas, além de monitorar a contínua evolução dessa tecnologia enquanto ativa no sistema social. Aqui a premissa de um modelo de governança estruturado, que dialogue desde a fase de concepção, até a execução desse sistema inteligente, quando o mesmo torna-se um agente ativo da própria organização, é fundamental. Sistemas tecnológicos são reprodutores de tarefas, sejam aquelas definidas como premissa do aprendizado de máquina ou os resultados de tarefas executadas pelos mesmos.
Sistemas éticos, sejam eles tecnológicos ou sociais, são formados por componentes similares: premissas, regras, ambiente, cultura, controle, atualização e suporte, sendo que quando essas partes não são devidamente supervisionadas e integradas, eleva-se o risco de uma falha comportamental desses autônomos. Então, na construção de um sistema de inteligência artificial é fundamental uma atenção redobrada com relação aos aspectos éticos e na influência que os ambientes sociais podem gerar enquanto esses sistemas estiverem em funcionamento. A responsabilidade do comportamento dessas máquinas é inteira dos seus criadores.
—
Artigo originalmente publicado na MIT Technology Review Brasil em 06 de janeiro 2022.