As tecnologias de inteligência artificial (IA) já estão auxiliando as empresas no cumprimento e na promoção dos critérios ESG (boas práticas ambientais, sociais e de governança) à medida que podem coletar grandes volumes de dados dispersos, mensurar os riscos que a companhia sofre em cada um dos pilares ESG e propor soluções voltadas à conformidade, às demandas e envolvimento dos stakeholders, além do cumprimento de metas corporativas dentro da perspectiva de um futuro sustentável.
As conexões entre ESG e IA são um fato. As ferramentas de IA tornaram-se fundamentais para melhorar o desempenho das práticas ESG, realizando auditorias, aprimorando a análise de dados, para atingir um relatório mais preciso e com maior transparência, modelando previsões mais assertivas no futuro, melhorando a governança corporativa e cumprindo os requisitos de conformidade.
E o reverso também é possível? O ESG pode contribuir para forjar um arcabouço ético para a inteligência artificial, uma tecnologia de propósito geral, que impacta todas as demais e que está se disseminando rapidamente em todos os campos do conhecimento. É possível acrescer valores humanos e filosóficos (éticos) durante o design de um novo algoritmo? Atualmente, a IA generativa já nos mostrou que temos todas as respostas, somente devemos saber fazer as perguntas certas, embora isso envolva um paradoxo. O escritor Luis Fernando Veríssimo foi muito feliz ao afirmar que “quando a gente acha que tem todas as respostas, vem a vida e muda todas as perguntas”.
Se a ciência gera conhecimento, a ética se volta ao bem-estar de todos os seres humanos, sendo que a aplicação do conhecimento científico, embora cognitivo na sua gênese, não está fora do alcance da imputabilidade moral. Um exemplo pré-ESG e tecnologia é o caso do potente herbicida usado em lavouras que foi empregado pelos EUA na Guerra do Vietnã (1960-1975). O chamado “agente laranja”, um desfolhante jogado sobre as florestas para tornar o inimigo “visível”, resultando em danos ao meio ambiente e à saúde humana. É cancerígeno e causa comprometimento neurológico e imunológico.[1]
A guerra acabou há quase 50 anos, mas ainda há vítimas entre a população vietnamita. Tais compostos químicos estão proibidos pelo mal que causam à vida. Esse argumento enseja que o cientista não pode estar voltado unicamente ao interesse intelectual de sua pesquisa e descoberta, o julgamento ético tem de ocupar um lugar neste contexto, sendo um agente biológico ou uma nova tecnologia.
LEIA TAMBÉM:
Agronegócio tem o social como destaque da tríade ESG; entenda
IA: ONU lança programa para apoiar projetos que combatem as mudanças climáticas
A ética se tornou fundamental no direcionamento e uso da pesquisa científica envolvendo as tecnologias, porque as imputações morais no mundo da IA também são essenciais ao bem estar da humanidade. É de conhecimento público que há algoritmos que empregam métricas opacas gerando resultados prejudiciais a determinados grupos. “Eles são opacos no sentido de que, se alguém recebe o resultado do algoritmo (a decisão de classificação), raramente tem qualquer noção concreta de como ou porque uma determinada classificação foi obtida a partir dos dados de entrada. Além disso, as próprias entradas podem ser totalmente desconhecidas ou conhecidas apenas parcialmente”.[2]
O aprendizado da máquina (machine learning) pode levar a resultados que nem os desenvolvedores conhecem, inclusive à discriminação algorítmica, reproduzindo preconceitos historicamente institucionalizados e prejudicando grupos socialmente minorizados. A opacidade dos sistemas algorítmicos é um desafio ético ainda a ser vencido.
Na avaliação acadêmica, a IA reúne três grandes segmentos éticos: privacidade, preconceito/discriminação e julgamento humano, que envolve uma camada filosófica. No treinamento do algoritmo, alguns pontos já são claros aos desenvolvedores de programas depois de episódios mal sucedidos. Para o filósofo Michael Sandel, “a IA não apenas replica preconceitos humanos, mas confere a esses preconceitos uma espécie de credibilidade científica. Faz parecer que essas previsões e julgamentos têm um status objetivo”.[3]
No sentido de mudar este cenário, pioneiramente, a Universidade Harvard está ensinando conceitos éticos aos estudantes de ciência da computação, cuja grande meta é levar o novo profissional a perguntar sobre as implicações éticas ao iniciar um novo projeto tecnológico, não depois de concluir o trabalho. É uma virada ética para toda uma geração.
O curso chamado Embedded EthiCS, traz a filosofia para ajudar a pensar a importância da ética no universo das tecnologias de IA. Nesse contexto, a ética deve ser empregada desde o início de um projeto. O curso envolve temas como: a ética da privacidade eletrônica, engenharia de software moralmente responsável, Facebook, notícias falsas e ética da censura, sistemas de software comprovadamente éticos, design inclusivo e igualdade de oportunidades, máquina e tomada de decisão moral e sistemas robóticos e autônomos.
O aspecto ético do ESG pode agregar elementos às ferramentas de IA porque possuem um forte vínculo com os 17 Objetivos de Desenvolvimento Sustentável das Nações Unidas, que compreendem áreas críticas para a economia, o social e o ambiental, envolvendo empresas privadas e governos na busca de soluções criativas para as misérias e crises planetárias.
Os ODS funcionam como uma estrutura capaz de ancorar o compromisso das organizações com a concretização do desenvolvimento sustentável, dando suporte aos critérios ESG e direcionando seus esforços para um modelo de negócio responsável e conectado em escala global, sejam a comunidades ou ao meio ambiente. Há, implicitamente, uma responsabilidade moral nas metas fixadas, nos meios e fins.
Integrar práticas empresariais sustentáveis por meio de conexões entre os ODS e os compromissos empresariais (ESG) resulta em impactos positivos e mensuráveis, presentes nos esforços de criar taxonomias para medir o desempenho ambiental, social e de gestão das empresas. Certamente, ainda há lacunas na conexão entre ESG e IA que podem resultar em pontes futuras. Os acadêmicos que se debruçam na interconexão ética e tecnologia, apontam dois elementos principais — deficiência na informação de dados e falta de transparência. Fatores ainda a ser superados.
A autonomia e a capacidade de tomar decisões críticas suscitam a necessidade de as tecnologias da IA Generativa seguirem princípios éticos, especialmente ao envolverem os direitos de privacidade dos titulares de dados e os seus direitos fundamentais. Estamos lidando com uma tecnologia que, a princípio, se achava que iria apenas substituir ações repetitivas e viabilizar a automação, mas que hoje consegue trazer todo o conhecimento disponível no mundo, em minutos, sobre determinado tema para uma tomada de uma decisão estratégica.
Como poderia ser aplicada a ética do ESG à IA? Já tivemos algoritmos que, alimentados por determinados conjuntos de dados, como o PredPol, voltado a prever crimes, levou a polícia a ter como alvos bairros em que havia minorias raciais, nem sempre com altas taxas de criminalidade; ou software de reconhecimento facial de vários empresas que não conseguiam identificar corretamente mulheres negras porque foram treinados com um conjunto de dados, onde a maioria era formada por homens brancos; ou algoritmos que registravam riscos mais elevados de inadimplência entre a população negra, que tinha menor acesso a crédito bancário.
No Brasil, o Ministério Público de São Paulo se manifestou favoravelmente a suspender um programa da prefeitura paulistana para instalar 20 mil câmeras de monitoramento e reconhecimento facial na capital, em tempo real, por risco de prática de racismo. A adoção de preceitos éticos poderá estipular o emprego de dados precisos para o modelo de aprendizagem automática da máquina e a escolha deverá ser mais equânime, reduzindo a discriminação algorítmica.
Pela relevância e universalidade das propostas que envolvem o ESG — como redução das emissões de carbono, limitação (ou eliminação) da produção de combustíveis fósseis (petróleo, carvão e gás), reflorestamento, justiça social, equidade racial, ambientes laborais livres de assédio moral e sexual, salários justos, rastreamento de cadeia de produção, governança voltada a valores éticos — poderá ser transformada em uma regulação vinculativa para servir de referência para as tecnologias de IA.
Há um compartilhamento ético entre todos os stakeholders, que se retroalimentam, no qual o bem comum predomina e a modelagem é vinculada à sustentabilidade. Os valores corporativos são forjados pela agenda ESG, que embora pareça extremamente nova, traz em si elementos que guiaram os seres humanos ao longo de sua história.
A visão da ética utilitarista do filósofo John Stuart Mill, ainda hoje pode ser aplicada à tecnologia. Segundo ela, uma ação é boa se gera bem-estar coletivo, preserva a liberdade individual e pode ser protegida pelo Princípio do Dano, ou seja, “o único propósito de se exercer legitimamente o poder sobre qualquer membro de uma comunidade civilizada, contra sua vontade, é evitar danos aos demais.” Assim, as ações ensejadas por um indivíduo podem ter como impacto prejudicar muitos. Uma preocupação ética aplicável à tecnologia pelo seu poder massivo.[4]
A partir desta visão, a ética pode estreitar a lacuna entre aqueles que desenvolvem tecnologias de IA, as empresas que professam o ESG e os stakeholders que convivem com as mudanças, buscando dar concretude a uma era tecnológica mais envolvida com elementos morais, mudando mentalidades. Os cientistas e os desenvolvedores de IA estão moralmente comprometidos com os benefícios ou malefícios que a tecnologia possa trazer ao planeta, embora saibamos que a filosofia e os regramentos nem sempre consigam manter a IA no rumo da ética, do ESG e longe de todo e qualquer poder abusivo.
[1] https://my.clevelandclinic.org/health/symptoms/24689-agent-orange-effects
[3] https://news.harvard.edu/Gazette/
[4] MILL, John Stuart. A Liberdade/Utilitarismo. São Paulo: Martins Fontes, 2000.
YUN KI LEE – Sócio da Lee, Brock, Camargo Advogados, mestre em Direito Econômico pela PUC-SP e professor de pós-graduação em Direito