Por Paola Cantarini
Este trabalho foi apresentado na Conferência “Regulação da inteligência artificial: desafios e perspectivas” (30.03.2023), coordenada pelo professor Emmanuel R. Goffi, Co-Diretor do Global AI Ethics Institute.
Gostaria de trazer alguns pontos centrais de minha pesquisa recente, que é desenvolvida no Instituto de Estudos Avançados, Cátedra Oscar Sala, na Universidade de São Paulo, e no Instituto “Ethikai – ethics as a service”, mencionando perspectivas para futuros desenvolvimentos de pesquisa que pretendo continuar realizando no tema da governança da IA, “compliance”, ética da IA, e proteção dos direitos fundamentais.
Sobre a questão do painel 3 – “Perspectivas divergentes”: Uma regulamentação da IA é desejável e/ou possível”, minha resposta é que ela é necessária, portanto deve ser viável, e devemos fazer todos os esforços para alcançá-la. Em minha pesquisa e também no Instituto Ethikai estamos desenvolvendo um “framework” para avaliação de impacto de riscos, para a proteção adequada dos Direitos Fundamentais nos contextos de AI, no sentido de uma proposta pensada para os desafios especificamente do Brasil (e países do Sul Global), logo levando em consideração tal contexto sócio-cultural, uma vez que entendemos que ajudará no desenvolvimento de uma AI inclusiva, democrática, multicultural e pois, antropofágica.
Tal “framework” é baseado nas chamadas Epistemologias do Sul (Anibal Quijano) e na pluridimensionalidade dos Direitos Fundamentais. Além disso, pretendemos trazer algumas contribuições para a discussão de alguns documentos importantes envolvendo a regulação da IA da União Europeia, por vermos algumas fragilidades, a fim de melhor proteger os direitos fundamentais, reagindo a algumas críticas sobre o nível fixo de riscos da IA (“AI ACT”, “White paper on AI”) (Mark Coeckelbergh).
Antes de tudo, entendemos que é crucial questionar por que regular a IA através da hetero-regulamentação ao invés de apenas pela auto-regulação, para com isso alcançarmos uma visão inclusiva, holística e sustentável. Nesta linha, seria útil combinar esforços, no sentido da idéia de interseccionalidade de Angela Davis, uma vez que precisamos de leis, princípios éticos, e também precisamos de auto-regulação, através de boas práticas, governança e “compliance”.
Acima de tudo, as leis necessárias não são apenas leis principiológicas, mas também leis que apóiem e incentivem as práticas de “compliance”. Além disso, é necessária a chamada proceduralização de tais práticas, como já ocorre na área de proteção de dados com o GDPR – General Data Protection Regulation da União Européia -, o qual é mais protetivo neste sentido do que a LGDP no Brasil. Apesar de seus aspectos positivos, nossa lei mostra sua fragilidade precisamente por não trazer uma proceduralização e incentivos a boas práticas de “compliance”. Como já sabemos, os procedimentos são essenciais para aplicar princípios em casos concretos, levando em conta suas circunstâncias particulares.
No livro “The Rule of Law in Cyberspace”, coordenado por Gilmar Ferreira Mendes e Thomas Vesting, é amplamente apontada a importância de legislar sobre o ciberespaço, e seria a mesma lógica a ser aplicada quando se trata de IA, evitando a frase usualmente empregada por certas empresas “Move Fast and Break Things”, ou a abordagem chinesa de somente regular depois de haver danos causados pela IA.
Afinal, vivemos na sociedade da informação, a sociedade de dados, sociedade 5.0, na era do pós-humanismo e do transumanismo, durante a “reviravolta de/para o não-humano” (Grusin). Ao mesmo tempo, novos desafios e oportunidades surgem com a IA, com a maioria das empresas e governos duvidando se estão preparados para lidar com questões como ética da IA, governança da IA de uma forma ambientalmente sustentável e socialmente inclusiva. Por outro lado, não há muita ou insuficiente pesquisa científica nas humanidades focada na abordagem interdisciplinar necessária, reunindo especialistas em todos os principais campos envolvidos, para que pudessemos abordar adequadamente a complexidade das questões mencionadas.
Há, portanto, a necessidade da elaboração dos fundamentos epistemológicos e metodológicos para a construção de instrumentos de “compliance”, de acordo com o princípio de prevenção e da proteção adequada dos direitos fundamentais. E isto para realmente começar a falar de justiça algorítmica e respeito efetivo aos direitos fundamentais, no sentido de não apenas considerar tais direitos em seu âmbito individual, mas também como direitos coletivos e sociais, reconhecendo sua multidimensionalidade. Definitivamente, devemos considerar o impacto ambiental das novas tecnologias, a fim de desenvolver as práticas sustentáveis, inclusivas e democráticas de governança e “compliance” que são necessárias.
Neste sentido, o princípio da prevenção se destaca como um instrumento privilegiado para a proteção dos direitos contra as ameaças das novas tecnologias, promovendo a adoção de boas práticas de “compliance”.
Além disso, um projeto tecnológico com foco na sustentabilidade ambiental a longo prazo é um diferencial de mercado, uma vantagem competitiva, uma vez que envolve as exigências de uma IA de confiança, ou seja, sob controle humano, com transparência, explicabilidade e responsabilidade. Também proporciona o fortalecimento do Estado Democrático de Direito, já que corresponde a uma proteção efetiva dos direitos fundamentais de todas as parcelas da população, considerando especialmente as parcelas vulneráveis, através de uma proteção sistêmica.
Nesta linha, haveria uma ampliação do conceito atual de “cidade inteligente” para o de “polis inteligente”, adotando o sentido de “cidade” em termos clássicos, como um espaço para a realização da cidadania, envolvendo a recuperação do espaço público para melhor realização, promoção e respeito aos direitos humanos e fundamentais, já que cidadania é a implementação e possibilidade de exercício de tais direitos.
Voltando à minha pesquisa, é importante dizer que ela trata do desenvolvimento de um novo modelo de “estrutura” para proteger sistematicamente os direitos fundamentais sem impedir a inovação e a concorrência internacional. O objetivo é pensar a longo prazo e comprometido com a sustentabilidade, considerando também a perspectiva multicultural, a tecnodiversidade, a ética digital intercultural e o contexto sócio-cultural dos países do Sul Global através das Epistemologias do Sul já mencionadas, já que esses países enfrentam uma maior fragilidade institucional e democrática. Em resumo, o objetivo deste novo modelo é contribuir para a construção de uma governança sustentável e responsável dos algoritmos de IA.
As questões relacionadas à ética, “compliance”, governança e regulação da inteligência artificial estão na vanguarda das demandas atuais e urgentes das empresas e dos governos. Estas questões exigem uma análise multidisciplinar e correlativa multidimensional, pois possuem características polivalentes, exigindo assim uma coordenação entre recursos técnicos, legais e filosóficos da mais alta qualidade. Além disso, também é necessária uma perspectiva multidisciplinar e holística (como mencionado por Jean-Pierre Dupuy), enfatizando o aspecto plural, a diversidade e os contextos socioculturais específicos dos países do Sul Global.
Esta abordagem é essencial para desenvolver instrumentos de governança com o objetivo de proteger os direitos fundamentais em sua múltipla dimensionalidade, que são, do aspecto subjetivo, individuais, coletivos e sociais. Há também seu aspecto objetivo, institucional, relacionado com a formação do Estado Democrático de Direito. Tais proteções devem necessariamente fazer parte da composição de uma lógica de design para abordar a governança da AI de forma sustentável, inclusiva e ambientalmente responsável. Tal perspectiva amplia e democratiza a discussão, como é de se esperar na abordagem epistêmica orientada à diversidade, à decolonização e ao multiculturalismo.
O debate atual sobre governança algorítmica é uma grande preocupação das empresas e governos que enfrentam a IA. Ele envolve o estudo de novas métricas, “estruturas” e metodologias para avaliar modelos de IA, focalizando na proteção efetiva dos direitos fundamentais, a fim de evitar o surgimento de possíveis agressões a direitos por aplicações de IA. Isto requer uma mudança do paradigma atual, que se concentra apenas nos requisitos técnicos, tais como precisão e eficiência, para uma análise e aplicação que leve em conta aspectos sociais, culturais e éticos.
O objetivo aqui é avançar na direção de uma análise centrada na avaliação de risco e proteção dos direitos, e isto não somente através de uma IA centrada no ser humano, evitando uma perspectiva antropocêntrica, mas indo ainda mais longe, voltando-se para uma IA “centrada no planeta” ou “centrada na vida”. Além disso, visa estabelecer a base epistemológica e metodológica para um modelo de governança da IA com maior flexibilidade e, portanto, sustentabilidade (Klimburg, A., Almeida, V. A. F., & Almeida, V., 2019), evitando o engessamento do sistema no futuro, em face de novos desenvolvimentos.
Este seria um sistema de governança flexível, modular-procedimental, que pensamos ser mais necessário e nosso objetivo é alcançá-lo.
Poucos instrumentos internacionais estão centrados na proteção dos direitos fundamentais, e alguns não mencionam todas as possíveis violações a tais direitos, além de estarem limitados a algumas aplicações da IA, e muitas vezes apenas ao setor público ou à empresa em questão. Esta lacuna destaca a necessidade urgente de desenvolver uma metodologia consolidada apoiada por uma base epistemológica e hermenêutica adequada, que envolva uma melhor compreensão dos direitos fundamentais, sustentável a longo prazo, a fim de ser eficaz na proteção de tais direitos. Portanto, é urgente o desenvolvimento de procedimentos, “frameworks” e de metodologias para a criação de uma estrutura de governança e certificações para práticas responsáveis de IA. Queremos unir os esforços nesta direção.
Esta perspectiva não se limita à UE. A proposta de 2019 denominada “Algorithmic Accountability Act” dos EUA exige, em alguns casos, o desenvolvimento de avaliações de impacto. Em 2021, o Instituto Nacional de Normas e Tecnologia (NIST) foi encarregado pelo Congresso de desenvolver uma “estrutura de gerenciamento de risco de IA” para orientar a “confiabilidade, robustez e confiabilidade dos sistemas de IA” usados no governo federal. O relatório de 2021 da Comissão de Segurança Nacional sobre Inteligência Artificial recomendou que as agências governamentais que usam sistemas de IA preparassem avaliações de risco “ex ante” e “ex post” para proporcionar maior transparência pública.
No campo da proteção de dados é amplamente aceito e aplicado os princípios de “privacy by design ” desenvolvidos por Ann Cavoukian (“Privacy by Design: The 7 Foundational Principles”, Ann Cavoukian, 2009). E, embora já se fale de “direitos fundamentais por desing”, as propostas limitam-se a mencionar alguns direitos fundamentais (privacidade), e apenas alguns elementos de uma IA confiável (transparência, explicabilidade). Entretanto, há necessidade de uma “estrutura” adequada que se concentre na proteção preventiva e eficaz de todos os direitos fundamentais que a IA pode potencialmente afetar, ampliando o escopo de uma IA confiável para levar em conta a sustentabilidade, o multiculturalismo e a inclusão.
Além disso, nossa proposta visa contribuir para abordar outra “lacuna” nas pesquisas atuais, que é a dificuldade de traduzir os princípios éticos em práticas concretas, passando “dos princípios às ações”, e assim evitando que a discussão se limite a princípios éticos sem eficácia prática, a fim de evitar o que tem sido chamado de “lavagem ética” (Luciano Floridi). Aplicando uma “estrutura” baseada em novos princípios de “direitos fundamentais por design” que promovemos, levando em conta a multidimensionalidade dos direitos fundamentais, e o contexto socio-cultural do país, é possível se falar em uma proteção sistêmica e sustentável.
Nossa proposta visa precisamente aplicar os novos princípios do “direitos fundamentais por design” no design e nos documentos de “compliance”, agindo de forma proativa e prévia, (“ex ante”), concentrando-se no desenvolvimento de novas bases para aplicações de IA. A proposta é inspirada pela discussão entre Robert Alexy e Marti Susi no livro “Proporcionalidade e Internet” e pretende contribuir com a criação de novos princípios dos “direitos fundamentais por design”, a fim de incluir novas variáveis, a partir de uma perspectiva de países do Sul Global.
Portanto, nossa proposta é principalmente para o Brasil e a Governança Sul Global, que se baseia no modelo de governança “modular” trazido por Virgilio A. F. Almeida e o trabalho de Urs Gasser “Um Modelo em Camadas para a Governança da IA”. Esta seria uma perspectiva que temos caracterizado como antropofágica e tropicalista, em alusão a importantes movimentos culturais modernistas lançados no Brasil no século passado por artistas como Oswald de Andrade e Caetano Velloso.
Este modelo é mais flexível e adequado para os problemas sem precedentes de nossa sociedade datificada. A abordagem modular na governança da IA proposta pelos autores é semelhante à nossa proposta atual, “modular-procedural”, pois, por exemplo, ambas têm uma característica procedimental e visam fornecer soluções adequadas para novos problemas da atualidade.
A estrutura teórica segue as diretrizes encontradas nos documentos mais recentes produzidos pela UE e outros países que adotam um forte nível de proteção dos direitos fundamentais e humanos, tais como “AIC ACT”, “White Paper on AI “, “Unboxing AI”, “Relatório do Especial das Nações Unidas sobre a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião (sobre IA e seu impacto nas liberdades”), e “Governando dados e inteligência artificial para todos (Modelos para governança sustentável e justiça de dados”) do Parlamento Europeu. Estes documentos fornecem conceitos essenciais como “justiça de dados” e “avaliações de impacto dos direitos humanos/fundamentais”.
Modelos importantes para a elaboração de Relatórios de Impacto com uma abordagem em direitos fundamentais e de direitos humanos (Artificial Intelligence Impact Assessment – AIIA) incluem a proposta do Centre for Information Policy Leadership (CIPL), o da Plataforma Holandesa para a Sociedade da Informação, e o Responsible AI Impact Assessment Toll (RAIIA) desenvolvido pela International Technology Law Association.
A proposta que criamos enfatiza que a proteção dos direitos fundamentais não irá obstar a inovação e visa a superar a criação de mitos em torno da IA, buscando um equilíbrio entre tal objetivo e uma adequada e sistemática proteção a direitos. Assim como os mitos são comumente difundidos no Brasil sobre a democracia racial, a ausência de racismo e uma democracia consolidada, também existem produções mitológicas no campo da IA, correspondendo à idéia de que a hetero-regulamentação não seria necessária e dificultaria a inovação.
Outrossim, uma equipe de especialistas heterogêneos com independência, autonomia e conhecimento específico dos direitos fundamentais e princípios éticos, governança/compliance, multidisciplinar é necessária para melhor preparar e analisar de forma independente, as avaliações de impacto da IA (AIIA), observando as exigências do multiculturalismo, holismo e inclusão (legitimidade).
A estrutura do “framework” proposto se revela mais flexível devido ao procedimento que deve ser observado em cada caso concreto, e pode ser alterada no futuro dependendo do desenvolvimento tecnológico, caso a IA se torne mais segura e confiável, e com menos potencial de afronta aos direitos fundamentais das populações vulneráveis. Tal proposta não leva em consideração apenas a aplicação da IA, em si mesma e isoladamente, mas também seu contexto de uso, a população envolvida que pode sofrer danos.
Em conclusão, a inclusão dos direitos fundamentais, a ponderação e a aplicação da proporcionalidade na elaboração de documentos de “compliance” como a AIIL (Avaliação de Legítimo Interesse), a AIIP (Avaliação de Impacto da Proteção de Dados) e a AIIA (Avaliação de Impacto da IA) com foco nos direitos fundamentais deve ser realizada por uma equipe com conhecimento específico, independência, multiculturalismo e multidisciplinaridade. Tal documento pode contribuir para a melhoria da qualidade dos produtos e serviços na AI e sua legitimidade também, além do fortalecimento do Estado Democrático de Direito.