TropicAI

By Paola Cantarini

Home / TropicAI

Governança de IA e Direitos Fundamentais: uma abordagem democrática, inclusiva e decolonial

Paola Cantarini

A IA como a mais disruptiva das tecnologias, apesar de propiciar inúmeros benefícios à sociedade possui um potencial de afronta a todos os direitos humanos e fundamentais (“Human rights in national AI strategies Source”: Bradley et al., 2020; documento “Getting the future right”, da lavra da “European Union Agency”), ensejando como resposta uma proteção contra eventuais riscos de afrontas a direitos fundamentais de forma sistêmica, proativa, abrangente e segura (Wolfgang Hoffman-Riem), por meio de algo como a interseccionalidade  (Angela David/Ruha Benjamin), através de legislação, “compliance” e boas práticas pautadas em princípios éticos. A lei neste caso não pode ser apenas principiológica, mas com incentivos ao “compliance”, aliando-se às práticas de autorregulação (“compliance” e design técnico), em especial, trazendo a obrigatoriedade da elaboração prévia de um dos principais instrumentos de governança, o AIIA, a Avaliação de Impacto Algorítmico,  – ou seja, antes do início da aplicação de IA a ser colocada no mercado, prevenindo danos a possíveis direitos fundamentais.

Isto porque apenas princípios éticos, embora importantes, não são suficientes, por lhes faltar “enforcement”, além de serem produzidos de forma não homogênea, podendo dar ensejo ao que se tem denominado de “lavagem ética” (Luciano Floridi), quando se prestam a uma mera camuflagem. Em sentido semelhante, embora imprescindível, o “compliance” apenas não é suficiente, e poderá se basear também, sem um critério legalmente estabelecido, em medidas unilaterais e seletivas, em termos de interesses e assimetrias de poder. Com isso, haveria o risco de que o controle apenas via tecnologia pudesse ensejar a perda de regulamentação normativa ou causar fins normativamente indesejáveis (Mireille Hildebrandt, “Smart Regulation and the End(s) of Law”).

A principal fundamentação da presente perspectiva é contribuir para a concretização da proteção, promoção e efetivação dos direitos fundamentais por meio da tecnologia, não apenas no âmbito individual, mas coletivo e social (multidimensionalidade dos direitos fundamentais), trazendo a preocupação com o impacto ambiental por parte da IA, e demais danos que possa causar, sem contudo, obstar a inovação e competitividade internacional, pois é uma perspectiva de longo prazo e com foco na sustentabilidade.

Diante de tal perspectiva, no âmbito de pesquisa realizada em sede de pós-doutorado no IEA-USP – Cátedra Oscar Sala, desenvolvemos uma proposta de GOVERNANÇA DE IA BR/SUL GLOBAL, trazendo uma abordagem modular/procedimental, tal como consta, destarte, do PL 2338, de 2023. Desta forma pretende-se alcançar uma proteção proativa aos direitos fundamentais, por meio de quatro camadas interconectadas, envolvendo a regulamentação jurídica, o design técnico, e arranjos tanto éticos como sociais, tendo por camada superior a dignidade humana como núcleo essencial de qualquer direito fundamental, sendo que o respeito a estes é essencial para um Estado Democrático de Direito, conjugando-se a heterorregulação com a autorregulação, por meio do “compliance” e de boas práticas, pautadas em  princípios éticos.

A proposta envolve, outrossim, a construção de um “framework” específico, voltado à análise de riscos a direitos fundamentais em aplicações de inteligência artificial (IA), envolvendo o conceito dos novos princípios do “fundamental rights by design”, voltando-se para as características sócio-culturais do Brasil como um país do Sul Global (Epistemologias do Sul – Aníbal Quijano). Trata-se de um modelo procedimental, por envolver a ponderação e procedimentos tanto no design como nos documentos de “compliance”, trazendo uma maior flexibilidade, sem engessamento do sistema, ou seja, é um modelo não estático, mas flexível e mutável (“co-approach”). Tal modelo teria a vantagem de não obstar a inovação, ao ser mutável e adaptável ao desenvolvimento da tecnologia no futuro.

A legislação iria então garantir o respeito aos direitos fundamentais como um objetivo central do processo de construção de softwares e algoritmos, isto é, durante todo o ciclo de vida do sistema, como um requisito para a viabilidade de tal projeto. Ampliar-se-ia assim o “framework”, tal como já consagrado na área de proteção de dados, como “privacy by design”, “privacy by default”, proposta da lavra de Ann Cavoukian (ANPD do Canadá), e também “privacy by business model”, como derivação do princípio da “accountability”, agora ampliado para se tornar um “fundamental rights by design”.[1]

Desta forma, verifica-se que infelizmente aplicar apenas a CF88 (Constituição Federal de 1988) nos moldes atuais e o diálogo das fontes, com base em MCI (Marco Civil da Internet), LGPD (Lei Geral de Proteção de Dados) e EBIA – Portaria MCTI nº 4.617/ 2021 não seria suficiente, pois não abrangem todas as particularidades e especificidades das aplicações de IA, e assim como foi necessária a promulgação destas leis, também se faz presente a necessidade urgente de uma legislação acerca da IA, a qual não irá obstar a inovação ou a competitividade internacional, como veremos.

Outrossim, o MCI foi promulgado há aproximadamente dez anos, quando a tecnologia encontrava-se em outro estágio de desenvolvimento, ou seja, até 2001 verifica-se um modelo passivo (busca orgânica), a partir de 2001 até 2014, um modelo ativo, direcionador de conteúdos pelas plataformas digitais, e a partir de 2014 tem-se a utilização em massa de algoritmos para impulsionar, selecionar e fazer a perfilização do conteúdo e das pessoas envolvidas, com um efeito em massa e de maior potencial manipulador, chegando a persuasão a níveis antes não equiparáveis por outras mídias, ampliada pela característica de “ubiquidade” das novas tecnologias, que se integram e se misturam ao dia-a-dia das pessoas, sem uma consciência crítica atrelada a tal uso massivo (captologia),[2] de viralização de conteúdo e monetização.  

Fala-se, na área de proteção de dados, em instrumentos de “compliance”, já aceitos e reconhecidos internacionalmente como essenciais, a exemplo do DPIA – relatório de impacto de proteção de dados/privacidade e do LIA – avaliação do legítimo interesse -, sendo que neste ponto o Regulamento Europeu de Proteção de Dados, no qual se inspirou nossa LGPD, é mais protetivo e completo justamente por trazer uma padronização e requisitos essenciais para a elaboração de tais documentos. Os documentos internacionais da EU podem então colaborar para a construção de uma fundamentação teórica importante, embora também deva ser analisado o contexto sócio-cultural do Brasil, diante de um histórico mais antigo da proteção de dados pelos países da EU, com leis neste sentido desde a década de 1970.

Este é um ponto, aliás, passível de crítica na LGPD, considerada de nível moderado/fraco de proteção, com previsão de poucos instrumentos de boas práticas e “compliance”, comparando-se com o nível europeu, o que poderia contribuir para menos interpretações dúbias e insegurança jurídica no tocante a alguns pontos da nossa LGPD, a exemplo da compreensão não homogênea acerca da obrigatoriedade ou não do DPIA/LIA, de quem deveria elaborar os mesmos, quando e como elaborar, justamente por falta de técnica legislativa e maiores cuidados da LGPD nestes pontos, apesar de suas inúmeras qualidades como marco legislativo imprescindível.

É imprescindível, portanto, que a lei traga a obrigatoriedade, a procedimentalização e os requisitos para a elaboração da AIIA – avaliação de impacto algorítmico -, sendo que este último documento deverá ser elaborado de forma prévia, independente (legitimidade), ou seja, por uma equipe interdisciplinar, multicultural e independente, assim contribuindo para a diversidade epistêmica, democratização e inclusão (abordagem “co-approach”), em casos de risco alto envolvendo aplicações de IA e em casos de estar presentes determinadas vulnerabilidades específicas.

Diversos processos de revisão e elaboração das “AIA” são controlados e determinados pelos que tomam as decisões em tal processo algorítmico, com menos ênfase na consulta de perspectivas externas, incluindo as experiências dos mais afetados pelo desenvolvimento algorítmico, podendo gerar documentos de avaliação enviesados e parciais. Por conseguinte, é essencial que a equipe responsável pela produção e revisão de tais instrumentos de “compliance” possua as seguintes características, para se falar em legitimidade e diversidade epistêmica: transdisciplinaridade, multiculturalismo, holismo, expertise, conhecimento de Teoria dos Direitos Fundamentais, em especial da proporcionalidade e ponderação, além de independência e autonomia.

Ainda se haverá de prever e trazer incentivos fiscais, medidas premiais e/ou por meio de doações a pequenas empresas/startups para realização de “compliance”, e revisão humana de decisões automatizadas – em casos de alto risco e moderado de aplicações de IA, possibilidades de certificações[3], devendo haver políticas públicas neste sentido, bem como incentivadoras do treinamento das pessoas cujos empregos estarão na berlinda (em especial, tarefas repetitivas, facilmente automatizadas), requalificadas para “novas funções”, pois isto demanda tempo e dinheiro. Além disso, também há necessidade de incentivos em educação de qualidade, alfabetização digital, cidadania e conscientização da sociedade civil, acerca dos benefícios e riscos da IA, em especial incentivos nas áreas de humanidades e pensamento crítico, pois há um desequilíbrio e defasagem neste lado da balança, pois já há muitos incentivos em práticas de automação e ensino voltado a metas, mas não ao pensamento inter/transdisciplinar, na forma de bolsas de estudo para apoio à pesquisa científica desta maneira.

A Comissão Europeia (European Commission) consagra a importância de uma abordagem holística (holistic approach) para enfrentar os desafios colocados pela IA, com destaque para os “legal frameworks on fundamental rights”, ou seja, o estabelecimento de “frameworks” voltados a direitos fundamentais, sendo que apenas com tal respeito é possível se falar em “justiça algorítmica”.  

Em sentido complementar, em 2018 o Relatório enviado à Assembleia Geral da ONU pelo Relator Especial da ONU sobre liberdade de opinião e expressão afirma que “as ferramentas de IA, como todas as tecnologias, devem ser projetadas, desenvolvidas e utilizadas de forma a serem consistentes com as obrigações dos Estados e as responsabilidades dos atores privados sob o direito internacional dos direitos humanos” (Assembleia Geral da ONU, 2018). No mesmo sentido, a Declaração de Toronto (2018), com destaque para o direito à igualdade e à não-discriminação em sistemas de IA e as Diretrizes Éticas desenvolvidas pelo Grupo de Especialistas de Alto Nível da UE sobre IA (AI HLEG), ao postular por uma IA confiável, fundada na proteção dos direitos fundamentais, na esteira da Carta da UE, e na Convenção Europeia sobre Direitos Humanos (CEDH).

Ainda segundo a Declaração de Toronto, deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão; revisão por especialistas independentes; divulgação de limitações conhecidas do sistema – por exemplo, medidas de confiança, cenários de falha conhecidos e limitações de uso apropriadas.

Alguns documentos internacionais trazem a previsão expressa acerca da “AIIA” com foco em direitos fundamentais e humanos (DF/DH ), com destaque para:

  1. Conselho da Europa: prevê uma versão ampla da avaliação de impacto, semelhante à AIDH – Avaliações de Impacto em Direitos Humanos: ‘’Unboxing AI: 10 steps to protect Human Rights’’ (setor público);
  2. Relatório do Relator Especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA e seus impactos sobre as liberdades: prevê a obrigatoriedade de se garantir uma manifestação de ‘’transparência radical’’, permitindo que os sistemas sejam escrutinados e desafiados da concepção à implementação, por meio de um processo de deliberação pública com revisão por organizações ou consultores externos, que sejam afetos, e com expertise em direitos fundamentais e humanos;
  3. “Governing data and artificial intelligence for all – Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service, trazendo a perspectiva de “data justice”, se preocupando com a elaboração de “human rights impact assessments” por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital, como a indígena (“Defining datas’s potencial as a public good”, p. 05, item 1). Aponta ainda para a importância do constitucionalismo digital, por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios.
  4. Centro de Ética e Inovação de Dados do Reino Unido (importância do respeito aos direitos fundamentais);
  5. Diretiva sobre Tomada de Decisão Automatizada do governo canadense (The United Kingdom’s Centre for Data Ethics and Innovation).

Destacam-se, destarte, os relatórios e documentos elaborados por órgãos como a Federal Trade Comission (FTC), a National Telecommunications and Information Administration (NTIA), o Future of Privacy Forum, European Union Agency for Fundamental Rights (FRA), e a Autoridade Holandesa de Proteção de Dados (Autoriteit Persoonsgegevens), todos com foco em “frameworks” de direitos fundamentais.

Destacamos alguns exemplos pontuais, contudo, de tal abordagem denominada de “life centered AI” (mais ampla que apenas “human centered AI”), tais como a iniciativa da Costa Rica (compromisso com a proteção ambiental e implementação de técnicas agrícolas de precisão, incluindo o uso de zangões e imagens de satélite para otimizar o rendimento das colheitas e reduzir o uso de pesticidas) e a da China (implementação de câmeras alimentadas por IA para monitorar e proteger espécies ameaçadas, tais como pandas, leopardos da neve e tigres siberianos).

Há, pois, um grande gap na área de IA pela falta de exigência de trabalho de pesquisa inter/transdisciplinar, e pela ausência nas discussões de pessoal qualificado na área das humanidades, em especial com expertise em ética, filosofia e conhecimento especializado na área jurídica, com relação à temática da IA e de proteção de dados, refletindo tanto em questões como a da falta de diversidade epistêmica, e sub-representação de pessoas que respondam por tais áreas, além de sub-representação nas discussões internacionais de países do Sul Global.

Ademais, há falta de conhecimento especializado e aprofundado acerca de modelos de “compliance”, boas práticas, com fundamento em “frameworks” consolidados em uma perspectiva holística, envolvendo a área das humanidades na relação com a IA e proteção de dados, e em especial falta de conhecimento acerca dos direitos fundamentais, da proporcionalidade e ponderação, integrantes de tal análise. Diante da complexidade técnica acerca do tema IA, bem como acerca dos direitos fundamentais, exige-se conhecimento especializado e experiência em tais temáticas.

Interessante observar que a mesma perspectiva acaba de ser apresentada pelo Governo Federal, pela Secretaria de Governo Digital do Ministério da Gestão e Inovação, ao lançar o Programa de Privacidade e Segurança da Informação (PPSI), mencionando expressamente a criação de um framework de Privacidade e Segurança da Informação, composto por um conjunto de controles, metodologias e ferramentas de apoio, tal como publicado no portal da SGD (https://www.gov.br/governodigital/pt-br/sisp/guia-do-gestor/seguranca_e_privacidade/orgao-que-atuam-com-privacidade-e-seguranca/secretaria-de-governo-digital-sgd).

Por outro lado, a UNESCO faz a recomendação de que precisamos de “international and national policies and regulatory frameworks to ensure that these emerging technologies benefit humanity as a whole. A human-centred AI must be for the greater interest of the people, not the other way around” (https://www.unesco.org/en/artificial-intelligence/recommendation-ethics). Apesar da iniciativa ser necessária e importante, também esbarra em algumas fragilidades, em especial por não ser suficiente a abordagem “human-centred AI”, e por não oferecer “enforcement”, já que estamos falando de princípios éticos apenas.

A questão principal aqui novamente é que diversos documentos como vemos dos exemplos citados referem-se a um único direito fundamental, privacidade, e limitam-se a apontar alguns dos requisitos de uma IA de confiança. Neste sentido, apontamos para a necessidade de uma abordagem não apenas centrada no ser humano (“human centered AI”), mas na “life centered AI”, considerando a multidimensionalidade dos direitos fundamentais e humanos, e o potencial de afronta da IA a todos eles, inclusive àquele ao meio ambiente. Um segundo ponto essencial seria a formulação de novos princípios do “fundamental rights by design”, com foco no contexto sócio-cultural de países do Sul Global e que abranjam uma possível afronta a todos os direitos fundamentais potencialmente afetados.

Trata-se de uma perspectiva inclusiva, holística, democrática e sustentável, pois traz benefícios à sociedade em geral, com uma proteção adequada aos direitos fundamentais, ao País enquanto Estado Democrático de Direito, com redução da inequidade e violência social, também para as empresas, ao permitir a redução do risco do negócio, aumento da eficiência com redução de possíveis sanções e processos judiciais, além de contribuir para o fortalecimento da marca e reputação empresarial, já que estará agindo com base nos princípios da boa-fé, transparência, confiança e comportamento responsável, permitindo assim uma prestação de contas e verificação de eventuais responsabilidades. Haverá também o aumento da competitividade ao atraírem clientes que valorizam o comportamento ético, confiável e responsável.


[1] As ferramentas de “privacy by design” e “privacy by default” estão previstas pelo GDPR na Consideranda 78 e no artigo 25, ao tratar dos princípios relacionados ao processamento de dados desde a sua criação, bem como em seus artigos 24, 25, 32 e 42. Na LGPD, há diversas interpretações conflitantes na doutrina acerca da previsão expressa ou não de ambos os princípios, havendo posições que apontam para tal previsão no art. 46 caput e § 2º, enquanto outras sustentam não haver previsão expressa, mas que ela seria uma decorrência dos princípios do art. 6º da LGPD.

[2] O termo captologia foi cunhado pela primeira vez por B.J. Fogg, quando de seu doutorado, em meados de 1990, sendo fundado um laboratório na Universidade de Stanford/EUA vinculado a tais pesquisas, denominado de “Persuasive Tech Lab”.

[3] Exs: Código de Proteção de Dados das companhias alemãs de seguros, elaborado em conjunto pela Confederação da Indústria de Seguros Alemã e pelas autoridades alemãs responsáveis pela proteção de dados, e pela Central dos Consumidores ; lei alemã de segurança da TI.

Pular para o conteúdo