Por Paola Cantarini
A presente coluna “TropicAI” pretende ser um foro de discussão e diálogo interdisciplinar e multicultural, a fim de contribuir para a abordagem de uma IA inclusiva, democrática, e sustentável (“co-aprouch”). Pretende ainda contribuir para a aproximação entre empresas e academia, e entre academia e o público em geral, proporcionando o necessário debate e diversidade epistêmica, os quais são essenciais para a temática de IA.
A governança de IA para o Brasil vem qualificada de “governança antropofágica” (“TropicAI”), no sentido de autóctone, enraizada no solo tropical do Brasil, levando em consideração sua realidade histórica e características sócio-culturais, ao mesmo tempo que é atualizada com os desenvolvimentos internacionais, em uma abordagem que seja holística e democrática, a qual mais se coaduna com as características da IA em sua origem (cibernética). Isso se dá em uma perspectiva não eurocêntrica, mas multicultural, de modo a alcançar uma justiça algorítmica democrática e inclusiva.
Neste sentido neste primeiro texto iremos trazer o resumo e os principais fundamentos epistemológicos acerca da proposta de “Ia e epistemologias do Sul – proposta de Governança IA para o Sul Global (por uma IA antropófaga). Tal projeto faz parte de pesquisas desenvolvidas no âmbito do projeto de pesquisa de pós-doutorado na USP/IEA/Cátedra Oscar Sala, “Governança de IA e Epistemologias do Sul: por uma IA democrática e inclusiva – “fundamental righs” rights by design (“DFbD”)”.
A proposta tem por objetivo central a elaboração de uma proposta de governança de IA para o Brasil e países do Sul Global, levando em consideração as “Epistemologias do Sul”. Trata-se de uma proposta de governança modular e procedimental, portanto, flexível e alterável diante dos elementos tempo e espaço/contexto, sendo mais apropriada as características da IA e da sociedade contemporânea.
Visa-se com isso a reimaginação da tecnologia (“reimagining technology”), por meio da contribuição com a formulação de um “framework”[1] (“roadmap”) para a análise de riscos a direitos fundamentais e direitos humanos (DF/DH) em aplicações de inteligência artificial (IA), envolvendo a etapa/procedimento da ponderação, como fundamento para o design ético em IA, isto é, “fundamental rights and human by design” (“DFbD”), para se alcançar o conceito de “justiça de design” e também para a elaboração de documentos de “compliance”, em especial, a AIIA – Avaliação de impacto algorítmico.
A recomendação executiva poderá ser utilizada como uma espécie de “sandbox”, tal como prevê a Estratégia de Inteligência Artificial, com destaque para o uso ético dos algoritmos, e para a responsabilidade algorítmica.
A pesquisa parte da analise da Teoria dos Direitos Fundamentais, e da formula matemática da ponderação segundo R. Alexy, bem como a proposta de M. Susi para conflitos “online”, e propõe uma alternativa e uma revisitação dos elementos da formula matemática de ponderação de R. Alexy para contextos de AI (“online” e “off-line”).
A formula da ponderação “revisitada poderá ajudar a garantir maior transparência, explicabilidade, responsabilidade e contestabilidade, garantindo o que se tem denominado de “contestability by design (CbD)”, mais amplo do que a garantia apenas do direito de revisão humana, garantindo a intervenção humana nas diferentes etapas e durante o processo de desenvolvimento do sistema (design participativo).
Da mesma forma, poderá ser englobada como dentro da análise de colisão de direitos fundamentais, quando da elaboração de instrumentos de “compliance” como a ALI, o DPIA e a AII, demonstrando a boa-fé, transparência, prevenção, “compliance” para com a legislação e melhores recomendações práticas por órgãos especializados, aumentando o nível de transparência, segurancça, responsabilização, prestação de contas e confiança, e pois, sustentabilidade. A presente abordagem de “DFbD” poderá, pois, complementar os processos de “due diligence” dos direitos humanos/fundamentais/proteção de dados/IA, fornecendo um caminho estruturado para o desenvolvimento pratico dos requisitos de design – “DFbD”, bem como para a elaboração adequada da AIIA – avaliação de impacto algorítmico com base em DF.
O debate atual sobre governança algorítmica é uma das principais preocupações das empresas no que se refere à IA, envolvendo o estudo de novas métricas de avaliação para modelos de IA, diante da quantidade significativa de bias/vieses que vem ocorrendo, substituindo-se o paradigma vigente, qual seja, observância de requisitos técnicos, com foco em métricas de desempenho, como a acurácia, para uma análise e aplicação que levem em consideração os aspectos sociais e éticos, voltando-se a uma análise com foco em violação de direitos. É uma forma de complementar as propostas que relacionam a adoção de boas práticas e de “accountability” a aspectos técnicos dos mecanismos de design.
DESENVOLVIMENTO
Tal questão torna-se incontornável, como um diferencial competitivo, por agregar valor em termos de confiança e respeito perante terceiros o desenvolvimento das capacidades essenciais para a utilização de ferramentas de governança e “compliance” relacionadas às novas tecnologias digitais, essencial para uma estratégia eficaz e sustentável de negócios, bem como a análise de quais medidas ou ferramentas deverão ser adotadas como salvaguardas necessárias, a fim de se reduzir os riscos de afronta a DF/DH, promovendo a transparência e prestação de contas.
No sentido de se reimaginar a ciência e a tecnologia para fins libertários, comprometidos com os princípios da justiça digital e de design, e recomendável a criação de uma espécie de “rótulo de equidade”, comprovando-se o cumprimento de certos requisitos legais e frameworks no tocante a aplicação de IA, em específico, e o respeito no design e na arquitetura tecnológica dos direitos fundamentais, do “fundamental rights by design”. Fala-se em Estado de Direito desde a concepção (X- by design), por meio do respeito à diversidade e equipes de concepção inclusiva quando de aplicações de IA, equipes de órgãos de revisão e de “compliance”, abrangendo o conceito de “justica de design”.
O conceito de “justiça de design” foi desenvolvido por Sasha Constanza- Chock, professora no MIT, para repensar a dinâmica do design através de múltiplos eixos de opressão, com destaque para a inclusão no sentido de se exigir a participação das comunidades marginalizadas em todas as fases do processo de concepção tecnológica.
Devemos então repensar o “design thinking” e o conceito de “justiça de design”, diante da existência do design discriminatório, reposicionando a dignidade humana e o respeito aos DH/DF como foco central e axial do design envolvendo aplicações de IA, contribuindo para a construção de um imaginário justo, dando maior ênfase à equidade e à justiça digital frente à eficiência, ao bem social frente os imperativos do mercado, sendo essencial para tanto trazer o requisito da transparência no design tecnológico.
O “DF by design” (“DFbD”) visa justamente cobrir tal gap de justiça, explicabilidade, transparência, responsabilidade, e contestabilidade, embutindo no design a ponderação de direitos fundamentais via formula da ponderação revisitada, sendo um instrumento fundamental dentro de medidas de “compliance”.
A proposta de governança de IA específica para o Sul Global tem por fundamento uma IA inclusiva, democrática 2 , no sentido de verificar as especificidades do Sul global em termos de legislação e dinâmica sócio- cultural, envolvendo conceitos como o de colonialismo digital, bem como no sentido de ter maior preocupação com os Direitos Fundamentais no aspecto não apenas individual, mas também social e coletivo, levando em consideração o conceito de ecodesign, uma abordagem holística e um ambientalismo inclusivo.
A proposta de governança de IA para o Brasil parte da consideração acerca da questão central: qual o nível de proteção/regulação da IA para países periféricos, considerados como dentro do conceito de Sul Global (Epistemologias do Sul), postulando-se pela necessidade de uma proteção de nível forte em casos de aplicação de IA (envolvendo riscos inaceitáveis, graves, e moderados), e a possível existência de novas ou já existentes vulnerabilidades, levando-se em consideração o contexto sócio-cultural (local) (C), correspondendo ao elemento espaço (S), e o elemento tempo (T). Estes elementos deverão ser levados em consideração a fim de se evitar o “bias”, em especial o denominado “emergent bias”, que surge com a modificação do contexto de uso da aplicação da IA ou do treinamento de dados, bem como outros possíveis dados e outros direitos fundamentais.
Portanto, a proposta segue a abordagem de risquificação, tal como apresentada nos mais atuais documentos de regulamentação da IA, da lavra da União Europeia, com a separação de requisitos legais e obrigações de “compliance”/seguro/fundo de compensação pelas empresas que lidam com IA, para casos de riscos altos e moderados, e obrigações como certificações/registros e apresentação de documentos mínimos de “compliance”, para casos de baixo risco. Neste sentido, as Disposições de Direito Civil sobre robótica (2015/2103 INL) – Resolução do Parlamento Europeu, de 02.04.17, prevendo para o caso de robôs autônomos mais sofisticados (autonomia/independência) a obrigatoriedade de registro obrigatório dos robôs + regime de seguros obrigatórios (indenizar danos) + criação de fundos de compensação (danos não cobertos pelo seguro). O sistema de registro poderia ser gerido por uma Agência Europeia de Robótica e Inteligência Artificial, se criada.
Entendemos que uma governança de IA sustentável, e de longo prazo, deverá estar comprometida com o conceito de “planet centered AI”, mais amplo do que os de “human-centered AI”, “beneficial AI”, “AI for good” etc., em uma perspectiva para o Sul Global, que seja não antropocêntrica, contribuindo para com a responsabilidade perante ao dano e impacto ambiental, além demais danos coletivos e sociais.
A governança de IA para o Brasil vem qualificada de “governança antropofágica”, no sentido de autóctone, enraizada no solo tropical do Brasil, levando em consideração sua realidade histórica e características sócio- culturais, ao mesmo tempo que é atualizada com os desenvolvimentos internacionais de ponte, em uma abordagem que seja holística e democrática, a qual mais se coaduna com as características da IA em sua origem (cibernética). Isso se dá em uma perspectiva não eurocêntrica, mas multicultural, de modo a alcançar uma justiça algorítmica democrática e inclusiva.
A abordagem é holística no sentido de buscar a interdisciplinaridade – já que na origem da IA, com a cibernética e a cibernética de 2a ordem teríamos teorias transclássicas, as quais seriam mais afetas a uma abordagem holística e não reducionista, típica das ciências modernas.
A preocupação com o impacto ambiental deverá estar presente nas regulamentações e medidas de “compliance”. Não basta apenas se falar em “human-centric” ou “human-centered” AI, é essencial falarmos, como dito, em “planet-centered AI”.
Não mais se justifica, então, o compromisso com os valores e uma justiça antropocêntrica, sendo essenciais para se ter um sistema de IA confiável e seguro, a inclusão, o bem-estar e o crescimento sustentável (OCDE). A causa ambiental é, portanto, de fundamental importância, sendo inseparável da análise dos impactos da IA, tanto por conta da multidimensionalidade dos DF, como pela interdependência dos seres humanos e da natureza, também em razão do aumento da energia, emissões de gás e aquecimento global, em decorrência das novas tecnologias e em razão de um “tsunami de dados” (Guardian Environment Network, Climate Home News, “Tsunami of Data”). (Holes in the Circular Economy).
Podem ser apontados como principais pontos de apoio para a presente perspectiva e proposta o entendimento da Comissão europeia (European Commission) acerca da importância de uma abordagem holística (“holistic approach”) para enfrentar os desafios colocados pela IA, com destaque para os “legal frameworks on fundamental rights”, bem como o Relatório enviado à Assembléia Geral da ONU pelo Relator Especial da ONU de 2018 sobre liberdade de opinião e expressão (Assembléia Geral da ONU, 2018) e a Declaração de Toronto, com destaque para o direito à igualdade e à não- discriminação em sistemas de IA e as Diretrizes Éticas desenvolvidas pelo Grupo de Especialistas de Alto Nível da UE sobre IA (AI HLEG), ao postular por uma IA confiável, fundada na proteção dos direitos fundamentais, na esteira da Carta da UE, e na Convenção Europeia sobre Direitos Humanos (CEDH).[2] Um dos principais marcos teóricos são os princípios de Soberania Māori, com destaque para: o controle, relacionado ao controle sobre os dados Māori e sobre os ecossistemas de dados Māori, a jurisdição, envolvendo o armazenamento físico e virtual dos dados Māori no pais de origem, além do princípio da Ética, dispondo que os tratamentos de dados devem permitir e reforçar a governança de dados pela comunidade Māori e que as decisões sobre o armazenamento dos dados da Māori devem priorizar a sustentabilidade para as gerações futuras. Os princípios CARE relacionam-se com princípios complementares representados nos “Princípios Orientadores FAIR para gerenciamento e administração de dados científicos” (Findable, Accessible, Interoperable, Reusable) e no trabalho anterior da Rede Te Mana Raraunga Maori de Soberania de Dados, da Rede de Soberania de Dados Indígenas dos EUA, da Rede Maiam nayri Wingara Aborígene e do Coletivo de Soberania de Dados das Ilhas do Estreito de Torres e de numerosos Povos Indígenas, nações e comunidades.
Para se falar, pois, em “justiça algorítmica” há que se falar no respeito a todos os DF, não apenas a privacidade, daí o foco ampliar-se para o “fundamental rights by design” (“DFbD”). Entre os maiores problemas apontados para a governança algorítmica destacam-se aqueles relacionados às suas principais características de opacidade e automação (ZARSKY, Tal 2016, Os problemas com decisões algorítmicas) e, assim, com a eficiência e equidade. A concepção de “justiça” dos algoritmos, contudo, requer a coordenação entre recursos técnicos, jurídicos e filosóficos do mais alto calibre (GOODMAN; FLAXMAN, 2017, p.56), devendo ser elaborada numa perspectiva multidisciplinar, holística, evitando-se uma perspectiva antropocêntrica e eurocêntrica, de modo a propiciar ao mesmo tempo a inovação e o avanço tecnológico, com o respeito aos direitos fundamentais e aos direitos humanos envolvidos.
É certo que qualquer modelo emergente de governança da IA deve interagir com as estruturas institucionais existentes de leis e políticas aplicáveis, particularmente os direitos humanos e direitos fundamentais, ou seja, a abordagem baseada nos direitos humanos e fundamentais deve estar no centro do desenvolvimento e uso da inteligência artificial, permitindo um enfoque mais holístico, consistente, universal e executável, levando em consideração as contribuições do Constitucionalismo digital e da nova hermenêutica constitucional no atual estágio, de predominância do chamado pós-positivismo.
A preocupação central da presente proposta é buscar uma proteção adequada de DF/DH em países do Sul Global, em uma abordagem setorial e casuística (contextual) (a exemplo do Brasil, Myanmar, e dos demais países da África e Américas, do Sul e Central, países com histórico colonial e de descumprimento quanto à proteção adequada de direitos humanos e fundamentais, além da proteção de direitos de populações específicas – ciganos, imigrantes, refugiados, consumidores, negros, indígenas, LGBTQ+, hiperendividados, idosos, crianças e adolescentes, portadores de deficiência, pessoas em relações assimétricas, onde se presume o não consentimento), falando-se em vulnerabilidades específicas (VE) e não apenas uma única e constante vulnerabilidade (M. SUSI), bem como diante de contextos sócio- culturais específicos (C), e levando-se em consideração certas aplicações de IA mais problemáticas nestes contextos (reconhecimento facial, policiamento preditivo, e discursos de ódio).
A presente proposta, para atingir seu objetivo maior, visa atualizar a fórmula matemática da ponderação de Alexy em face de contextos de aplicação de IA, sugerindo uma via alternativa à proposta de M. Susi, ao argumentar acerca da não isonomia dos DF no ambiente “online”, levando-se em consideração argumentos como o de Luciano Floridi, ao cunhar o termo “onlife”, já que os ambientes online e offline estão se confundindo e se indeterminando. Corrobora tal assertiva a conclusão alcançada por Juan Mir e Marco Massini, ao criticarem a ponderação conforme proposta de Alexy, por não ser propícia ao mundo “online”, mencionando que “(…) os juízes de Strasbourg não parecem ver o mundo digital ou online como algo completamente diferente ou separado do nosso ambiente material.”
Além da exigência de transparência e da garantia de uma revisão e auditoria independentes, fala-se da utilização de outras ferramentas técnicas para alcançar a explicabilidade. Devido às críticas ao quesito da transparência, por ser limitada, diante da opacidade, da questão das caixas pretas de IA, e por trazer a possibilidade de manipulações com a quebra do segredo comercial, fala-se em ações afirmativas algorítmicas para se evitar afrontas a direitos fundamentais, com base em revisores independentes idôneos (justiça do algoritmo) e na programação prévia já no design dos algoritmos, para assim se possibilitar uma proteção aos direitos fundamentais, além de uma avaliação prévia dos dados utilizados para treinar os algoritmos. Como destaca um estudo da Cornell University, a maior parte das implantações do requisito da transparência, atrelado à exigência de uma IA de confiança, não se destina ao usuário final, mas sim aos engenheiros que a utilizam para repensar o modelo.
Há, pois, um gap entre a explicabilidade na prática e o objetivo da transparência.
Apesar da existência de ferramentas técnicas, que tentam oferecer uma explicabilidade nos casos dos “black box”, como os métodos iML mais populares em uso atualmente, denominados de aproximadores lineares locais, como LIME (Ribeiro et al. 2016) e SHAP (Lundberg e Lee 2017), são insuficientes, tendo em vista principalmente o usuário final. Além disso, não explicariam o porquê daquela tomada da decisão. O primeiro sistema se limita a uma explicação das previsões por amostragem aleatória em torno do ponto de interesse. As observações são ponderadas por sua distância do ponto de interesse e um modelo linear regularizado é ajustado por mínimos quadrados ponderados. O segundo modelo possui como foco fundamental a teoria do jogo cooperativo, usando dados de treinamento para calcular eficientemente aproximações pontuais do valor Shapley de cada característica de entrada. Como aponta FLORIDI, “O resultado final em ambos os casos é um conjunto (possivelmente esparso) de coeficientes indicando a associação positiva ou negativa entre as características de entrada e a resposta, pelo menos perto de xi e condicional aos covariáveis”.
Há, pois, uma crescente demanda por soluções personalizadas e contextuais (Páez 2019), ou seja, deverá ser levado em consideração o contexto em questão e as especificidades sócio-culturais, e/ou a existência de situações de vulnerabilidade, e de instrumentos que auxiliem na transparência e prestação de contas, e neste sentido a ponderação e a fórmula matemática alexyana poderiam auxiliar na análise de colisões de direitos fundamentais quando de aplicações de IA, aumentando o nível de transparência, responsabilidade, segurança, confiança e prestação de contas.
A ponderação alcança a racionalidade se realizada com a devida atribuição dos graus às variáveis da fórmula peso e suportada por razões segundo a teoria da argumentação racional. Não substitui e nem pretende substituir a argumentação racional, apenas representar a esta de forma mais transparente para poder por meio da formula matemática ser aplicada em design e instrumentos de “compliance” na parte de análise de risco a DF.
Em sentido complementar é o que dispõe o documento “Ethics by design” da Comissão Europeia, apontando que “Os direitos de personalidade, a confidencialidade ou as reivindicações de segredos comerciais não podem impedir a transparência desde que possam ser preservados adequadamente, por exemplo, por meio de transparência seletiva (por exemplo, confidencialmente a terceiros confiáveis), tecnologia ou compromissos de confidencialidade. A transparência é essencial para realizar outros princípios: respeito pela agência humana, privacidade e governança de dados, responsabilidade e supervisão. Sem transparência (informações significativas o propósito, entradas e operações dos programas de IA), os resultados da IA não podem ser compreendidos, muito menos contestados. Isto tornaria impossível corrigir erros e consequências antiéticas”.
O futuro mais inclusivo é o de uma sociedade consolidada em um Estado Democrático de Direito, o qual pressupõe a preocupação com o respeito a interesses e direitos fundamentais individuais, coletivos e sociais, demandando uma mudança de paradigma, portanto, também na área da IA, reconhecendo a interdependência de todos os seres vivos com a Terra. Há diversos conceitos e concepções de justiça e de dignidade humana, não havendo que se falar em uma universalização de suas definições e premissas com base em um convencionalismo de cima e ocidental.
Verifica-se que um sistema de governança que traga a preocupação de uma abordagem a longo prazo terá que trazer considerações acerca da sustentabilidade ambiental e diversidade, trazendo o foco em uma governança de dados vocacionada para a justiça social, justiça algorítmica e de design. Para ser inclusiva e democrática a governança de IA deverá estar atenta à participação de grupos vulneráveis, bem como repensar os modelos dominantes propostos, no sentido de não refletirem e patrocinarem alternativas acerca de questões estruturais subjacentes em uma colonização digital e monocultural.
Fala-se na nova fase da IA – nova Revolução Industrial (27.01.2017 recomendação à Comissão sobre disposições de Direito Civil sobre robótica – relatório) -, com os “modelos de fundação” – “Foundation models” -, que estão acelerando o progresso da IA, com habilidades antes não previstas. Se anteriormente já seria possível questionar a falta de autonomia dos sistemas de IA, a exemplo do caso ocorrido em 2017 no Facebook, com o programa desenvolvido pelo seu AI Research Lab (Laboratório de Pesquisa de Inteligência Artificial), já que as inteligências artificiais denominadas de Bob e Alice criaram uma própria linguagem, somente compreendida pelas próprias IAs, decidindo por conta própria como trabalhar com as tarefas que lhes haviam sido indicadas, agora tal característica parece encontrar bem mais fundamentos. Embora ainda não se afirme que tais modelos possam se tornar sencientes, também são apontadas preocupações cada vez mais frequentes com a possibilidade destes novos modelos traçarem seu próprio curso, ou quando, por exemplo, a própria IA tiver a capacidade de construir outras IAs melhores (“The economist”, AI’s new Frontier”, junho de 2022) ou com o aumento dos casos de “bias”.
Há, pois, impactos significativos das aplicações de IA sobre praticamente todos os direitos fundamentais (“Human rights in national AI strategies Source”: Bradley et al., 2020), com destaque para privacidade, equidade e não discriminação, liberdade de pensamento, expressão e acesso a informação, direito ao trabalho, direito a um efetivo remédio judicial, indo muito além, pois, de apenas questões relacionadas com “bias” ou discriminação.
Vivemos na sociedade da informação, sociedade de dados e sociedade
5.0 (Japão), atrelada aos conceitos de pós-humanismo e de transumanismo, falando-se ainda em “virada do não humano”, um conceito macroscópico segundo Grusin, trazendo repercussões sociais de alta magnitude (Grusin, 2015, Conferência realizada em 2012, “A Virada do Não Humano nos Estudos do Século XXI”, Center for 21st Century Studies, Universidade de Wisconsin- Milwaukee), com foco no descentramento do humano da biosfera, para se tornar verdadeira força geológica, a provocar a chamada era do antropoceno.
Surgem ao mesmo tempo, portanto, novos desafios e oportunidades com as novas tecnologias na interface com as humanidades, em especial com a utilização da inteligência artificial (IA), sendo certo que as diretrizes éticas devem ir de mãos dadas com as questões legais e sociais/técnicas, no âmbito de uma governança (modular/procedimental) de algoritmos, em uma abordagem holística e interseccional (Angela Davis).
Neste sentido a presente pesquisa pretende trazer um “roadmap” para a implementação da “justiça do design” e “contestability by design”, representados por meio do “fundamental rights by design” (“DFbD”), a fim de ser uma ferramenta para se pensar o design alinhado ao contexto (“context- dependent design”) por meio de um processo estruturado, inclusivo e transparente, contribuindo para a segurança, bem como responsabilidade, explicabilidade e contestabilidade.
Ao contrario do “value-sensitive design/”participatory design””, a presente proposta de “DFbD”, contudo, nao se reporta a valores, mas a direitos fundamentais, sendo estes relativos e em mesmo nível hierárquico, demandando uma analise do caso concreto, via ponderação (ou seja, o contexto). Portanto, não tem sentido a metodologia do “value sensitive design”, pois não estamos tratando de valores morais, e não estamos tratando de valores não isonômicos e hierarquizados. A proposta do “DFbD” lida com direitos fundamentais, os quais, em abstrato, possuem igual hierarquia.
Outro ponto de diferença, entre o “DFbD” e o “design para valores”, e que os “valores de segunda ordem no roteiro de design” são apenas 4 (não- discriminação, privacidade, transparência e segurança), e a proposta de “fundamental rights by design” pretende alcançar quaisquer direitos fundamentais[3] que possam ser afetados por aplicações de IA.
Ha, contudo, um importante ponto de contato, entre ambas as propostas, já que o “design para valores” e o “design participativo” (“participatory design”) requerem o envolvimento crucial das partes interessadas da sociedade, em rodadas de investigações conceituais, empíricas e técnicas, a fim de se obter uma compreensão mais matizada e ampla, ou seja, há os requisitos da co-participação (“co-aprouch”) e da inclusão. Ambos visam o estabelecimento de controles e equilíbrios em diferentes níveis/escalas (“risk based aprouch”).[4]
[1] Há diversas abordagens variadas em teoria para AIAs mas apenas um modelo atual de AIA existe na prática, autorizado pela Diretiva do Secretariado do Tesouro do Canadá sobre Tomada de Decisão Automatizada (https://www.tbs- sct.gc.ca/pol/doc-eng. aspx?id=32592). Para implementar os princípios éticos da IA, as empresas tomaram medidas, incluindo: a realização de avaliações do impacto dos direitos humanos sobre as tecnologias emergentes, medidas para impulsionar a colaboração e o diálogo através da indústria e de plataformas multi-stakeholder, criação de estruturas de governança, tais como comitês de revisão interna. *A Intel e a Microsoft estão entre as empresas que realizaram avaliações do impacto dos direitos humanos sobre as tecnologias emergentes. Para a revisão de riscos a Microsoft criou a estrutura de governança interna para identificar e rever os riscos, conhecida como a Comissão AETHER.
[2] Outras fontes que foram consultadas: Conselho da Europa: prevê uma versão ampla da avaliação de impacto, semelhante à AIDH – Avaliações de Impacto em Direitos Humanos: ‘’Unboxing AI: 10 steps to protect Human Rights’’ (setor público); Relatório do Relator Especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA e seus impactos sobre as liberdades; prevê a obrigatoriedade de se garantir uma manifestação de ‘’transparência radical’’, permitindo que os sistemas sejam escrutinados e desafiados da concepção à implementação, por meio de um processo de deliberação pública com revisão por organizações ou consultores externos, afetados, e com expertise em direitos fundamentais e humanos;“Governing data and artificial intelligence for all – Models for sustainable and just data governance” do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service, trazendo a perspectiva de “data justice”, se preocupando com a elaboração de “human rights impact assessments” por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital como a indígena (“Defining datas’s potencial as a public good”, p. 05, item 1). Aponta ainda para a importância do constitucionalismo digital por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios.
[3] Table 1. Highlighted provisions from the Dignity, Freedom, Equality, and Solidarity Titles of the EU Charter (Official Journal of the European Union, 2012). Dignity (Title I)
Freedom (Title II) Equality (Title III) Solidarity (Title IV)
[4] Design for Values (Azenkot et al., 2011; Czeskis et al., 2010; Friedman et al., 2006; Woelfer et al., 2011). As concluded in a recent Council of Europe report on dis- crimination and AI (Zuiderveen Borgesius, 2018: 39), there is a need for “sector- specific rules, because differ- ent values are at stake, and different problems arise, in different sectors.” In the long term, applying the human rights-based design roadmap as a basic building block in different contexts can gradually assemble the complex mosaic of AI that functions in synergy with fundamental human rights.
(Article 1, Human dignity): Human dignity is inviolable. It must be respected and protected. (Article 2, Right to life): Everyone has the right to life.
(Article 6, Right to liberty and security): Everyone has the right to liberty and security of person. (Article 8, Protection of personal data):
Everyone has the right to the protection of personal data
concerning him or her. Such data must be processed fairly for specified purposes and on the basis of the consent of the person concerned or some other legitimate basis laid down by law. Everyone has the right of access to data which has been collected concerning him or her, and the right to have it rectified.
(Article 11, Freedom of expression and information): Everyone has the right to freedom of expression. This right shall include freedom to hold opinions and to receive and impart information and ideas without interference by public authority and regardless of frontiers.
(Article 21, Non-discrimination): Any discrimination based on any ground such as sex, race, color, ethnic or social origin, genetic features, language, religion or belief, political or any other opinion, membership of a national minority, property, birth, disability, age, or sexual orientation shall be prohibited.
(Article 34, Social security and social assistance): The Union recognizes and respects the entitlement to social security benefits and social services providing protection in cases such as maternity, illness, industrial accidents, dependency or old age, and in the case of loss of employment, in accordance with the rules laid down by Union law and national laws and practices. . .
In order to combat social exclusion and poverty, the Union recognizes and respects the right to social and housing assistance so as to ensure a decent existence for all those who lack sufficient resources, in accordance with the rules laid down by Union law and national laws and practices.