Porquê do “compliance” e da governança em IA?
Paola Cantarini
Trata-de de pensarmos em uma proposta de inteligência artificial antropófaga, ou tropicalista, no sentido do desenvolvimento de uma IA inclusiva, democrática, multicultural, multidimensional e com foco nas Epistemologias do Sul, pós-eurocêntrica, com base em nossas caraterísticas sócio-culturais, embasada, pois, em um pensamento próprio, autóctone, como apontam autores como Mangabeira Unger e Marcelo Neves, ao mencionar a importância de não copiarmos modelos do Norte Global e de pensar o global a partir do local.
Mais do que focar, pois, em “o que”, em uma abordagem conceitual e analítica, focamos no porquê, e no como. Daí a pergunta, porque do compliance e da governança em IA? Porque são caminhos seguros para podermos falar em IA responsável, transparente e confiável e mais, sustentável, trazendo uma proteção adequada a direitos, pois pensada de forma prévia ou seja, antes que o dano a tais direitos ocorra. Embora não se tenha como uniforme o conceito de IA, assim como o de governança, há um certo consenso de quando começa a historia da IA, com Alan Turing em seu famoso artigo de 1950, sendo apontado também como marco reconhecido como início da IA o evento de verão de 1956 com 2 grandes intelectuais e especialistas, John MacCathy e Marvin Minsky.
Para alguns, a IA não seria nem artificial nem inteligente, para outros esta seria uma visão antropocêntrica, mas a maioria dos estudiosos concordam que se trata de modelos empíricos, modelos de probabilidades e que é uma tecnologia de propósito geral, como o carvão que inicia a Revolução Industrial, falando-se agora na era do silício e em nova Revolução Industrial, sendo a IA responsável pela reconfiguração da lógica de funcionamento da economia e da sociedade.
O futuro é agora. Passamos da era neolítica para a revolução biolítica como aponta Rervé Kempf – referindo-se ao controle pelos humanos não apenas da natureza, mas dos seres humanos – o que já é o presente: órgãos cultivados, músculos dopados, envelhecimento retardado, fetos incubados, embriões clonados, ou seja, a artificialização do corpo está em constante expansão. Por outro lado, as máquinas já são capazes de reconhecer emoções, de decifrar gestos, de se mover livremente, de mudar de forma e até de se reproduzir autonomamente. Finalmente, à medida que os transplantes de órgãos animais e a engenharia genética misturam espécies, surgem híbridos entre a máquina e o biológico. Como Deleuze e Guattari falam: “phylum maquínico”.
Entramos na biolítica, do grego “bios” (vida), e “lithos”(mineral), era do silício, quando não mais nos focamos no domínio da natureza, mas do nosso próprio corpo e organismos vivos em geral, de forma a não querer mais apenas transformar o mundo mas o nosso próprio ser. As ferramentas em prol de tal perspectiva são várias: engenharia genética, clonagem, biocomputação, biodiversidade artificial (criação de novas espécies).
Por outro lado, sempre quando falamos no estudo e em uma compreensão mais aprofundada acerca da IA, destacamos uma espécie de moldura teórica necessária – com base no pensamento holístico que se contrapõe ao pensamento dualista, reducionista, a exemplo do pensamento cartesiano, e com foco na interdisciplinaridade, na zetética e na crítica, próprios da Filosofia (de uma parte desta pelo menos); seria uma terceira via opondo-se ao otimismo utópico, e à negatividade distópica, ambos atuando em excesso; por isso a importância do balanceamento dos riscos e benefícios da IA, ao invés de serem tidos como um “tradeoff” necessário entre regulação da IA com previsão de proteção de direitos e obstáculos à inovação e/ou competitividade internacional (ou isso ou aquilo – pensamento dualista, limitador, um jogo de soma zero). Corroborando tal entendimento Ronaldo Lemos menciona que a promulgação do Marco Civil da Internet (MCI) foi uma medida em prol da inovação (https://www.napratica.org.br/ha-uma-cultura-de-inovacao-entre-nos-que-fica-reprimida/). A inovação é então retratada não como um fim em si mesmo, mas juntando-se à ética (“metainnovation” – Luciano Floridi) e à responsabilidade pela inovação (Wolfgang Hoffman Rien).
Outro importante componente da moldura teórica é a importância da Teoria dos Direitos Fundamentais ao observarmos que a proteção de dados (autodeterminação informativa) é reconhecida como um direito fundamental, sendo os dados a matéria prima do big data, além da previsão da proporcionalidade e de alguns direitos fundamentais na LGPD – Lei Geral de Proteção de Dados, e em recentes documentos e decisões internacionais apontarem para o potencial de afronta a diversos direitos fundamentais com as aplicações de IA.
Apostamos, pois no modelo com foco em direitos fundamentais e não em direitos humanos, ao considerar as críticas, crise, morte aos direitos humanos, diante das suas limitações e ineficácia, bem como por ser uma construção ocidental, não considerando outras perspectivas e valores não ocidentais, como conceitos diversos do que se entende por justiça e dignidade. Portanto, tal sistema é fundamentado em princípios ocidentais, e, portanto, não poderiam ser considerados verdadeiramente universais (Rolando Gaete, “Human rights and the limitis of critical reason” Aldershot: Dartmouth, 1993; Michel Villey, “Le Droit et les droits del’homme” (Paris: P.U.F., 1983; “O direito e os direitos humanos”, São Paulo: Martins Fontes, 2007). Fala-se na demagogia dos direitos humanos e dos limites da capacidade emancipadora da razão. Há a imposição de valores, visões e perspectivas culturais ocidentais em contextos não ocidentais, reconhecendo o pensamento científico como somente aquele atrelado a uma forma específica de produção, descaracterizando outras alternativas como outras perspectivas acerca de dignidade humana e justiça, bem apontado por M. Foucault, ao abordar o binômio poder-saber, em uma retroalimentação nada saudável. Basta olharmos a volta e ver os inúmeros exemplos de sofrimento humano que não são considerados violações de direitos humanos, crescimento de número de países não democráticos, falando-se em generalização de “estados de exceção” (Walter Benjamin, G. Agamben), maior concentração de renda, maior pobreza e fome, um hiato cada vez maior entre países pobres e ricos, entre o Norte e o Sul, uso de tortura, suspensão de liberdades civis, e poucos casos de efetividade prática após uma violação de tais direitos ser denunciada no sistema internacional.
Há que se falar também na seletividade, e parcialidade, pois as intervenções e a aplicação de direitos humanos são frequentemente seletivas e influenciadas por considerações políticas e econômicas, falando-se em politização dos direitos humanos na política internacional (Noam Chomsky, Richard Falk e Edward Said), além da falta de implementação eficaz ou efetividade na prática (Philip Alston, Samantha Besson e Olivier de Schutter); há ineficácia em conflitos armados, onde se tem diversas violações de direitos humanos e ataques a civis, havendo a instrumentalização dos direitos humanos para justificar intervenções militares (Jean Bricmont, Amnesty International e Human Rights Watch), além das limitações quanto à eficácia em fazer cumprir as normas de direitos humanos pelo Sistema Jurídico Internacional, especialmente quando se trata de países poderosos (Richard Posner e Eric Posner).
Há uma reprodução, pois, do imaginário social dominante como pano de fundo ocidental e patriarcal (Catharine MacKinnon, Bell Hooks, Radhika Coomaraswamy e Judith Butler), sendo que muitas das violações dos direitos humanos têm raízes no colonialismo (perspectivas pós-coloniais – Gayatri Chakravorty Spivak, Edward Said e Homi K. Bhabha) e problemáticas não resolvidas como a da desigualdade econômica (Thomas Piketty, Amartya Sen e Naomi Klein), comprometendo a capacidade dos sistemas de direitos humanos de abordar essas questões de maneira eficaz (Frantz Fanon, Achille Mbembe e Walter Rodney).
Outros pontos a serem destacados é a não proteção adequada a refugiados e apátridas, além do sistema estar inadequado para lidar com os novos desafios tecnológicos, a exemplo da cibervigilância global, como no caso da controvérsia do programa de vigilância PRISM da NSA (Shoshana Zuboff e Evgeny Morozov), demonstrando-se as limitações do humanitarismo internacional (David Kennedy), falando-se no fim ou morte dos direitos humanos (Costas Douzinas) e na enorme lacuna entre teoria e prática.
Há, pois, uma verdadeira crise ou falência dos sistemas de proteção de direitos humanos, limitados e limitantes, ainda circunscritos à ideia de cidadania, e excluindo de seu sistema os apátridas, como já apontava Hannah Arendt, com sua famosa definição de cidadania como o “direito a ter direitos”. Hannah Arendt, ao criticar o sistema de direitos humanos, tratando dos apátridas como “displaced persons”, afirma que estes somente seriam reconhecidos como sujeitos de direitos ao cometerem algum crime, contestando a lógica autoritária e discriminatória das Declarações de Direitos Humanos, vinculada ao conceito de cidadania, ao invés de se vincular ao conceito de humanidade.
Em 2016, a Corte de Justiça da União Europeia decidiu dois importantes e polêmicos casos (C-203/15 e C-698/15), envolvendo o armazenamento indiscriminado de dados relativos à localização de tráfego de dados em comunicações eletrônicas, com relação a cidadãos da Irlanda, Noruega e Reino Unido, falando-se em risco de vigilância excessiva e indiscriminada, incompatível com os direitos fundamentais e com os princípios da proporcionalidade e razoabilidade, ocorrendo afronta a estes e aos valores inscritos em uma sociedade democrática.
Wolfgang Hoffmann-Riem destaca a importância dos direitos humanos e fundamentais, bem como da proporcionalidade e da ponderação na área do big data e da proteção de dados (Wolfgang Hoffmann-Riem, Journal of Institutional Studies 2 (2020) Revista Estudos Institucionais, v. 6, n. 2, p. 431-506, maio/ago. 2020, Big data e inteligência artificial: desafios para o Direito, p. 56 e ss.), o que é corroborado por Laura Mendes (Wolfgang Hoffmann-Riem, “Teoria Geral do Direito Digital”, p. 62, Forense. Edição do Kindle. Laura Mendes, apresentação do livro de Wolfgang Hoffmann-Riem, “Teoria Geral do Direito Digital”, p. 10 e ss.).
Em sentido complementar Claudia Quelle (C. Quelle. “Does the risk-based approach to data protection conflict with the protection of fundamental rights on a conceptual level?” Tilburg Law School Research Paper, 1-36, 2015), ao mencionar que as metodologias relacionadas à regulação do risco deverão ser influenciadas pela teoria do balanceamento de direitos fundamentais, analisando-se as violações de direitos fundamentais em casos concretos.
Trata-se, pois de um caminho do meio (“metron”), com fulcro na “phrônesis” dos gregos, significando ao mesmo tempo, prudência e sabedoria prática. Holismo porque na origem da IA temos uma disciplina transclássica, a cibernética, ao lado da teoria dos sistemas e da semiótica, e o holismo seria mais adequado para se pensar em cenários complexos, já que em sistemas complexos a linearidade não é adequada, e neste sentido uma vez que vivemos na pós modernidade, com velocidade exponencial (dromologia – Paul Virilio) há problemas inéditos para os quais não há respostas prontas e com ar de definitividade, precisamos de um novo “mindset”.
A resposta vai se aperfeiçoando no caminhar, é um “work in progress”.
Outro aspecto é a interdisciplinaridade, o respeito e valorização de vários olhares e experiências – ou seja, a diversidade epistêmica. Neste sentido a UNESCO em sua “Recomendação sobre ética em IA” aponta para a importância da diversidade cultural, de vozes, valores e perspectivas (“co-approuch”).
Devemos, pois, analisar as externalidades negativas e positivas da IA, como aponta a UNESCO, mencionando seu potencial transformador para afrontar desafios globais, mas ao mesmo tempo, trazendo o risco de incremento das desigualdades e afronta a direitos humanos, destacando a necessidade de participação inclusiva e diversa, com inclusão de grupos vulneráveis, como os indígenas, trazendo uma visão holística e sustentável. Este é um ponto de fragilidade que encontramos em algumas propostas e documentos, como o “guideline” (ético) para IA da Comissão Europeia, pois de 52 especialistas envolvidos 23 eram representantes de grandes empresas, apenas 4 possuíam conhecimentos em ética, e nenhum em proteção de dados, faltando pois o requisito da representatividade adequada (subrepresentação), com fragilidades em termos de inclusão, e, pois, perspectiva democrática.
Será que precisamos de mais razão e menos emoção? Pois quando se aponta para uma das justificativas para o uso da IA, é citado o mantra da neutralidade e objetividade da IA, afirmando-se que o “bias” é próprio do ser humano, o qual produziria decisões subjetivas, teratológicas, com base em sua própria ideologia, valores individuais e preconceitos. Contudo a IA se baseia em dados que estão na sociedade, e são produzidas por equipes técnicas homogêneas como aponta o Instituto Alan Turing – o que dará ensejo a vieses. Corrobora tal alegação o caso do COMPAS, Correctional Offender Management Profiling For Alternative Sanctions’, sistema utilizado nos EUA para se calcular o risco de reincidência dos condenados, portanto, na área judicial e criminal, sofrendo diversas críticas por pesquisadores (Pro pública – https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm), e pelo Poder Judiciário do Estado de Wisconsin, lembrando-se ainda, por outro lado do conceito de sentença, ligado ao sentir e ao sentimento.
É importante termos ciência, pois de quais são as externalidades negativas, para podermos falar em balanceamento entre estas e as externalidades positivas. As externalidades negativas da IA geralmente são citadas como limitadas ao “bias”, discriminação, privacidade, contudo, alguns documentos e pesquisas mais recentes apontam para o potencial de afronta a todos os direitos fundamentais (Fra Agency, European Union Agency for fundamental rights, 2020, “Getting the future right – AI and fundamental rights”, BRADLEY, Charles, WINGFIELD, Richard. “National Artificial Intelligence Strategies and human Rights: A Review”, Global Digital Policy Incubator at the Stanford Cyber Policy Center, 2020. Os conceitos do “privacy by design”, “privacy by default” criados por Ann Cavoukian são então ampliados para os “direitos fundamentais by design”, falando-se em Estado Democrático de Direito desde a concepção; os vieses, por sua vez, possuem conexão com o conceito trabalhado por Ângela Davis de interseccionalidade, já que alcançam raça, gênero e classe, como apontam Virginia Eubanks, Safiya Umoja Noble e Cathy O’Neil.
Como apontam algumas pesquisas as inequalidades e potencial de afronta a direitos humanos e fundamentais no âmbito da IA é ainda uma questão mais problemática em países do Sul Global, havendo um maior impacto em locais onde há uma negação sistemática de direitos a comunidades com histórico de opressão (Safiya Umoja Noble, em “Algorithms of Oppression: How Search Engines Reinforce Racism”, NYU Press, 2018). O documento Getting the future right aponta para a perspectiva de “data justice”, a elaboração de “human rights impact assessments e apontando para a necessidade de modelos alternativos de governança e do constitucionalismo digital (garantindo-se a diversidade e a inclusão).
Há um crescimento dos acidentes com IA ano a ano, e houve um incremento dos riscos com a IA generativa como aponta a OCDE – Organização para a Cooperação e Desenvolvimento Econômico, afirmando haver uma maior imprevisibilidade quanto ao outcome, incapacidade de controle, dificuldade de definição de potenciais danos e responsabilidades, dano ambiental, substituição de trabalho, fake News, alucinações, etc (https://www.oecd-ilibrary.org/science-and-technology/ai-language-models_13d38f92-en), entre outras questões envolvendo grupos vulneráveis específicos. Os riscos podem ser mais amplamente visualizados na seguinte relação, também divulgada no documento da lavra da OCED (Weidinger, L. et al. (2021), Ethical and social risks of harm from Language Models, https://arxiv.org/abs/2112.04359).
Precisamos de uma revolução de pensamento, de uma mudança de “mindset” também na área das humanidades, precisamos quantizar as ciências sociais, e de uma ética quântica (procedimental/contextual) assim como apontam James der Derian e Alexander Wendt (2023) na área das relações internacionais.
Daí a perspectiva da “poiesis” e do “homo poietico”, para repensarmos as bases epistemológicas para a construção do conhecimento, fugindo-se do binômio aprisionador sujeito-objeto, e a favor do múltiplo e do acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, e de modo a reequilibrar a relação humano-técnica-natureza. Uma leitura e compreensão poéticas, não dialéticas, que levem em conta o não dito, o resto, a heterotopia, questionando dogmas como o da neutralidade e objetividade, que eram dogmas das próprias ciências e já abandonados, assim como a ilusão da separação entre sujeito e objeto do conhecimento, também já abandonado (“Filosofia da IA com base nos valores construcionistas do homo poietico”, Paola Cantarini, Lumen Juris Direito).
A ética quântica se contrapõe à ética utilitarista com base na eficiência e na maximização da riqueza, em uma análise econômica do Direito (Law and economics), com base em Jeremy Bentham e Richard Posner, trazendo princípios modernos individualistas, pressuposto das teorias jurídico-econômicas da ESCOLA DE CHICAGO. O exemplo do Ford Pinto demonstra porque agir com base em uma ética utilitária e pensando a curto prazo e em termos de valores econômicos apenas não é uma prática sustentável (Fonte K. Gibson – Business Ethics, 2006); o veículo foi construído com o tanque de combustível perto do eixo traseiro e acidentes quando o veículo batia a mais de 50k de velocidade causava a morte de pessoas por queimaduras, mas a empresa preferiu arcar com alguns processos de indenizações pela morte de alguns do que fazer o recall do veículo, e tinha ciência disso, como comprova a Revista Mother Jones ao trazer um memorando interno; no final a empresa enfrentou diversos processos judiciais e abalo na reputação.
Precisamos de um ponto de inflexão e de um novo paradigma das humanidades, assim como apontou Thomas Kuhn em “A estrutura das revoluções científicas”, na esteira do novo paradigma da física quântica de Max Planck, Niels Bohr e Heisenberg e apostamos como possível alternativa a perspectiva da techno-poética como “ars vivendi”, com base na “poiesis” (criação/imaginação/sonho) ao contrário da “mimesis” (reprodução) e produção (técnica).
É o que aponta em sentido semelhante Luciano Floridi trazendo a perspectiva do “homo poieticus” envolvendo a ética denominada como “ecopoiesis”, construcionista, uma ética orientada a uma perspectiva inclusiva, a um ambientalismo inclusivo, através de uma nova aliança entre o natural e o artificial. Ampara-se em uma perspectiva proativa ao invés de reativa, ou seja, deve-se evitar a ocorrência de um dano, sendo uma ética voltada à ação, portanto. Opõe-se à limitação das éticas da virtude, apesar de seu ponto positivo de moldar a si próprio, construir sua vida como obra de arte, mas ainda em um sentido limitador, pois, é uma egopoiética, pouco refletindo em termos de uma sociopoiética. A sociopoiética abrangeria a preocupação e responsabilização em termos ambientais, isto é, uma concepção de ser humano não como explorador da natureza, através de uma nova aliança entre a natureza e a técnica. Já Bruno Latour fala em “sympoietic” no sentido de ética relacional, e de se reconhecer a interdependência entre todos os seres vivos (agentes). Cabe, pois, pensar a tecnologia no sentido de tecnodiversidade, como aponta Yuk Hui, trazendo um potencial de empoderar o ser humano, ao invés de termos pessimistas e paralisantes de Heidegger.
Dai juntaríamos o azul da técnica ao verde da natureza (L. Floridi) e acrescentamos o vermelho da “poiesis”, da proatividade, da ação preventiva e da imaginação e “páthos” (paixão). Por isso a importância dos sonhos, pois ligados à imaginação, à “poiesis”, com destaque para o papel das artes e sua função onírica. É o que aponta Primo Levi em “É isto um homem” ao mencionar que a maioria dos prisioneiros de Auschwitz tinha um mesmo sonho: depois de sobreviver ao campo de concentração, estão em casa, contando suas experiências terríveis para amigos e familiares, quando notam que estes estão indiferentes e entediados, ou seja, que não são ouvidos.
Será mesmo que não precisamos criar a roda ou melhorar a roda? Sabemos que apenas 2.5% das pessoas possuem mentalidade inovadora (Simon Sinek), e que a maioria das pessoas não quer desafiar o “status quo” (optando pela segurança no lugar da liberdade), mas temos que refletir melhor que futuro queremos para o Brasil. Ser apenas consumidor de tecnologia, e capaz de inovação incremental, ao invés de apostarmos no pensamento inovador, e em inovações radicais (disruptivas), ser apenas um país periférico e copiar modelos existentes?
Enfatizamos a necessidade da reflexão em torno do presente, de como resolver problemas atuais da IA, ao invés de nos distrairmos com um futuro distópico, a exemplo da singularidade postulada por Ray Kurzweil com perigos que talvez não se realizem, como por exemplo a provocação de que talvez estaríamos perto do crime perfeito, a morte da morte como apontou Jean Baudrillhard; um pensamento voltado à problematizações (Foucault – “Teatro filosófico”), modo próprio de refletir de uma filosofia do acontecimento.
Apostamos, pois na necessidade de uma nova aliança entre humano, natureza, tecnologia, com base em autores como Bruno Latour, Luciano Floridi, Mark Coeckbergh e Yuk Hui, nesta época onde se fala em humanos artificiais e máquinas espirituais ou em híbridos.
A reflexão pois, se preocupa mais com o questionar e com as perguntas corretas, em termos de uma zetética, nos liberando da busca pela verdade e respostas definitivas, já que a própria filosofia já se desvinculou de tal necessidade (verdade), como fim último, mesmo porque esta se daria sempre de forma relativa, além do seu caráter de aporia, próprio da filosofia; da mesma forma como a matemática e as ciências já mudaram de “mindset” e passaram a aceitar as contradições, as antinomias, próprias de um discurso auto-referencial, como expôs George Spencer-Brown.
Mas, será que precisamos de regulação da IA, a lei seria suficiente e o diálogo das fontes não cumpre já este papel, afinal de contas não precisamos inventar a roda!? A autorregulação não seria suficiente? Entendemos que a legislação é importante, embora não suficiente, pois esta estaria incluída em um ecossistema de governança multicamadas, em um modelo modular e flexível, e evitaríamos apenas regular a temática por meio de códigos de ética, com o risco da lavagem ética, trabalhado por autores como Luciano Floridi e Josh Cowls, da mesma forma como ocorre na área ambiental e do “compliance”, traduzindo os princípios genéricos e abstratos em práticas concretas. Seria uma resposta à provocação trazida por Jess Whittlestone, pesquisadora sênior do Centro Leverhulme para o Futuro da Inteligência da Universidade de Cambridge ao apontar para a urgência de encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da IA, embora afirme a ineficácia dos princípios éticos gerais.
Embora o conceito de governança seja polissêmico trazemos o conceito de Ignas Kalpokas no sentido de governança polimórfica, pois a agência humana é tornada fluida e os algoritmos dobram as pessoas em coisas (“Algorithmic Governance: Politics and Law in the Post-Human Era”, 2019, “Technological Governance and Escapism in Times of Accelerated Change (Information Technology and Global Governance”, 2024), mas apostamos em um conceito amplo voltado à uma proteção sistêmica, proativa, preventiva e segura (Wolfgang Hoffman Rien).
Qual o papel do Direito na atualidade, já que é apontado o risco de sua morte com as “smart technologies” por Meirelle Hildebrandt (“Smart technologies and the end of the law”)? A A. afirma que as tecnologias inteligentes minam, reconfiguram e anulam os fins do direito em uma democracia constitucional, arriscando o Direito como um instrumento de justiça, certeza jurídica e bem público. Além disso, no artigo “Direito como Computação na Era da Inteligência Artificial”, Mireille Hildebrandt aponta que a IA desafia as bases conceituais do Direito porque a IA é baseada em uma compreensão algorítmica deste, celebrando a lógica como o único ingrediente para uma adequada argumentação jurídica, olhando para o Direito como um produto ou serviço apenas.
Bastaria falarmos em Direito exponencial, disruptivo, 4.0, 5.0 apostando no uso das ferramentas tecnológicas e IA, ou considerar o Direito como tecnologia, com destaque para justiça preditiva, mineração de dados e processos/compliance; jurimetria, análise de contratos (Legal Analytics)? Richard Susskind em “O futuro do direito” fala em comoditização do Direito.
No entanto, não devemos esquecer que o Direito não é meramente uma técnica, e a lógica do discurso jurídico e da argumentação jurídica não se limita aos aspectos lógicos, mas envolve experiência e pensamento crítico, inerentes aos seres humanos. Quais são os desafios do Estado de Direito diante da crescente compreensão do próprio Direito como técnica ou mesmo como metatecnologia? Como Eligio Resta afirma, o Direito vivo é aquele que tem uma conexão entre teoria e prática, e está ligado à realização da justiça em termos de respeito, sobretudo, à dignidade humana e aos direitos fundamentais. Ou seja, o Direito precisa se reinventar e operar de forma diferente do foco tradicional na gestão preventiva de riscos e ao redor de novas formas de sociabilidade, sob pena de perder sua esfera de importância para a regulação pelo código (Eligio Resta. “Diritto vivente”. Bari: Laterza, 2008, p. 93 et seq.).
Há uma intrínseca relação do direito com o poder, a ponto de alguns autores reduzirem sua compreensão às relações de poder, quando ocorreria uma espécie de “politização absoluta”, e a degradação do Direito a ser mero servo da política, ou instrumento do poder, apagando-se a palavra “lei” da expressão força de lei como apontava com propriedade J. Derrida, esvaziando-se de sua legitimidade democrática, e virando um “anti-direito”, envolvendo a temática da corrupção sistêmica, trabalhada por Marcelo Neves, a partir da teoria sistêmica de N. Luhmann, sendo mais grave tal problemática em países periféricos como o Brasil. Contudo, apesar de a justiça como um ideal ser nunca alcançável em sua integralidade, juntando-se ao ideal de justiça como verdade, que seria a forma da justiça, sempre haveria uma tensão permanente entre estes e a realidade da violência, na qual se ampara o poder – de pôr e impor o direito, contudo, não podemos esquecer que a ideia do direito, o “espírito das leis”, é a justiça.
Devemos ir além, e ao invés de pensarmos apenas em uma “smart regulation for smart industry and cities”, talvez uma melhor resposta seja em termos de “sophia governance”. Do que se trata, sobretudo, é de não nos esquecer de que o Direito encontra um vínculo indissolúvel com a justiça, sendo esta a razão do pacto social mediante o qual saímos do estado de natureza, cedendo nossa liberdade ao soberano, relembrando dos ensinamentos de Thomas Hobbes, John Locke e Jean-Jacques Rousseau.O Direito está comprometido em alcançar a justiça, paradigmaticamente recordada por K. Marx no livro “Os despossuídos” no caso do roubo de madeira e em uma contribuição esquecida para a Ciência Jurídica, criticando o modelo de ciência proposto na época pela Escola Histórica de Direito, representada por F. K. von Savigny, apontando a distância entre teoria e prática e o papel da ideologia e sua influência sobre o Direito, falando da corrupção do Direito pela lei quando ele se mostra incompatível com o princípio da proporcionalidade e costumes tradicionais de longa data do povo em questão. No caso analisado, uma lei promulgada por Friedrich Carl von Savigny, equiparando situações não equiparáveis, com afronta à proporcionalidade, ao costume local, ao espírito do povo, sendo uma lei injusta, apontando para um limite à manipulação de conceitos pelo Direito, como um topos de argumentação (congruência entre teoria e prática). É o que aponta por sua vez, “mutatis mutandis”, Montesquieu, ao falar de ilícito legal, ou Marcelo Neves ao trabalhar com o conceito de corrupção sistêmica, quando o Direito não mais responde a seu próprio código binário (direito/não direito), sendo coagido por códigos do poder e da economia, ou no sentido de uma autoimunidade do Direito, com base em autores como J. Derrida, Roberto Esposito, Willis S. Guerra Filho e Paola Cantarini.
Como aponta Floridi, as TICs agora associadas às tecnologias digitais e IA estão reformulando o equilíbrio entre liberdade de expressão, liberdade de informação, segurança da informação e o direito à privacidade informacional, trazendo novas tensões e incompatibilidades potenciais, sendo essencial buscar um novo equilíbrio entre a proteção dos direitos e liberdades e a inovação tecnológica, padrões de vida mais altos e o bem-estar humano, exigindo novas soluções conceituais, mais reflexão e melhor design conceitual (Série Direito, Governança e Tecnologia 17, Luciano Floridi (eds.) – Proteção da Informação e o Direito à Privacidade – Um Novo Equilíbrio_-Springer International Publishing, 2014).
Há, por outro lado um ecossistema de justiças, ou seja, uma ligação entre diversos tipos de justiças que se influenciam mutuamente: epistêmica, algorítmica, de dados, ambiental, de design e social, com destaque para o conceito de justiça de design criado por Sasha Constanza Chock no sentido de pensar o design através dos múltiplos eixos de opressão, já que vivemos na época do bom design como aponta Floridi.
Como as epistemologias do Sul focam em formas de resistência às 3 opressões que existem na sociedade, cumpre pensarmos em termos de práticas de resistência à época do colonialismo de dados, abrangendo o biocolonialismo e o colonialismo de carbono (Laurie Parsons – como as inequalidades globais moldam a vulnerabilidade ambiental), fenômenos próprios do atual capitalismo de dados, de plataformas e da vigilância, destacando-se a desobediência epistêmica, práticas contra-hegemônicas, já que onde há o poder há resistência (Foucault), e a abordagem decolonial, com destaque para o relatório “Decolonising the Internet” de 2018 da organização Whose Knowledge apontando para a falta de representatividade mundial dos idiomas e dialetos indígenas, e a abordagem feminista e decolonial da Rede de Pesquisa de Inteligência Artificial Feminista “f<A+i>r (Alianza A+. (s.f ). Red mundial de <fa+ir>. https://aplusalliance.org/global-fair/), criada com apoio do International Development Research Centre (IDRC) do Canadá, em março de 2020. Destaca-se, outrossim, o exemplo positivo do “Indigenous navigator” em prol da autodeterminação indígena, permitindo o controle/transparência/gerenciamento de dados, embora ainda com uma fragilidade por se basear no consentimento, sendo esta uma base legal frágil, e o exemplo negativo o “Whisper”, ferramenta multilíngua desenvolvida pela OpenAi para o reconhecimento, transcrição e tradução tendo se utilizado de dados pessoais indígenas sem consentimento.
Fala-se em “giro decolonial”, nos dizeres de Arturo Escobar (2005), com o surgimento de novos “espaços enunciativos”, semelhante ao que se entende por “linhas de fuga” (Guattari), com ênfase na retomada do pensamento crítico latino-americano, denunciando o binômio saber-poder (Michel Foucault), e o epistemicídio de saberes, valores, histórias locais ou de grupos vulneráveis, tornados invisíveis ou simplesmente acoplados, havendo uma interseccionalidade de colonialidades: colonialidade do ser, do saber, do gênero, da natureza etc., criticando-se a visão limitada de propostas eurocêntricas, por não se permitir olhar para o outro, para a alteridade e o diferente.
Como exemplo paradigmático destacamos o modelo de Governança decolonial de dados Maori, inspirado nos princípios “Care” – CARE Principles of Indigenous Data Governance”, reconhecendo a soberania de dados indígena (https://www.gida- global.org). São princípios CARE: Collective Benefit, Authority to Control, Responsibility. Tal modelo traz a previsão da proteção e equilíbrio entre os direitos individuais e coletivos, o processo de co-desenho e a previsão de uma licença social para o uso dos dados pessoais de tal comunidade.
É neste sentido também o conceito de “ethos abolicionista” de Ruha Benjamin, em prol da reescrita dos códigos culturais dominantes, falando da existência de um novo código JIM com a criação de castas digitais a partir da discriminação legalizada contra negros; tal conceito surge como Jim Crow título de um espetáculo de trovadores de 1832 ao ridicularizarem a imagem dos negros e após é usado no sentido de segregação racial legalizada, no Sul dos EUA durante o período de 1890-1950.
Entendemos que devemos olhar, sobretudo, para o contexto sócio-cultural e daí a importância das Epistemologias do Sul, conceito da lavra de Boaventura de Souza Santos, sendo sua razão de ser pensar os eixos de opressão de forma conjunta, capitalismo, colonialismo e patriarcalismo, estando cientes que por exemplo o colonialismo não terminou com a independência dos países colonizados, há um colonialismo interno, e agora novas formas a partir do uso de dados pessoais e da IA. Há epistemologias do sul, porque há epistemologias do norte, e seu intuito é pensar em formas de trazer justiça a povos oprimidos. Relaciona-se, pois com a abordagem da decolonização como os estudos subalternos e pós-coloniais (Aníbal Quijano e Walter Mignolo), igualmente envolvendo as novas tecnologias, sendo necessária toda uma nova construção de novos imaginários sociais, para a produção de conhecimento sob novas bases, e não mais centrado no eurocentrismo/ocidentalismo, enquanto uma perspectiva específica da racionalidade moderna.
Seria uma perspectiva inclusiva, democrática e sustentável com foco nos Objetivos de Desenvolvimento Sustentável (ODSs) da ONU relacionados ao meio ambiente, justiça social e sustentabilidade, com a agenda e prioridades do G20, focando especialmente na sustentabilidade, inclusão e justiça social, e assim com os temas da agenda e prioridades do G20, especificamente com os valores e objetivos das trilhas de xerifes, “sustentabilidade ambiental e climática”. Portanto, relaciona-se à sustentabilidade climática, inclusão, justiça social e justiça ambiental, em uma abordagem orientada para a justiça para garantir que o ecossistema de IA e seus benefícios sejam distribuídos de forma mais equitativa.
Epistemologias do sul, como uma base para a fundamentação teórica de instrumentos de “compliance” que apostem em um procedimento embutido em sua metodologia, a exemplo da perspectiva da justiça procedimental – Teoria da Justiça de John Rawls, e da procedimentalização do Direito postulada por Rudolf Wietholther. Seria uma forma de se evitar ou mitigar o denominado “emergente bias” o qual surgiria da alteração do contexto e/ou do treinamento dos dados, havendo um maior potencial de “bias” em contextos e domínios com documentado passado histórico de discriminação. Isso porque muitas vezes as soluções técnicas envolvendo a IA são tomadas sem estudos empíricos do contexto social. É o que aponta o artigo “Designing for human rights in AI” (Evgeni Aizenberg e Jeroen van den Hoven, Journal Big Data & Society). Os exemplos dos trabalhadores fantasmas como aponta Mary Gray no livro “Ghost work”, atuando na moderação de conteúdo e rotulagem de dados além dos trabalhadores de “Plafaformas austeras ou de trabalho” (Uber, Airbnb, TaskRabbit e Mechanical Turk) demonstram a maior fragilidade dos países do Sul Global pois é onde se concentram em maior número tais trabalhadores (África, Venezuela, Índia e Brasil). O caso do Brasil é sintomático acerca da situação denominada por Matteo Pasquinelli de refeudalização, pois os trabalhadores da AMAZON (Marcelo Finger), conforme seus termos de uso, não podem receber em moeda local e são obrigados a trocar seu trabalho por produtos da plataforma. Em sentido complementar Ricardo Antunes fala em escravos digitais, e o estudo do Oxford Internet Institute no projeto Fair Work aponta que as plataformas digitais no Brasil não possuem mínimas condições de trabalho com respeito à dignidade humana. Harari fala em pessoas inúteis.
Neste sentido, os estudos da Organização Mundial para o Comércio, afirmando a perda de 80% aproximadamente de postos de trabalho em decorrência da inovação tecnológica, além de pesquisa da Universidade de Oxford de 2013, apontando para a perda de aproximadamente 35% dos trabalhos do Reino Unido nos próximos vinte anos, pesquisas acerca da perda de metade dos empregos da União Europeia (OSBORNE, FREY, 2013), e estudo do IPEA apontando para a perda de 54,5% dos postos de trabalho formais nos próximos seis anos no Brasil (ALBUQUERQUE, 2019).
Na fase atual em que vivemos da pós modernidade, na época do pós humano, transhumano, virada do não humano (Grusin), na 6ª. onda da inovação (a partir do séc. XXI), diante de crises diversas (crise da democracia, da representação, da filosofia, crise ecológica, crise de sentido) e de diversas mortes já anunciadas (morte do homem, da história, da linguagem, da filosofia, do direito, da narrativa, da política) a IA se apresenta como uma força ambiental, antropológica e ontológica, já que produz a ontologização do nosso mundo ao criar realidades e afetar nossas subjetividades, tendo por consequência como aponta Byung-Chul Han ao falar do panóptico digital, a substituição do biopoder trabalhado por Foucault pelo psicopoder, a substituição da confiança pelo controle (autoexposição e autoexploração e ilusão de liberdade) – agora todos controlam todos (controle de dentro para fora).
Ocorre a erosão da ação comunicativa, como também apontado por Habermas. Diante da sobrecarga informacional, a exemplo do uso comercial do “storytelling”, a comunicação entre pessoas tem sido afetada, já que os pressupostos postulados por Arendt e Habermas dificilmente encontram validade na realidade, e é por isso que Byung fala de racionalidade digital, como a forma de racionalidade que se sustenta sem discurso, oposta à racionalidade comunicativa. Ao lado da capacidade de justificação, a disponibilidade de aprendizado é constitutiva para a racionalidade comunicativa. O conceito de justificação está entrelaçado com o de aprendizado. A inteligência artificial não justifica, mas calcula. Em vez de argumentos, surgem os algoritmos traçando os cursos de nossas vidas submetidas ao “profiling”.
Uma das mais importantes perguntas pois, não é o que é, mas o porquê do “compliance” e da governança, apontando-se primeiramente para seu papel preventivo e mitigador de danos, a exemplo do caso paradigmático do “Genocídio Mianmar”, com o Facebook sendo acusado perante o sistema internacional de Direitos Humanos, em termos de ser responsável pela ausência de controle em face das fake News e discursos de ódio, embora tenha elaborado a avaliação de impacto algorítmico, contudo, posterior aos danos, e portanto, sendo ineficaz para o fim a que se destina, mitigar danos.
Apontamos como benefícios da governança/“compliance” de IA: melhoria na tomada de decisão, comprovar estar em “compliance”, ser responsável e diligente, possuir documentos hábeis, mitigação de danos, redução de riscos; eficiência operacional, ganhos reputacionais, incremento da marca e nome empresarial, sustentabilidade, confiança dos usuários.
Da universalidade do saber, passou-se para a universalidade do modelo normativo que ocupa as mais variadas vertentes de pensamento e formas de produção de conhecimento, reproduzindo-se uma estrutura com base em um cânone universal. Tal perspectiva acaba por excluir outras formas de pensar, sentir e agir, não estimulando o pensar com base em suas próprias ideias (pensamento autóctone), ainda mais na área das humanidades, onde ser criativo e inovador em pensamento é visto de forma pejorativa muitas vezes. É vedado pensar de forma original e espontânea, traduzindo-se em uma normalização e naturalização de certo tipo de saber uníssono, como se fosse o único possível, a exemplo da lógica antropocêntrica e (pseudo) humanista, ocorrendo um reducionismo de perspectiva de significação (Donna Haraway, “Saberes Localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial”. Cadernos Pagu (5) 1995, p. 07-41), ou nas palavras de Dussel, trata-se de “uma práxis racional da violência” (Enrique Dussel, El encubrimiento del otro. Hacia el origen del mito de la modernidad. Quito: AbyaYala, 1994; “Europe, modernity and eurocentrism”. Nepantla: views from south, v. 13, p. 465-478, 2000), em uma lógica histórica de silenciamento e invisibilidade, com prejuízos para a multiplicidade e hibridismos, e para o debate democrático, que pressupõe diversos pontos de vista.
Neste sentido, são apropriadas as palavras de Costas Douzinas no livro “Morte dos direitos humanos”, “verbis”: “(…) Quando comecei minha carreira, o então chefe do meu departamento me disse que, se eu persistisse em meus interesses teóricos, meu futuro acadêmico seria limitado. Alguns anos mais tarde, um artigo que escrevi em co-autoria com Ronnie foi rejeitado por um periódico jurídico acadêmico porque nele havia palavras como “desconstrução” e “logocentrismo”, que não constavam do Oxford English Dictionary (…) devo acrescentar que, para mim, a maior realização dos juristas críticos é que eles ensinam, pesquisam e escrevem norteados pelo princípio de que um direito sem justiça é um corpo sem alma, e uma formação jurídica que ensina regras sem espírito é intelectualmente infecunda e moralmente falida. Este livro, uma crítica do humanismo jurídico inspirado pelo amor à humanidade (…)”. O autor aponta ainda para o paradoxo de ser o século XX considerado como a era dos direitos humanos, sendo também a época com maiores casos de violações de seus princípios, mais do que nunca, a exemplo de inúmeros casos de massacre, genocídio, faxina étnica, sendo também considerado como a era do Holocausto.
Tivemos diversos avanços na teoria e na construção do pensamento científico na área das humanidades, do “privacy by design” chegamos ao “fundamental rights by design”, do “human centered AI” chegamos ao “life centered AI”, a privacidade foi ampliada de uma chave individual para uma coletiva, falando-se em privacidade de grupo, como apontam Luciano Floridi, Helen Nissenbaum e Alessandro Mantellero, apostando na coletivização da proteção de dados pessoais. Da autodeterminação informativa chegamos ao devido processo informacional e separação informacional de poderes (caso do IBGE/STF), e do fracasso do modelo contratualista/individualista na teoria da privacidade/proteção de dados, e em razão da fragilidade, ficção e fadiga do consentimento para a proteção do titular dos dados, chegamos à teoria da integridade contextual de Helen Nisembaum. Por outro lado, fala-se no surgimento de um novo direito de proteção de dados, o “direito a inferências razoáveis” tal como sustentam Sandra Wachter e Brent Mittelstadt, bem como fala-se nas dimensões substancial e procedimental da privacidade (Danilo Doneda, S. Rodotá). No sentido de abandonar uma perspectiva individualista, atomística e proprietária.
Em sentido complementar Omri Ben-Shahar (“Poluição de Dados”, Jornal de Análise Legal, Volume 11, 2019, p. 133) defende um arranjo regulatório de “poluição de dados” centrado nos danos coletivos gerados pelo emissor de dados como um tipo de “direito ambiental de proteção de dados pessoais”, enquanto outros autores citam a necessidade de expandir obrigações relacionadas à “proteção do ambiente informacional” (FRISCHMANN; SELINGER, 2018) em uma perspectiva preventiva.
Isso também é o que Gunther Teubner aponta (TEUBNER, Gunther. Efeitos Horizontais dos Direitos Constitucionais na Internet: um caso legal sobre a constituição digital. Revista de Direito Italiano, v. 3, n. 2, p. 485–510. 2017), falando de uma Constituição digital, em termos semelhantes ao que Francisco Balanguer propõe em seu livro “A Constituição do Algoritmo”.
Assim como houve, pois, inovação do pensamento em tais exemplos, entendemos que podemos trazer contribuições para o Brasil com a criação de um modelo brasileiro de “framework” específico para o “compliance” em IA, para a elaboração da AIA – Avaliação de Impacto Algorítmico, que leve em conta suas particularidades e fragilidades, sua legislação, seu contexto sócio-cultural, sua população, não sendo, pois, suficientes apenas normas técnicas internacionais, pois além de não estarem vocacionadas à temática de direitos fundamentais, nem às Epistemologias do Sul, trazem outras deficiências, além de serem normas voluntárias, e não preventivas, pois podem ser adotadas a qualquer momento, e não de forma prévia como deveria ser, senão vejamos.
Neste sentido, a norma técnica desenvolvida pelo CIPL – Centre for Information Policy Leadership, por trazer o foco apenas em danos individuais, nada trazendo de concreto, por exemplo, quanto à danos ambientais e da NIST – National Institute of Standards and Technology, pois traz como fragilidades o fato de apontar para casos onde haverá um “tradeoff” entre direitos fundamentais e não traz a solução, colocando nas mãos das empresas a decisão de qual o risco da IA e da tolerância ao risco que irão apresentar, sendo que para se falar em legitimidade de tal escolha deveria haver uma independência e imparcialidade do responsável por tais definições.
O exemplo do compliance da OPEN AI é ilustrativo do porquê da necessidade de legislação e da necessidade de uma imparcialidade para se falar em legitimidade na produção de documentos de compliance e evitarmos o que se denomina de “safety washing” (site da OPENAI, 05.2023), sendo citados poucos princípios genéricos criados unilateralmente, e sem qualquer “enforcement”, já que não se trata de princípios jurídicos (ver artigo: “Digital Constitutionalism and Systemic Protection of Fundamental Rights in AI Applications: the case of OpenAI and Anthropic”, Paola Cantarini).
A insuficiência apenas de medidas de “compliance” de forma isolada, sem uma obrigatoriedade, padronização e requisitos mínimos citados em lei, pode ser verificada no exemplo dos documentos de “compliance” da OPENAI (site da OPENAI, 05.2023), sendo citados poucos princípios genéricos criados unilateralmente, e sem qualquer “enforcement”, já que não se trata de princípios jurídicos, com destaque para:
“minimizar os danos – construiremos segurança em nossas ferramentas de IA sempre que possível, e para reduzir agressivamente os danos causados pelo mau uso ou abuso de nossas ferramentas de IA”;.
“construir confiança – compartilharemos a responsabilidade de apoiar aplicações seguras e benéficas de nossa tecnologia”.
Os princípios citados são, pois, insuficientes e inefetivos, não explicitando como asseguraria a segurança e confiança, além de mencionar garantir a segurança “sempre que possível”, não havendo legitimidade na sua elaboração, já que não foi elaborado por uma equipe multiétnica e com independência, composta inclusive por representantes de grupos vulneráveis.
Ao se analisar os documentos (“Documents and policies”) da OPENAI denominados de “Usage policies”(versão 23.03.23), “API data usage policies”(versão 01.03.23), “safety best prectices” (03.2023), e “educator considerations for CHATGPT” (sem data mencionada), constata-se que os mesmos deveriam ser disponibilizados na primeira página da empresa (informação clara e de qualidade como dispõe a LGPD, por exemplo), e em termos que possibilite sua compreensão pelo “homem médio”; em especial o último documento citado deveria também se destinar ao público em geral e não limitar à “educadores”, pois são informações que dizem respeito a todos.
Ainda no que se refere ao documento “políticas de uso” (“Usage policies”), consta que os usuários devem utilizar a ferramenta de forma segura e responsável, para garantir que seja ela usada para o bem, em uma postura contrária aos princípios do “privacy-by design”, da lavra de Ann Cavoukian, amplamente adotados e reconhecidos internacionalmente, com destaque para a proatividade e proteção da privacidade.
O documento limita-se a listar atividades desautorizadas, apontando inclusive para “plagiarismo” e “desonestidade acadêmica”, não informando, até então o potencial de produzir fontes inautênticas, inventadas e a possibilidade de “alucinações”. Tal documento limita-se a fazer constar que as informações fornecidas devem ser “revisadas” em apenas alguns casos, quais sejam: fonte de assessoria jurídica, assessoria financeira sob medida sem uma pessoa qualificada revisando as informações, informações médicas.
Por derradeiro, os documentos afirmam ainda a perspectiva “human in the loop”, mas traz apenas uma única recomendação, aquém de tal conceito que englobaria o controle e a revisão humana da tecnologia e o respeito aos valores humanos, e sem qualquer explicação do que significa o conceito e de como se atingir o mesmo.
*O caso da Anthropic
Outro exemplo paradigmático é o da “Anthropic”, startup americana de inteligência artificial (IA), fundada por ex-funcionários da OpenAI, e seu modelo de linguagem denominado “Claude”, treinado a partir da proposta denominada de “IA constitucional”(“Constitutional AI”), por meio do experimento “Collective Constitutional AI”( https://itshow.com.br/anthropic-claude-modelo-ia-concorrente-chatgpt/; https://www.anthropic.com/index/introducing-claude). Segundo a empresa tal iniciativa visa garantir que a IA seja treinada de forma compatível com os valores humanos e éticos, traduzidos estes em valores inspirados em parte na Declaração dos Direitos Humanos das Nações Unidas, bem como nos termos de utilização da Apple, em “melhores práticas” e em princípios próprios da Anthropic. A exemplo foram elaborados quatro princípios éticos inspirados em tal Declaração (https://arstechnica.com/information-technology/2023/05/ai-with-a-moral-compass-anthropic-outlines-constitutional-ai-in-its-claude-chatbot/), afirmando que devem ser ofertadas respostas que apoiem os princípios como a liberdade, a igualdade e a fraternidade; sejam menos racistas ou sexistas e não discriminem com base na língua, religião, opinião política, origem, riqueza ou nascimento; sejam os que mais apoiam e promovem a vida, a liberdade e a segurança pessoal; e que se oponham com maior firmeza a tortura, a escravatura, a crueldade e os tratamentos desumanos ou degradantes.
Contudo, embora a construção das declarações de Direitos Humanos seja uma construção ocidental, com pretensão de ser global, e por tal motivo objeto de críticas por não considerar outras perspectivas e valores não ocidentais, como conceitos diversos do que se entende por justiça e dignidade humana, por exemplo, a Anthropic, de forma contraditória, afirma que, não obstante a escolha global dos princípios sempre seja subjetiva e influenciada pelas visões do mundo dos investigadores, que estaria preocupada em levar em consideração não só as perspectivas ocidentais.
Embora a Anthropic esteja constituída como uma “Public Benefic Corporation”, trazendo com isso a obrigação estatutária exigível por qualquer stakeholder de atuar de forma responsável e sustentável, tais termos são genéricos, não sendo suficiente, portanto, em termos de se garantir a imparcialidade e a busca do bem comum e do interesse público antes dos seus interesses econômicos, já que se trata de uma empresa com fins lucrativos, sendo que o interesse de alguns stakeholders não pode se confundir com interesse público. Daí a necessidade de se conjugar esforços com a heterorregulação, a exemplo do “US Algorithmic Accountability Act” de 2022 dos EUA, buscando um equilíbrio entre os benefícios e riscos de sistemas de decisão automatizada, prevendo a necessidade de elaboração de uma análise de impacto em casos específicos.
Além disso, o termo utilizado poderá dar ensejo a confusões como quando se entende este como sinônimo de “Constituição”, ignorando seu fundamento histórico e político, atrelado a processos de luta por direitos, e ao ser confundido com o conceito de “constitucionalismo digital” (Edoardo Celeste, Claudia Padovani, Mauro Santaniello, Meryem Marzouki, Gilmar Mendes), conforme pode-se observar da seguinte publicação: “a constituição do Claude é um reflexo do que se chama de “IA constitucional”, ou “constitucionalismo digital” (https://epocanegocios.globo.com/tudo-sobre/noticia/2023/08/concorrente-do-chatgpt-elaborou-uma-constituicao-dos-bots-entenda-por-que-isso-e-importante.ghtml), a exemplo de outra iniciativa denominada “Facebook Oversight Bord”, a qual não pode ser considerada como sinônimo de Corte Constitucional (https://www.oversightboard.com). É claro nestes exemplos o poder normativo das big techs.
É o que aponta também Francisco Balanguer afirmando que os algoritmos desenhados pelas grandes empresas de tecnologia configuram os processos comunicativos em função de interesses econômicos, não possuindo qualquer interesse na Constituição, provocando um esvaziamento da densidade constitucional de direitos e instituições e dificultando a função da Constituição de controle do poder e garantia de direitos, além da ruptura do espaço público, com uma submissão do Estado aos grandes agentes globais de poder, além de afetar o estatuto dos direitos fundamentais ao privar este de sua necessária vinculação com a dignidade humana (Francisco Balanguer.“A Constituição do algoritmo”, Forense, 2023, p. 26-32 e ss.; no mesmo sentido: Paola Cantarini, “Teoria Fundamental do Direito Digital”, Clube de Autores, 2020).
A fim de pensamos em uma proposta que analise o contexto sócio-cultural do Brasil como um país do Sul Global, desenvolvemos no âmbito do Instituto Ethikai (ethikai.org) uma proposta diferenciada de “framework”, fruto da experiência ao coordenar equipes de pesquisadores na área de governança (IEA USP, UAI IEA USP) e do expertise em razão de nossos diversos pós-doutorados e períodos de “visiting researcher” na área da inteligência artificial, “compliance” e governança; a proposta de framework é voltada à proteção sistêmica de direitos, sem obstar a inovação, pois não traz um patamar fixo de riscos, mas este é analisado caso a caso, e traz medidas de mitigação proporcionais ao nível de risco. Com isso entendemos que poderemos superar uma das fragilidades e críticas ao AI ACT da União Europeia (Mark Coekbergh), qual seja o patamar fixo de riscos; como exemplo, se pensarmos na aplicação do “chatbot”, normalmente considerado de baixo risco, mas sem se analisar o contexto de uso pode ser um problema; o reconhecimento facial também geralmente sendo considerado de alto risco, mas há casos de utilização em bovinos, com risco diferenciado. Destarte, os “chatbots” produzem saídas errôneas ou “alucinam” 3% das vezes, com incidentes atingindo até 27%, mas além disso, deve ser analisado o contexto específico, como no caso paradigmático do “chatbot” TESSA da NEDA – Associação Nacional de Distúrbios Alimentares, uma organização estadunidense, trazendo questões problemáticas, e, pois, considerado como de alto risco, levando ao desativamento do mesmo pela Associação.
Não basta a importação de modelos do norte global, a exemplo da ideologia californiana, temos que sair do papel de um país periférico quanto à inovação, com base apenas em inovação incremental e não radical. Precisamos descolonizar o pensamento, pensar o universal a partir do local.
Já que as artes impulsionam o sonhar e como apontamos aqui para o pensamento inovador, a criação e a “poiesis”, e tendo em vista que toda ideia se reflete em um sonho, o qual depois se junta com as características de um empreendedor, quais sejam, coragem, não ter medo de arriscar e valorizar mais da liberdade do que da segurança, a favor do imaginar, portanto, do sonhar, Rubens Alves, em seu livro “Religião e repressão” – por um direito a sonhar:
“somos assim. Sonhamos o voo, mas tememos as alturas. Para voar é preciso amor ao vazio, porque o voo só acontece se houver o vazio, e o vazio é o espaço da liberdade, a ausência de certezas. Os homens querem voar, mas temem o vazio, não podem viver sem certezas, por isso trocam o voo por gaiolas. As gaiolas são o lugar onde as certezas moram. Os homens preferem as gaiolas aos voos, são eles mesmos que constroem as gaiolas, onde passarão o resto de suas vidas”.