TropicAI

By Paola Cantarini

Home / TropicAI

Constitucionalismo digital e “sandbox” regulatório como abordagens necessárias em matéria de IA: muito além de leis principiológicas e da autorregulação

Paola Cantarini

As inovações financeiras, assim como a IA e as novas tecnologias disruptivas, possuem um potencial quanto a benefícios aos consumidores em termos de aumento do acesso, velocidade, qualidade, preço e escolha de produtos e serviços, trazendo mudanças sistêmicas no ecossistema socioeconômico como um todo. No entanto, também trazem novos desafios e riscos, que podem ocasionar danos a direitos fundamentais e humanos, além de poder minar a integridade do mercado ou até aumentar o risco financeiro sistêmico, surgindo novos desafios e incertezas, exigindo abordagens regulatórias também inovadoras, não obstante protetivas em termos de direitos.

Com a IA generativa surge um grande potencial para a inovação, embora também surjam novos riscos específicos ou mais amplos de segurança, como a possibilidade de escrever “malwares” e e-mails de “phishing” mais efetivos para o dano, uma vez que são mais convincentes. Além disso, há riscos de desinformação, violação de direitos autorais, criação de conteúdo inverídico denominado de “alucinações” (em uma talvez perigosa concepção antropomórfica da IA), resultados enviesados, amplo tratamento de dados pessoais sem consentimento válido ou qualquer outra base legal autorizadora do tratamento segundo a LGPD ou GPDR, por exemplo, com potencial de ampla substituição do trabalho humano e grande impacto ambiental decorrente do consumo de energia necessária para o resfriamento das máquinas dotadas de LLM – “large language model”. Além disso, há riscos potenciais aos direitos humanos e fundamentais, agora incrementados, como destaca recente  documento  da   OCDE (https://www.oecd-ilibrary.org/science-and-technology/ai-language- models_13d38f92-en).

Segundo a OCDE, em suma, os principais riscos associados a tais modelos são riscos para os direitos humanos, privacidade, equidade, robustez e segurança, além de vieses, divulgação de informações confidenciais sobre indivíduos e informações associadas a direitos de propriedade intelectual, “fake News”, desinformação e outras formas de conteúdo manipulado, baseado em linguagens, que podem ser impossíveis de distinguir de informações verdadeiras, “alucinações”. Tais riscos podem agora ser constatados em maior escala do que abordagens tradicionais, com aumento das ameaças para a democracia, coesão social e confiança pública em instituições.

Destarte, os reguladores devem fazer parte do processo de inovação, aproveitando novas tecnologias, metodologias e ferramentas para o desenvolvimento da capacidade técnica interna. Isso deve ser aplicado em atividades como supervisão, conformidade e elaboração de relatórios, que são partes de um processo de governança mais amplo. Em vez de apenas pensar em regulamentar, é essencial considerar diversas camadas, incluindo a parte regulatória, a parte técnica e instrumentos de “compliance”, boas práticas, normas e guias éticos.

Assim, como na área financeira inicialmente se pensou em não regular as fintechs e startups em tal setor, na esteira da alegação corrente acerca da existência de um “trade-off” entre inovação e regulação, verifica-se que até mesmo a abordagem da China, que geralmente é muito mais pró- inovação do que regulação no campo da IA, a exemplo da maior empresa de tecnologia financeira do mundo, a Ang Group, houve uma determinação expressa para que fosse reorganizada para cumprir os requisitos regulatórios enfrentados por intermediários financeiros tradicionais, como bancos, cooperativas de crédito e instituições tradicionais, que são regulamentados. Essa medida contribui assim para uma maior concorrência e, por consequência, uma redução dos preços para os consumidores, além de uma maior proteção em termos de direitos dos consumidores. Entende- se que seria melhor uma abordagem proativa do que baseada no “laissez- faire”, sendo uma alternativa ao dilema inovação-regulação o incentivo aos novos players no sentido de se associarem a bancos regulamentados, à exemplo do Google que se associou a bancos dos EUA, incluindo o quarto maior, o Citigroup.

Outro exemplo na área financeira é o do Reino Unido. Embora seja líder pioneiro no mercado de FinTech, com o objetivo de se tornar a capital global neste sentido, possui um dos ecossistemas de FinTech mais sofisticados e variados, em um ambiente regulatório forte e favorável. O “Project Innovate” da Autoridade de Conduta Financeira do Reino Unido (FCA) exemplifica essa abordagem, sendo pioneiro em sua agenda abrangente de inovação regulatória desde 2013.

Essa abordagem simplificou as complexidades regulatórias para as FinTechs, destacando-se pela criação de um “sandbox” regulatório e observando o princípio da prevenção. Essa prática permite que novos produtos sejam testados antes de entrarem no mercado, em uma ampla gama de cenários e variáveis, contribuindo para a robustez e segurança desses produtos. Esse exemplo adota uma abordagem de mão dupla, incentivando a inovação e a competição internacional, ao mesmo tempo que se concentra em proporcionar uma proteção eficaz e robusta aos consumidores, garantindo a adequação das salvaguardas adotadas por meio de seus projetos, com foco no princípio da prevenção, pois, em se tratando de danos decorrentes do tratamento irregular ou no caso vazamento de dados pessoais e danos causados por algumas aplicações de IA, é impossível voltar ao ‘status quo ante’, sendo melhor prevenir do que apenas remediar.

Os “sandbox” regulatórios na área de IA, por sua vez, permitiriam testar, em um ambiente seguro e controlado, a aplicação de IA antes de ser colocada no mercado. Isso é exemplificado pela proposta da Universidade de Harvard, que propõe um “sandbox” para diferentes tipos de “Large Language Models (LLMs)”. Outros exemplos importantes incluem as lições de reguladores como a Food and Drug Administration (FDA) dos EUA e a proposta do Reino Unido, que traz uma abordagem inovadora sugerindo a incorporação de leis nos sistemas de software, concentrando-se assim na tecnologia.

Trata-se de uma alternativa viável para um projeto de transformação digital de longo prazo e sustentável, por meio de abordagens proativas que incorporam a inovação nas estratégias de desenvolvimento de negócios. Destaca-se o “Insurance Innovation Awards” como exemplo de práticas de regulação para inovação. Esse projeto envolve o estudo das lacunas para a inovação no país e em determinado setor, além da estratégia de comunicação por meio de publicações de alto alcance e workshops. Essa iniciativa busca aproximar a academia, as empresas e o governo, reduzindo o gap entre o conhecimento científico e as aplicações concretas de práticas inovadoras, incluindo propostas de “sandbox” regulatório e estudos de casos.

A inovação possui o potencial de criar oportunidades, incrementar a concorrência, eficiência, alcance e valor de produtos e serviços. No entanto, existe o risco de que, por falta de regulamentação, acarrete danos a direitos. Nesse contexto, é crucial adotar uma abordagem conjunta, vendo a inovação não como um fim em si mesma e um valor absoluto, isolada de outros fatores, mas em uma perspectiva mais ampla. Isso inclui conexão com a economia, política, direito, desenvolvimento econômico inclusivo, riscos climáticos e automação, incluindo a substituição de trabalhadores pela IA.

Dessa forma, torna-se imprescindível a adoção de uma estratégia de comunicação proativa entre indústrias, governo e setor de regulação, promovendo um engajamento multissetorial. Isso visa obter uma visão mais completa das necessidades de cada parte envolvida e fornecer feedback ao regulador sobre a estratégia regulatória, a exemplo da elaboração de boletins de inovação para a indústria.

Trata-se de buscar uma abordagem direcionada a riscos, também denominada de ‘riskificação’, onde há proporcionalidade e, pois, equilíbrio entre o nível de risco associado a determinada atividade e o grau de exigências de medidas protetivas, como se pode observar na abordagem da União Europeia em termos de regulação da inteligência artificial (Livro Branco da IA e AI ACT). Esse referencial também é utilizado por organismos globais de definição de padrões financeiros em inúmeras jurisdições e tem sido reconhecido como referencial base para qualquer abordagem de regulamentação para inovação.

Outro requisito importante é a flexibilidade de abordagens regulatórias, e daí a previsão de “sandbox” regulatórios vem sendo apontada como uma alternativa viável neste sentido, proporcionando a oportunidade de serem realizados testes por empresas inovadoras acerca de estarem ou não em “compliance” com a regulação na área de IA, por exemplo.

Quanto ao “sandbox”, é essencial a possibilidade de consulta pública extensiva e engajamento ao longo da ideação, criação e formulação contínua do mesmo, a fim de obter insights e novos olhares, ampliando-se a perspectiva democrática e inclusiva, e contribuir para a implementação e sedimentação da cultura permanente de inovação. Isso exige uma mudança institucional, econômica e cultural, como ocorreu com a entrada em vigor da LGPD em razão do seu princípio da minimização de dados, de forma bastante tardia se pensarmos que na União Europeia há países com leis protetivas nesta seara desde a década de 1970.

Há ainda a necessidade de ter consciência do vínculo entre o aumento da produção científica e tecnológica no país e a criação de instrumentos reguladores apropriados, incentivando a inovação, mas ao mesmo tempo prevendo uma adequada defesa dos direitos fundamentais dos cidadãos e permitindo a promoção da concorrência

A perspectiva do “sandbox” regulatório traz diversos benefícios para o mercado em geral ao estabelecer um padrão claro e fundamentado para lidar com inovações, reduzindo o custo para inovações serem colocadas no mercado. Além disso, proporciona uma maior conscientização e informação quanto aos aspectos regulatórios, reduzindo a incerteza jurídica, e um melhor gerenciamento de riscos ao promover um teste concreto em ambiente controlado. Essa abordagem também beneficia o regulador ao aproximar a prática com a teoria e melhor visualizar os problemas concretos enfrentados no dia-a-dia de determinadas empresas e projetos inovadores. Favorece a aproximação entre os diversos atores, promovendo um ambiente de colaboração e comunicação aberta e transparente, facilitando a troca de informações. Além disso, oferece benefícios aos usuários dos produtos/serviços ao proporcionar um ambiente seguro para testes e a verificação das salvaguardas e medidas a serem tomadas para evitar a ocorrência de danos.

De modo geral, quando se trata da temática da regulação e da governança de inteligência artificial (IA), fala-se em mitigar os potenciais riscos a direitos e liberdades fundamentais, por um lado, e, por outro, não obstar, mas sim incentivar a inovação e a competividade internacional.

A temática dos impactos e riscos aos direitos fundamentais/direitos humanos em aplicações de IA é um dos temas mais intensamente pesquisados na atualidade no campo de IA, o que é corroborado por importantes contribuições acadêmicas e legislativas. Essa preocupação é transposta para quando se fala em regular os novos modelos fundacionais e a IA generativa, havendo ainda maiores obstáculos no tocante à sua regulação via heterorregulação ou autorregulação tão somente, caso não seja acompanhada de outras medidas complementares, o que seria essencial para poder falar no desenvolvimento benéfico, seguro e inclusivo de tais aplicações de IA.

Cumpre ressaltar que apostar na alternativa de que apenas com base em um catálogo de princípios éticos, sem força cogente, possa forçar as empresas a adequarem suas condutas e elaborarem instrumentos de “compliance” de forma efetiva e protetiva a direitos, e de acordo com requisitos mínimos e certa padronização, e não apenas em uma perspectiva mais de adaptação dos princípios aos seus próprios interesses, em uma perspectiva mais aparente do que substancial, e que irão colocar o interesse público e da humanidade como um todo e a proteção de direitos à frente de seus interesses econômicos, é uma visão um tanto utópica ou ingênua.

Por conseguinte, cabe ao Poder Público tal tarefa, assegurando um amplo debate inclusivo e democrático para a discussão das legislações a serem promulgadas, além do papel de educação de qualidade e educação digital para permitir um debate qualificado por uma quantidade maior de pessoas, e não se restringir tal debate apenas à academia ou alguns setores, a exemplo do MCI, e fazer o seu papel de regular tal tecnologia, embora somente a regulação não seja suficiente.

Corrobora tal perspectiva o documento publicado pela OCDE ao tratar da IA generativa, com destaque para a importância de se promover um ecossistema digital (Princípio 2.2). Isso ocorre em razão da grande quantidade de dados e poder de processamento implicados no desenvolvimento e implementação dos novos modelos de IA, com alto custo e não acesso por todos, havendo o domínio de mercado pelas grandes empresas, minando a capacidade de competição por outras empresas menores. Aponta-se para a necessidade de dados verdadeiros e contextuais para o treinamento de tais modelos, e para o risco de produção de um ciclo vicioso em que os sistemas de IA são treinados com dados de qualidade cada vez mais baixa produzidos pelos próprios modelos de linguagem de IA. Outrossim, aponta-se para a necessidade de investimento em recursos linguísticos e repositórios de dados em línguas minoritárias, e para o uso de códigos abertos, os quais, embora possam ajudar a melhorar a transparência e a inclusão, também possuem riscos, pois podem ser reutilizados   e   manipulados   por   agentes   mal-intencionados (https://www.oecd-ilibrary.org/science-and-technology/ai-language- models_13d38f92-en).

Isto porque, além de trazer maiores dificuldades quanto à imprevisibilidade de seus “outputs” e “incapacidade de controle”, em razão da falta de uma compreensão exata acerca dos seus princípios internos de operação e de como alcançam os resultados apresentados, a regulação sempre estaria um passo atrás da tecnologia, devido à crescente velocidade do seu desenvolvimento, além de problemáticas outras, tais como a dificuldade na definição dos potenciais danos e na atribuição de responsabilidades. Isso devido à maior dificuldade em saber quais partes e quais dados estão envolvidos em seu desenvolvimento.

Um    exemplo    paradigmático    foi    desenvolvido    pela    empresa “Anthropic”, startup americana de inteligência artificial (IA), fundada por ex- funcionários da OpenAI, com   seu modelo de linguagem    denominado “Claude”, semelhante ao ChatGPT, da OpenAI, tendo sido treinado a partir da        proposta   denominada   de   “IA   constitucional”(“Constitutional    AI”), permitindo que um sistema de IA policie o conteúdo de outro sistema de IA, com destaque   para    o    experimento   “Collective   Constitutional   AI”( https://itshow.com.br/anthropic-claude-modelo-ia-concorrente-chatgpt/; https://www.anthropic.com/index/introducing-claude).     Visa-se    com    tal iniciativa garantir que a IA seja treinada para ser compatível com os valores humanos e éticos, traduzidos estes em valores inspirados em parte na Declaração dos Direitos Humanos das Nações Unidas, bem como nos termos de utilização da Apple, em “melhores práticas” em matéria de confiança e segurança, e em princípios próprios da Anthropic. Em           artigo publicado pela “Ars Technica” (https://arstechnica.com/information-technology/2023/05/ai-with-a-moral-compass-anthropic-outlines-constitutional-ai-in-its-claude-chatbot/) são enumerados quatro princípios de ética da IA em que a Anthropic teria se inspirado, com base na Declaração dos Direitos Humanos da ONU, refletindo nas respostas que a IA deverá preferencialmente ofertar:

  • apoiem mais os princípios como a liberdade, a igualdade e a fraternidade;
  • sejam menos racistas ou sexistas e não discriminem com base na língua, religião, opinião política, origem, riqueza ou nascimento;
  • sejam os que mais apoiam e promovem a vida, a liberdade e a segurança pessoal;
  • se oponham e combatam com maior firmeza a tortura, a escravatura, a crueldade e os tratamentos desumanos ou degradantes.

Interessante observar, outrossim, que embora a construção das declarações de Direitos humanos seja uma construção ocidental, e por tal motivo objeto de inúmeras críticas por diversos pesquisadores, por não considerar outras perspectivas e valores não ocidentais, como conceitos diversos do que se entende por justiça e dignidade humana, por exemplo, a Anthropic, de forma bastante contraditória, afirma que, não obstante a escolha global dos princípios sempre seja subjetiva e influenciada pelas visões do mundo dos investigadores, que estaria preocupada em levar em consideração não só as perspectivas ocidentais.

São diversas as perspectivas críticas à inefetividade e outras problemáticas acerca dos sistemas de direitos humanos, como o problema do universalismo versus relativismo cultural (Martha Nussbaum, Charles Taylor, Amartya Sen etc.). Isso porque sabidamente os sistemas de direitos humanos são fundamentados em princípios ocidentais, refletindo tal lógica como universal, e, portanto, não poderiam ser considerados verdadeiramente universais, com destaque para alguns autores críticos de suma importância tais como Rolando Gaete, em seu livro “Human rights and the limitis of critical reason” (Aldershot: Dartmouth, 1993), falando na demagogia dos direitos humanos e dos limites da capacidade emancipadora da razão, além do clássico de Michel Villey, “Le Droit et les droits del’homme” (Paris: P.U.F., 1983; “O direito e os direitos humanos”, São Paulo: Martins Fontes, 2007).

Basta olharmos a volta e ver os inúmeros exemplos de sofrimento humano que não são considerados violações de direitos humanos, crescimento de número de países não democráticos, falando-se em generalização de “estados de exceção” (Walter Benjamin, Agamben), maior concentração de renda, maior pobreza e fome, um hiato cada vez maior entre países pobres e ricos, entre o Norte e o Sul globalmente considerados, uso de tortura, suspensão de liberdades civis, e poucos casos de efetividade prática após uma violação de tais direitos ser denunciada no sistema internacional. Ao se verificar o crescimento de tais violações a direitos humanos, desde suas declarações no fim do século XVIII até hoje, é urgente repensarmos as bases epistemológicas e quais valores estão embutidos em tais sistemas universais, a fim de se ter uma transformação radical do que se entende e se reconhece como direitos humanos, mudando-se o paradigma do cânone universal dos direitos humanos.

Aponta-se também para os casos de intervenções militares, justificados sob tal perspectiva, especialmente pelos Estados Unidos, em países vulneráveis, utilizando-se para tais intervenções de critérios arbitrários e autoindulgentes, como aponta o livro “Humanitarian Imperialism: Using Human Rights to Sell War” de Jean Bricmont. Em sentido complementar, denuncia Roland Burke as injustiças dentro dos centros de detenção de imigrantes, no contexto do aumento do uso de tais detenções no Norte Global, desafiando os discursos contemporâneos de direitos humanos, que institucionalizam o poder.

Verifica-se que a crítica pós-moderna necessária vem, portanto, acompanhada dos estudos com foco na abordagem da decolonização como os estudos subalternos e pós-coloniais (Aníbal Quijano e Walter Mignolo), igualmente envolvendo as novas tecnologias e novas problemáticas, com os desafios inéditos que surgem, sendo necessário toda uma nova construção de novos imaginários sociais, para a produção de conhecimento sob novas bases, e não mais centrado no eurocentrismo/ocidentalismo, enquanto uma perspectiva específica da racionalidade moderna.

Embora a Anthropic esteja constituída como uma “Public Benefic Corporation”, trazendo com isso a obrigação estatutária exigível por qualquer stakeholder de atuar de forma responsável e sustentável, tais termos são um tanto genéricos e admitem uma série de interpretações, não sendo suficiente, portanto, em termos de se garantir a imparcialidade e a busca do bem comum e do interesse público antes dos seus próprios interesses econômicos, já que se trata de uma empresa com fins lucrativos, e é certo que o interesse de alguns stakeholders não pode se confundir com interesse público. Embora seja uma iniciativa melhor do que no caso da OPENAI, não se desvincula da necessidade de uma regulação da IA. Tanto é assim que nos EUA mesmo há uma lei específica, pouco citada, denominada de “US Algorithmic Accountability Act” de 2022 (US AAA), buscando um equilíbrio entre os benefícios e riscos de sistemas de decisão automatizada, com previsão acerca da necessidade de elaboração de uma análise de impacto em casos específicos citados.

Além da tentativa clara de desmoralizar a necessidade de uma heterorregulação, como se tal proposta abarcasse todo o conceito do que se tem por “Constituição”, inclusive, seu fundamento histórico e político, atrelado a processos de luta por direitos, ainda há o risco claro de ser confundida tal proposta tecnológica  com o que se denomina de “constitucionalismo  digital”,   conforme pode-se observar  de recente publicação,  onde simplesmente os termos são   considerados como sinônimos, com total desconsideração dos fundamentos epistemológicos, históricos e sociais de promulgação de um texto constitucional, e do que se entende pelo movimento  denominado de “constitucionalismo digital” (Edoardo Celeste, Claudia Padovani, Mauro Santaniello, Meryem Marzouki, Gilmar Mendes), “in verbis”: “a constituição do Claude é um reflexo do que se chama de “IA constitucional”,  ou  “constitucionalismo  digital” (https://epocanegocios.globo.com/tudo-sobre/noticia/2023/08/concorrente- do-chatgpt-elaborou-uma-constituicao-dos-bots-entenda-por-que-isso-e- importante.ghtml), a exemplo de outra iniciativa semelhante do Facebook Oversight  Bord,  retratado  muitas  vezes  como  sinônimo  de  Corte Constitucional https://www.oversightboard.com), embora sem os mesmos critérios de legitimidade para a escolha dos seus membros.

Constitucionalismo digital não se confunde com propostas privadas de empresas com fins lucrativos, já que justamente a perspectiva central de tal movimento constitucional é a defesa da limitação do poder privado de atores na internet, bem como trazer um reequilíbrio para as relações jurídicas no cenário digital, e uma melhor proteção a direitos fundamentais. É importante ainda considerar a adoção de uma perspectiva mais ampla do que se entende por direitos fundamentais, com foco na sua múltipla dimensionalidade, ou seja, não limitando-se ao aspecto ou perspectiva de direitos individuais, mas abrangendo direitos coletivos e sociais, nem se confundindo tão pouco com direitos da personalidade. É o que destaca, por sua vez, Gunther Teubner, apontando para a necessidade de uma reformulação da tradicional perspectiva individualista de equilíbrio entre direitos individuais dos atores privados na esfera digital, focando-se também na dimensão coletivo-institucional.

Daí a necessidade, conforme diversos estudos apontam de complementação da heterorregulação com outros mecanismos, como instrumentos de “compliance” e de boas práticas, políticas públicas que garantam o compartilhamento dos benefícios de tais sistemas preparando diversos atores para transições econômicas através de capacitação para novas habilidades essenciais, além de metodologias rigorosas de controle de qualidade e elaboração e exigência de padrões para tais sistemas, adequados ao contexto de aplicação.

Aqui se objetiva ter um sistema de proteção amplo e sistêmico, por meio da conjugação de esforços para se pensar de forma holística e sustentável a proteção adequada a direitos diante de aplicações de IA, sem com isso obstar a inovação, mas pensando-se em inovação, não no sentido de uma “permissionless innovation”, quando se afirma que inovação e regulação seriam  caminhos incompatíveis, na  linha do que se tem denominado de mantra tecnológico compreendido na expressão típica associada às bigtechs, qual seja: “move fast and break things” https://www.cnnbrasil.com.br/economia/facilitar-correcao-de-erros-e- melhor-do-que-impedir-uso-de-ia-diz-pesquisador-do-mit/), mas no sentido de uma “meta-innovation” (Luciano Floridi), quando há uma soma de esforços, conjugando-se inovação,  ética e responsabilidade digital e responsabilidade pela inovação (Wolfgang Hoffmann-riem).

Pular para o conteúdo