TropicAI

By Paola Cantarini

Home / TropicAI

Por uma abordagem quântica da governança de dados

For a quantum approach to data governance

Willis Santiago Guerra Filho[1]
Paola Cantarini[2]
Alexandre Antonio Bruno da Silva[3]

Resumo: O sistema de perfilamento (profiling), relacionado à produção de decisões automatizadas, utilizando-se de análises de dados (data analytics), amplamente empregadas na área de credit report e credit score, traz um grande potencial discriminatório, haja vista por exemplo, a prática de “precificação personalizada”. Ela é baseada em “análise comportamental”, usualmente identificada pelas expressões geopricing e geo-blocking, pois considera a localização geográfica da pessoa para fins de diferenciar preços de produtos/serviços. Paradoxalmente, sua principal justificativa seria a de evitar situações de discriminação, visando tomar uma decisão neutra e objetiva, ou seja, sem bias, viéses, portanto, evitando a subjetividade e correspondente arbitrariedade humanas. Faz sentido, então, que se busque nos avanços da física quântica modelos também para o desenvolvimento das ciências humanas e, em especial, daquelas voltadas para o estudo das relações internacionais, como se têm na recente obra coletiva editada por James der Derian e Alexander Wendt (2023), que destacam na introdução vir o maior estímulo para “quantizar” esta área de estudos justamente do avanço tecnológico acelerado, em escala global, no sentido de construir sistemas quânticos cada vez mais complexos para computação, comunicação, controle e inteligência artificial.  No direito, vale lembrar o esforço pioneiro, neste sentido de Goffredo da Silva Telles Jr. (1971), recentemente retomado por Ricardo Sayeg, Willis Santiago Guerra Filho e Wagner Balera (2023).  

Palavras-chave: Inteligência Artificial; Direito Quântico; Governança de Dados; Técnicas de Perfilamento; Viés Discriminatório.

Abstract: The profiling system, related to the production of automated decisions through data analysis (data analytics), widely used in the area of ​​credit reporting and credit scoring, brings great discriminatory potential, given, for example, the practice of “personalized pricing”. It is based on “behavioral analysis”, usually identified by the expressions geopricing and geo-blocking, as it considers the person’s geographic location for the purpose of differentiating prices of products/services. Paradoxically, its main justification would be to avoid situations of discrimination, aiming to make a neutral and objective decision, that is, without bias, therefore, avoiding subjectivity and corresponding human arbitrariness. It makes sense, then, to seek models in the advances of quantum physics for the development of human sciences and, in particular, those focused on the study of international relations, as seen in the recent collective work edited by James der Derian and Alexander Wendt (2023), who highlight in the introduction that the greatest stimulus to “quantize” this area of ​​study comes precisely from accelerated technological advancement, on a global scale, in the sense of building increasingly complex quantum systems for computing, communication, control and artificial intelligence. In legal studies, it is worth remembering the pioneering efforts, in this sense, of Goffredo da Silva Telles Jr. (1971), recently taken up by Ricardo Sayeg, Willis Santiago Guerra Filho and Wagner Balera (2023).

Keywords: Artificial Intelligence; Quantum Law; Profiling Techniques; Discriminatory Bias.

  1. INTRODUÇÃO

A ética e o direito, como é de entendimento usual, se ocupam dos princípios e valores que devem nortear as ações humanas, em especial aquelas que envolvem questões morais, sociais e ambientais. A “governança de dados (data governance)” se refere ao conjunto de normas, políticas e práticas que visam garantir a qualidade, a segurança, a legalidade e a eficiência do uso dos dados, especialmente aqueles que são gerados e processados por sistemas de inteligência artificial (I.A.). Assim, tanto a ética e o direito quanto a governança de dados buscam promover o bem comum. O antípoda de uma governança de dados seria a falta de controle, qualidade, segurança e transparência dos dados, o que poderia levar a problemas como: Dados incorretos, incompletos, inconsistentes ou desatualizados, que comprometem a confiabilidade e a validade das análises e decisões baseadas neles; dados sensíveis, pessoais ou confidenciais expostos, roubados ou usados indevidamente, violando a privacidade, a ética e a legislação vigente; dados isolados, fragmentados ou inacessíveis, que dificultam a integração, a colaboração e a inovação entre diferentes áreas, equipes ou organizações; dados sem padrões, metadados, documentação ou rastreabilidade, que impedem o entendimento, a interpretação e a auditoria dos dados e seus processos. Portanto, a ausência de governança de dados poderia resultar em prejuízos financeiros, operacionais, reputacionais e legais para as organizações, além de afetar negativamente o bem comum e os direitos humanos. Por isso, é importante que as organizações adotem boas práticas de governança de dados para garantir o uso ético, responsável e eficiente dos dados. A governança de dados, portanto, possui um papel fundamental na gestão dos dados de uma organização, e o “data owner” é uma das figuras-chave nesse processo. O “data owner” é o profissional que possui a responsabilidade e a autoridade sobre um ou mais conjuntos de dados, assegurando que eles sejam de qualidade, seguros, legais e eficientes. Para isso, o “data owner” deve estabelecer as políticas, as regras, os padrões e os metadados dos dados que estão sob sua tutela, além de aprovar as medidas corretivas para solucionar os problemas de qualidade de dados. O “data owner” também deve levar em conta os interesses e as necessidades de todos os usuários dos dados, especialmente os titulares dos dados pessoais, que têm direitos e controle sobre os seus próprios dados. O “data owner” pode se apoiar em um ou mais “data stewards”, os profissionais que executam e acompanham as atividades de governança de dados no cotidiano.

O ChatGPT, por exemplo, é um chatbot que se tornou muito conhecido e um grande sucesso comercial, ao utilizar um modelo de linguagem baseado em transformadores, desenvolvido e mantido pela OpenAI, uma organização de pesquisa em inteligência artificial (IA) fundada em 2015 por personalidades como Sam Altman, Elon Musk, Peter Theil, Ilya Sutskever, Jessica Livingston, Reid Hoffman, Greg Brockman, Wojciech Zaremba e John Schulman. A OpenAI utiliza dados de várias fontes públicas e privadas, como livros, artigos, sites, redes sociais, podcasts, vídeos, jogos e outros aplicativos, para treinar e melhorar os seus modelos de linguagem, incluindo o ChatGPT. A OpenAI declara que segue princípios éticos e de governança de dados, respeitando os direitos de propriedade intelectual, privacidade e consentimento dos criadores e usuários dos dados. Porém, existem alguns desafios e controvérsias relacionados à questão da titularidade e responsabilidade dos dados e do conteúdo gerado pelo ChatGPT e outras plataformas de inteligência artificial. Note-se que dados públicos não são necessariamente de domínio público, ou seja, não podem ser usados livremente por qualquer pessoa ou entidade, sem restrições ou limitações. 

Assim, já para a ordem dos franciscanos, cuja exemplaridade foi relembrada por Giorgio Agamben (2015), com base na regra fundamental de conduta da vida e organização da ordem que os congrega, estabelecida por seu fundador, havia uma diferença entre ‘uso’, ‘domínio’ e ‘propriedade’: eis a “Regra de Vida” que São Francisco de Assis estabeleceu para os seus discípulos. A ideia era que eles podiam usar os recursos que precisavam para viver e para realizar a sua missão, mas não podiam possuir esses recursos. Ou seja, eles exerciam o domínio (controle) e o uso, mas não a propriedade. De modo semelhante, no âmbito da I.A., os dados são frequentemente empregados para treinar modelos e fazer previsões. As empresas ou pessoas que desenvolvem esses modelos de IA possuem o domínio e o uso dos dados – elas podem determinar como os dados são empregados e podem extrair valor deles. No entanto, a propriedade dos dados muitas vezes continua sendo dos indivíduos que produziram os dados. Por exemplo, uma rede social pode ter o domínio e o uso dos dados gerados pelos seus usuários, mas em muitos casos, a propriedade desses dados ainda é dos usuários. Assim, tanto na Escola Franciscana quanto na IA, há um dilema parecido de conciliar o domínio e o uso com a propriedade. Ambos exigem uma reflexão cuidadosa sobre os direitos e deveres relacionados ao domínio, uso e propriedade, bem como uma compreensão clara das consequências éticas e práticas desses conceitos.

Uma ética quântica poderia, teoricamente, oferecer uma abordagem mais matizada do que a ética binária tradicional, de escolha entre certo e errado. Em vez disso, poderia permitir uma ética probabilística, onde as ações não são absolutamente boas ou más, mas têm diferentes probabilidades de serem éticas, dependendo do contexto. A ética quântica, um conceito fundamental, nos ajuda a entender a complexidade e a diversidade do universo normativo. Tal como a mecânica quântica, ela revela que não há uma única maneira de perceber e explicar a realidade, mas sim várias perspectivas possíveis e válidas. Nesse sentido, a ética quântica nos auxiliaria a reconhecer e respeitar as diferenças entre pessoas, culturas e formas de conhecimento. Por exemplo, a Igreja Católica cometeu um erro ao perseguir os franciscanos e seus teólogos, como Guilherme de Ockham, os quais propunham uma filosofia diferente da sua sobre a relação entre Deus e o mundo. Eles não estavam negando a fé, mas buscando novas maneiras de entender e expressar sua espiritualidade. Da mesma forma, a sociedade moderna erra ao condenar a priori uma I.A. por utilizar dados públicos para desenvolver modelos que podem trazer benefícios para a sociedade. Tal I.A. não está necessariamente invadindo ou desrespeitando a privacidade dos cidadãos, mas sim aproveitando as oportunidades da informação disponível para gerar conhecimento e inovação. Basicamente, é a mesma estratégia dos Franciscanos. Portanto, sem o conceito de ética quântica, limitamos nossa capacidade de entender e transformar o mundo. Sem ela, temos que nos referir à ética como “ilógica”. Pois o que precisamos é de uma ética que possa ser “fuzzy”, mais nuançada, como a ética quântica, que embora seja muito complexa, tem sua própria lógica interna. A ética quântica pode ser comparada ao famoso experimento do gato de Schrödinger na física quântica. No experimento, um gato é colocado em uma caixa com um dispositivo que tem uma chance de 50% de matar o gato. Até que a caixa seja aberta e o estado do gato seja observado, o gato é considerado tanto vivo quanto morto – um estado de superposição. Analogamente, a ética quântica sugere que uma ação pode ser considerada tanto ética quanto não ética até que seja observada e julgada em um contexto específico. Assim como o gato no experimento de Schrödinger, a “ética” de uma ação existe em um estado de superposição até que seja medida. 

No entanto, é importante notar que, enquanto a física quântica lida com probabilidades objetivas, que podem ser calculadas, a ética quântica lida com julgamentos subjetivos, que podem variar bem mais, dependendo do observador. Portanto, embora a analogia seja útil para entender o conceito, a ética quântica e a física quântica são fundamentalmente diferentes em muitos aspectos.

  • A ABORDAGEM QUÂNTICA NA REDE MUNDIAL DE COMPUTADORES

Uma analogia entre a ética quântica e a Deep Web pode ser bastante elucidativa, posto que ambas apresentam uma multiplicidade de possibilidades que só se concretizam quando observadas. A Deep Web, sendo a parte da internet que não é indexada pelos motores de busca padrão, abriga uma variedade de informações com diferentes aplicações e implicações. Semelhante à ética quântica, onde uma ação pode ser interpretada como ética ou não, dependendo do contexto e do observador, a Deep Web pode ser vista como uma fonte de conhecimento ou de perigo, dependendo de quem a acessa e de como a usa. No entanto, essa analogia também sugere uma responsabilidade ética ao navegar na Deep Web. Assim como na ética quântica, onde as consequências morais e sociais das ações devem ser consideradas, na Deep Web é preciso estar ciente dos riscos legais e pessoais que podem surgir. A Deep Web não é apenas um espaço de liberdade e anonimato, mas também pode ser um espaço de atividades ilegais e prejudiciais. Portanto, é essencial ter um senso crítico e uma consciência ética ao acessar e utilizar as informações da Deep Web

Um dos desafios ao treinar na Deep Web um Grande Modelo de Linguagem (Large Language Model, LLM), como o que emprega o ChatGPT, é assegurar a qualidade e a confiabilidade dos dados. A Deep Web contém muitos dados não estruturados, não padronizados e não verificados, o que pode impactar negativamente o desempenho do modelo. Além disso, a Deep Web pode conter dados tendenciosos, enganosos ou mal-intencionados, que podem comprometer a ética e a segurança do modelo. Portanto, é essencial ter métodos eficazes de pré-processamento, filtragem e validação dos dados antes de usá-los para treinar o LLM. Outro desafio é lidar com as questões legais e regulatórias envolvidas no acesso e uso dos dados da Deep Web. A Deep Web pode conter dados protegidos por direitos autorais, privacidade ou outras leis, que podem restringir ou proibir o seu uso para fins de pesquisa ou comerciais. Além disso, a Deep Web pode expor o LLM a conteúdos ilegais ou prejudiciais, que podem colocar em risco a reputação e a responsabilidade dos pesquisadores e desenvolvedores do modelo. Portanto, é necessário ter um rigoroso consentimento informado, uma clara atribuição de propriedade e responsabilidade e uma forte proteção de dados ao treinar um LLM na Deep Web

É que aí se adentra um território sombrio, a nos evocar a terceira figura do Anticristo, no relato de Joseph Roth (2018), após dissipadas as outras duas, teriam sido o nazifascismo e o stalinismo, com sua “pátria das sombras”, evocada por Massimo La Torre (2024, p. 22 ss.), que é a pátria das mídias que produzem a falsificação da realidade transformada em imagens. De fato, o nosso momento é comparável àqueles tempos mais sombrios da história da humanidade, sendo como pode vir a ser considerado este que estamos atravessando, com uma guerra em curso na Europa, que tende a se generalizar, assim como outra, iniciada mais recentemente, na Palestina, com emprego de violência como de há muito não se presenciava. Em ambas as situações, temos o emprego maciço de tecnologias, como vem sendo habitual e com uma letalidade inaudita desde a Grande Guerra do princípio do século XX, que veio a ser denominada de I Guerra Mundial, quando uma ainda outra, ainda mais letal e avançada tecnologicamente sobreveio, ainda na primeira metade do mesmo século. E nas que agora estão em curso, muito lamentavelmente com o potencial de virem a configurar uma III Guerra Mundial, é notório o destaque das novas tecnologias movidas por tecnologias da inteligência, como drones e, tal como relatado em matéria que merece destaque (cf. https://oglobo.globo.com/mundo/noticia/2024/04/04/israel-usou-ia-para-definir-37-mil-alvos-com-calculo-de-permissao-previa-de-morte-de-civis-diz-investigacao.ghtml), também as tecnologias de reconhecimento facial realizadas por I.A., sem maiores cuidados com uma supervisão humana. É a técnica denominada de “Lavander” (cf. https://www1.folha.uol.com.br/colunas/marceloleite/2024/04/o-odor-putrefato-de-lavender-em-gaza.shtml), denominação extremamente irônica e cínica, pois emprega o nome de uma flor de aroma agradável mas que também, alude a “lavanderia”, limpeza étnica e ética (ethics-washing), no caso.

Lê-se na matéria primeiramente referida:

Ao contrário das práticas de outras organizações militares, que usam esse tipo de análise da IA como parte do processo decisório antes de um ataque, o +972 e o Local Call afirmam que as aprovações para bombardeios eram quase que automáticas — não havia sequer uma confirmação dos dados usados pela IA para determinar se o alvo era legítimo, apenas um aval “humano” protocolar. Antes da guerra, a decisão de incriminar alguém passava por várias etapas, todas conduzidas por humanos.

Daí, tem-se a transferência inadmissível de responsabilidades na tomada de decisões deste porte com base no que informa um sistema automatizado, o qual, por mais desenvolvido que já esteja, não pode suprimir a supervisão humana. Concretamente, se assim não for, chega-se a situações como a noticiada amplamente, por exemplo, em https://jovempan.com.br/noticias/mundo/comunidade-internacional-pressiona-israel-e-nao-aceita-desculpas-por-morte-de-voluntarios-em-gaza-inaceitaveis.html, do bombardeio de comboio com voluntários de uma ONG internacional para ajuda humanitária na distribuição de alimentos. O chefe do Estado Maior do país agressor, Herzi Halevi, segundo informa a matéria referida reconheceu ter havido “grave erro”, cometido “após uma identificação errada (…) em condições muito complexas”. Ora, é sabido que em tais condições é quando se recorre ao auxílio dos sistemas especialistas geridos por I.A.

  • PROBLEMAS COM O PERFILANEMTO

Atualmente, mesmo em situação que não é aquela da beligerância armada, mas naquele estado de guerra normalizado que é o da economia de mercado, o sistema de perfilamento (profiling), relacionado à produção de decisões automatizadas, utilizando-se de análises de dados (data analytics), amplamente empregadas na área de credit report e credit score, traz um grande potencial discriminatório, haja vista por exemplo, a prática de “precificação personalizada”. Ela é baseada em “análise comportamental”, usualmente identificada pelas expressões geopricing e geo-blocking, pois considera a localização geográfica da pessoa para fins de diferenciar preços de produtos/serviços. Paradoxalmente, sua principal justificativa seria a de evitar situações de discriminação, visando tomar uma decisão neutra e objetiva, ou seja, sem bias, viéses, portanto, evitando a subjetividade e correspondente arbitrariedade humanas.

Assim, por meio de técnicas de aprendizagem de máquinas (machine learning), são traçadas correlações e produzidos dados inferidos sobre diversos aspectos das nossas vidas, sendo utilizados para tomada de decisões automatizadas, em diversas áreas, como seguros, acesso a crédito, análise de currículos por empresas de recrutamento, acesso a serviços sociais, polícia preditiva, previsão na área da política, marketing, sentenças criminais, gestão empresarial, finanças e administração de programas públicos. Pelo visto, também estão sendo empregadas para fins bélicos.

Ocorre que além de um potencial de viés discriminatório, ante a grupos já vulneráveis, como negros e jovens no caso de policiamento preditivo, ou de pessoas de classe baixa, afetam de forma diferenciada diversos segmentos da população, que acabam sendo mais prejudicados, como expõe Virginia Eubanks (2018), da mesma forma que Cathy O’Neil (2021). Nas palavras da primeira (p. 12), em tradução livre nossa, temos que:

Em todo o país, pessoas pobres e da classe trabalhadora são alvo de novas ferramentas de gerenciamento da pobreza digital e enfrentam consequências que ameaçam suas vidas como resultado. Sistemas automatizados de elegibilidade as desencorajam de reivindicar recursos públicos de que precisam para sobreviver e prosperar. Bancos de dados integrados complexos coletam suas informações mais pessoais, com poucas salvaguardas para privacidade ou segurança de dados, enquanto oferecem quase nada em troca. Modelos preditivos e algoritmos as rotulam como investimentos arriscados e pais problemáticos. Vastos complexos de serviços sociais, aplicação da lei e vigilância do bairro tornam cada movimento delas visível e expõem seu comportamento para escrutínio governamental, comercial e público. Esses sistemas estão sendo integrados aos serviços humanos e sociais em todo o país a uma velocidade impressionante, com pouca ou nenhuma discussão política sobre seus impactos. (…) Embora esses novos sistemas tenham efeitos mais destrutivos e mortais em comunidades de baixa renda de cor, eles impactam pessoas pobres e da classe trabalhadora em toda a linha racial. Enquanto beneficiários de assistência social, pessoas sem-teto e famílias pobres enfrentam os maiores fardos da vigilância de alta tecnologia, eles não são os únicos afetados pelo crescimento da tomada de decisões automatizada. O uso generalizado desses sistemas impacta a qualidade da democracia para todos nós. A tomada de decisões automatizada desmantela a rede de segurança social, criminaliza os pobres, intensifica a discriminação e compromete nossos valores nacionais mais profundos. Ela recontextualiza decisões sociais compartilhadas sobre quem somos e quem queremos ser como problemas de engenharia de sistemas.

Daí resulta termos como uma característica marcante da era digital e da correlata sociedade informacional globalizada, em que vigora um capitalismo de vigilância, ser a maior parte das decisões sobre nós feitas não mais por humanos, mas por sistemas automatizados de elegibilidade, algoritmos de classificação e modelos de risco preditivos, sem que em geral se tenha consciência, logo, sem a necessária transparência e contestabilidade. Também a maior parte de sua justificativa, em termos de efetividade, redução de custos, objetividade e neutralidade, ou maior segurança ou proteção do crédito, nos casos específicos de policiamento preditivo e score de crédito, além de não se efetivarem em muitos dos casos, não são objetivos devidamente balanceados frente a outros direitos consagrados constitucionalmente, pela aplicação dos princípios da proporcionalidade e razoabilidade.

Em assim sendo, verificamos que a abordagem em termos protetivos de direitos fundamentais potencialmente afetados mostra-se frágil e insuficiente. Isto porque a LGPD atualmente consagra apenas o direito à revisão, e não obrigatoriamente humana de decisões automatizadas, bem como possibilita a conduta de perfilamento, ou seja, caracterização e construção de perfis, enquanto que a Lei do Cadastro Positivo e o entendimento do STJ consideram, por exemplo, a criação de score de crédito uma prática lícita, apenas consagrando o direito de conhecimento dos aspectos que foram levados em conta para a análise e decisão preditiva, em termos de possibilitar a contestação da decisão. O caso da utilização do score de crédito é ainda mais preocupante, pois a LGPD inova, não seguindo neste sentido o GPDR, trazendo uma base legal autorizada do tratamento de dados específica, a base legal de proteção do crédito, prevista no art. 7º, inc. X, da LGPD, dispensando, assim, o consentimento do consumidor e a adoção do legítimo interesse. Desta forma, mesmo sem ciência e sem seu consentimento as pessoas terão seus dados pessoais analisados e julgados em um sistema de produção automatizado, muitas vezes utilizando também de dados sensíveis, tendo tão somente o direito de solicitar esclarecimentos sobre as informações pessoais valoradas e as fontes dos dados considerados no respectivo cálculo.

Ocorre que muitas vezes sequer as pessoas possuem ciência de que são alvo de tal conduta, além de que há uma prática altamente lucrativa de venda de dados pessoais e correlações para fins apenas comerciais, como se dá de forma paradigmática na atividade dos denominados “corretores de dados” (data brokers ou information brokers), os quais vendemdados pessoais e dados inferidos (derivados), recolhidos indevidamente com fim lucrativo, sem qualquer restrição e sem sequer transparência, logo, em desrespeito aos princípios da razoabilidade e proporcionalidade. Segundo Relatório publicado pelo Cracked Labs em 2017 sobre “Vigilância Corporativa na Vida Cotidiana”, tais empresas agregam, combinam dados e comercializam estes, além de fazerem inferências e classificações das pessoas (Christl, 2017).

É que a racionalidade econômica acaba dominando todo o sistema de direitos, como se fosse um fim em si mesmo, ou um valor mais elevado, sem trazer balizas por meio de legislação específica da chamada “inteligência artificial (I.A.), já que o discurso corrente é que a regulação irá obstar a inovação e de que já temos legislação suficiente para dar conta dos problemas por meio de “diálogo das fontes”. Tais argumentos vêm aliados à uma forma de interpretação restritiva e gramatical, logo equivocada, no sentido de que o direito ao segredo industrial ou de negócio, o que limitaria uma auditoria de algoritmos, a prejudicar, de certa forma, o direito de contestação ou revisão de uma decisão automatizada, não se levando assim em consideração a necessária ponderação entre direitos fundamentais e a função social de institutos jurídicos.

Em suma, temos que nossa LGPD é mais restritiva do que o GDPR, que estabelece o direito de oposição a uma decisão automatizada, quando o artigo 20 da LGPD apenas prevê o direito de revisão de deliberações decorrentes de sistemas automatizados de decisão que afetem interesses dos concernidos, “incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. Verifica-se, assim, que embora a LGPD tenha se inspirado no GDPR, em relação ao profiling ela não é tão restritiva como a matriz europeia e não traz quaisquer proibições em relação ao processamento de dados pessoais para a definição de perfis, além de não possuir dispositivo semelhante do artigo 22 da GDPR, que estabelece o direito à não sujeição a decisões, exclusivamente, automatizadas, inclusive no que se refere à definição de perfis, quando gerar efeitos na esfera jurídica do titular de dados pessoais. É a lógica dos direitos e garantias fundamentais em um Estado Democrático de Direito sendo lá aplicada, enquanto aqui é rejeitada.

No parágrafo primeiro do artigo 20 da LGPD, embora a matéria não seja pacífica, estaria previsto o direito à explicação, contudo, segundo alguns autores, há diversas barreiras para sua efetiva implementação, em especial quanto à acessibilidade e à compreensibilidade das informações necessárias para a transparência. Isso além da restrição contida nesta norma do parágrafo primeiro do artigo 20 da LGPD, ao prever que o direito à explicação estaria condicionado à observância dos segredos comercial e industrial, dando margem a que sejam compreendidos a como objetos de um direito absoluto, o que não se admite mais existir no ordenamento jurídico de um Estado Democrático de Direito. E nem mesmo se olharmos para a sua disciplina no âmbito da Lei de Propriedade Industrial (LPI), que traz exceções a tal direito. Por conseguinte, devemos analisar tais temáticas à luz da Constituição Federal e do constitucionalismo digital, olhando para uma perspectiva funcional acerca dos institutos jurídicos, afirmando a necessidade de sua interpretação sistêmica, de forma a serem atualizados aos ditames da sociedade atual, bem como de molde a equilibrar os diversos direitos protegidos constitucionalmente, em processos de ponderação, aplicando o princípio constitucional da proporcionalidade, norma consagradora de indispensável garantia fundamental.

É o que dispõe, mutatis mutandis, Eduardo Magrani (2019), apontando para o momento de crise de eficácia dos direitos autorais, por sua interpretação restritiva e equivocada no direito brasileiro, quando é apenas analisado sob a ótica de um direito de propriedade, individual, sem considerar, por exemplo, a função social de tal direito e a necessária compatibilidade com a nova realidade social que se apresenta. E daí decorre a exigência de aplicar o procedimento de ponderação com outros direitos fundamentais consagrados no texto constitucional, como as demandas públicas por acesso ao conhecimento e à informação, reconhecendo-se, destarte, os objetivos básicos da proteção dos direitos de propriedade intelectual, quais sejam, o interesse público de promoção do desenvolvimento tecnológico e engrandecimento cultural.

Outro ponto que merece destaque, em tema de profiling, é que para efeitos de score de crédito, como há dispensa do consentimento, a situação é ainda mais frágil em termos de proteção de direitos. É que em outras situações teríamos a “proteção maior” de um consentimento esclarecido, informado (específico, e granularizado, segundo parâmetros do Art. 29, e GDPR), sendo ainda mais difícil se ter uma participação ativa do titular dos dados e, pois, controle de seus dados em respeito à autodeterminação informativa, já que no caso de consentimento há o direito de oposição considerado como potestativo, podendo ser exercido a qualquer momento, nos termos do artigo 8, parágrafo 5º da LGPD, por procedimento gratuito e facilitado.

Daí a necessidade imperiosa de uma interpretação sistêmica, a fim de se verificar se teria justificativa uma diferença de tratamento legislativo para a prática de análise de crédito, colocando-a em um patamar de proteção diferenciado quanto a outras práticas, bem como acerca da questão de utilização de dados em excesso, sem respeito inclusive ao princípio da minimização de dados, e com afronta expressa da Lei do Cadastro Positivo (Lei 12.414/2011), já que está consagrado aqui um “direito de imunidade”, qual seja, de oposição ao tratamento de dados excessivos e sensíveis, além da autodeterminação informativa. Isso porqueos indivíduos têm pouco controle ou supervisão sobre como seus dados pessoais, usados para fazer inferências sobre eles.

Por fim, ratifica-se que, apesar de não ser um mercado ilícito per se, o tipo de vantagem social que os data brokers podem obter nesse mercado necessariamente deveser contrabalanceado com a proteção de direitos fundamentais combinado com parâmetros de transparência e razoabilidade, tornando indispensável a aplicação da LGPD. Cumpre observar ainda a necessidade do reconhecimento de um novo direito, tal como expõem com propriedade Sandra Wachter e Brent Mittelstadt (2023), qual seja, o direito a inferências razoáveis, no caso de “inferências de alto risco”, ou seja, inferências feitas a partir da análise utilizando a técnica de big data que prejudicam a privacidade ou reputação, ou têm baixa verificabilidade, no sentido de serem preditivas ou baseadas em opiniões, não obstante sejam utilizadas para fundamentar decisões automatizadas que afetam a vida de pessoas. Tal direito abrangeria a exigência de uma justificação ex-ante, a ser fornecida pelo controlador de dados para esclarecer e comprovar se a inferência é razoável, abrangendo: (1) porque certos dados formam uma base normativamente aceitável para fazer inferências; (2) porque essas inferências são relevantes e normativamente aceitáveis para o propósito escolhido de processamento ou tipo de decisão automatizada; e (3) se os dados e métodos usados para fazer as inferências são precisos e estatisticamente confiáveis. Trata-se de uma justificação ex-ante, a qual seria reforçada ainda por um mecanismo adicional ex-post, por meio da contestabilidade das inferências irrazoáveis, buscando-se um melhor equilíbrio entre os interesses das pessoas prejudicadas com o profiling e os interesses do controlador, aí incluídos segredos comerciais ou propriedade intelectual.

  • CONCLUSÃO

Faz sentido, então, que se busque nos avanços da física quântica modelos também para o desenvolvimento das ciências humanas e, em especial, daquelas voltadas para o estudo das relações internacionais, como se têm na recente obra coletiva editada por James der Derian e Alexander Wendt, que destacam na introdução vir o maior estímulo para “quantizar” esta área de estudos justamente do avanço tecnológico acelerado, em escala global, no sentido de construir sistemas quânticos cada vez mais complexos para computação, comunicação, controle e inteligência artificial. Verbis: “The most concrete stimulus for a quantized IR is technological — in particular, an accelerating global race to build the advanced quantum systems for computing, communications, control, and artificial intelligence” (James der Derian; Alexander Wendt, 2022, p. 5). Sim, é urgente a tradução de tais avanços tecnológicos em avanços equiparáveis na compreensão e correlata transformação de nosso modo de organizarmo-nos socialmente, é dizer, em nossas bases éticas e jurídicas.

É que estas bases foram abaladas e substituídas pelas revoluções que superaram na matemática e na física o modo tradicional de figuração do espaço, remontando à geometria euclidiana, refinada pela analítica cartesiana e corroborada pelos resultados obtidos de sua aplicação no estudo da natureza, desde Copérnico até culminar em Newton, passando por Galileu, o que suscitou a conhecida formulação de Thomas Kuhn, sobre a substituição de paradigmas científicos. E se a substituição de paradigmas é de todo evidente na física, com grande impacto na sociedade, não se pode dizer o mesmo com relação aos estudos sociais propriamente ditos.

Aqui, vem referida uma noção de importância capital na epistemologia contemporânea: aquela de “paradigma”, cunhada por Thomas S. Kuhn (1962), em sua obra A Estrutura das Revoluções Científicas. O paradigma de uma ciência pode ser definido, primeiramente, como o conjunto de valores expressos em regras, tácita ou explicitamente acordadas entre os membros da comunidade científica, para serem seguidas por aqueles que esperam ver os resultados de suas pesquisas – e eles próprios – levados em conta por essa comunidade, como contribuição ao desenvolvimento científico. Além disso, integra o paradigma uma determinada concepção geral sobre a natureza dos fenômenos estudados por dada ciência, bem como sobre os métodos e conceitos mais adequados para estudá-los – em suma: uma teoria científica aplicada com sucesso, paradigmaticamente. Por essa caracterização, percebe-se a conotação normativa que tem a noção de paradigma, donde se explica o fato, apontado por Kuhn, de que os paradigmas, tal como outras ordens normativas, entrem em crise, rompam-se por meio de “revoluções”, quando não se consegue, a partir deles, explicar certas anomalias, o que ocasiona sua substituição por algum outro. O exemplo típico é o da substituição, na física, no paradigma mecanicista de Copérnico, Galileu, Giordano Bruno, Newton etc., por aquele relativista de Albert Einstein e o quântico de Max Planck, Niels Bohr, Werner Heisenberg etc.

Note-se que, assim como deixou de ser a busca por leis definitivas e absolutamente verdadeiras o objetivo da física após a revolução paradigmática pela qual passou, sendo a figura do legislador substituída pelo do intérprete (como bem anota Z. Bauman, 2010), também no campo da regulação da conduta humana, a legislação apenas não é insuficiente para o tratamento satisfatório das graves questões atuais, com seu elevado grau de novidade, e que, já por isso, não contam com previsões que as regulem satisfatoriamente por alguma normatividade pré-estabelecida, seja ética, seja jurídica. Daí a necessária ênfase na importância crescente das leis processuais e de procedimentos, na linha do que o teórico do direito frankfurtiano Rudolf Wiethölter qualificou como uma tendência à “procedimentalização”, exercendo assim grande influência em outro frankfurtiano, Jürgen Habermas, em suas incursões na filosofia jurídica, amparado na concepção de ética discursiva. Relaciona-se, igualmente, à influente teoria da justiça de John Rawls, em sua postulação acerca da exigência de um procedimento isento, ou seja, da ponderação como fairness, na busca da realização da Justiça.

Deve-se, então, passar a uma consideração contextualizada, caso a caso, pois como diria Rawls (1972, p. 83 ss. e 197), inspirado na ideia de uma justiça como fairness,procedimental, de Brian Barry (1965, p. 94 ss.) o melhor que podemos fazer pelo direito é assegurar um procedimento isento, de modo a alcançar decisões aptas a equalizar todos os interesses e/ou valores em conflito. Isto ocorre principalmente pela “ponderação” (Abwägung) destes interesses e/ou valores, sendo os interesses associados à realidade do direito enquanto os valores o seriam à sua idealidade, restando a meio caminho entre eles os princípios (Morone, 2014), sendo a eles que se confronta para obter uma ponderação que resulte em uma solução conciliatória que seja a melhor para todos os concernidos – não cabe confrontar diretamente interesses e ideais ou valores, como demonstrou Barry (1965, p. 295 ss.), em sua crítica a Hare, assim como o mero sopesamento de interesses nos encaminha a uma inadequada posição utilitarista. E esta ponderação é feita respeitando o “princípio da proporcionalidade” (Grundsatz der Verhältnismäβigkeit).

Destaca-se a característica única deste que se pode ter como um “princípio dos princípios”, o da proporcionalidade, já que todos os demais princípios são relativos, de ser absoluto, essencial em nossa sociedade que vive uma condição pós-moderna (J.-F. Lyotard, 2015), em um mundo altamente complexo, onde o risco e a complexidade aumentam. Daí sua propriedade de propiciar o loop hierárquico de Hofstadter, bem como por possuir essa grande carga procedimental, na medida em que se desdobra em três subprincípios, para calcular a relação entre meios e fins almejados, fornecendo com eles um método racional, na forma de um procedimento para sua aplicação.

Trata-se de uma perspectiva epistemológica “democrática”, popular, includente, pois se pauta na promoção de um amplo debate para incluir o maior número de posições, ou seja, a legitimidade do direito passa a depender, sobretudo, dos procedimentos que institui (e, correlativamente, o instituem), tanto quanto seus resultados precisam coincidir com um dos possíveis conteúdos dos seus princípios e demais normas, para estar de acordo com valores básicos tais como racionalidade, participação democrática, pluralismo ou eficiência econômica, que são já perseguidos no momento mesmo em que são instituídos os procedimentos.

Tem-se que com o princípio da proporcionalidade se pode realizar uma validação tópica, uma vez que ele é capaz de dar um “salto hierárquico” (hierarchical loop – D. Hofstadter, 2007), ao ser extraído do ponto mais alto da “pirâmide” normativa para ir até a sua “base”, onde se verificam os conflitos concretos, validando as normas individuais ali produzidas, na forma de decisões administrativas, judiciais etc. Isso porque permite atribuir um significado diferente a um mesmo conjunto de normas, a depender da situação a que são aplicadas. É esse o tipo de validação requerida nas sociedades hipercomplexas da pós-modernidade, que se conectam na (e à) sociedade mundial. Nela(s) se misturam criação (legislação) e aplicação (jurisdição e administração) do Direito, tornando a linearidade do esquema de validação kelseniano pela referência à estrutura hierarquicamente escalonada do ordenamento jurídico em circularidade, com o embricamento de diversas hierarquias normativas, as “tangled hierarchies”, ou seja, hierarquias embricadas (heterarquicamente, pode-se dizer) teorizadas, notoriamente, por Hofstadter, na figura do “strange loop”. Concretamente, isso significa que assim como uma norma, ao ser aplicada mostra-se válida pela remissão a princípios superiores, insculpidos na Constituição, esses princípios validam-se por serem referidos na aplicação daquelas normas. Fecha-se, assim, autopoiética e circularmente, o Direito. E mais, adota-se uma gramática mais atualizada com os desenvolvimentos da física, o que requer que concebamos a curvatura do espaço constitucional, como propõe Laurence H. Tribe (1991, p. 169). A extensão da abordagem quântica às ciências sociais vem sendo feito, de último, com entusiasmo, por Andrei Khrennikov e os que se reúnem em torno dele e seu trabalho podendo ser dado como exemplo (cf. Haven; Khrennikov, 2017 e Plotnitsky;  Haven, 2023). Uma abordagem que diverge desta, por buscar, em síntese, integrar modelos quânticos nas ciências humanas de uma forma interdisciplinar e decolonial é aquela de Karen Barad (cf. Murris; Bozalek, 2023). No direito, vale lembrar o pioneirismo de Goffredo Telles Jr., (1971), recentemente retomado em Ricardo Sayeg; Willis S. Guerra Filho; Wagner Balera (2023).  Em suma, somente com o princípio da proporcionalidade (Grundsatz der Verhältnismäβigkeit) e sua “ponderação” ou sopesamento (Abwägung) é possível se realizar a exigência de uma consideração contextualizada, caso a caso, assegurando-se um procedimento isento, de modo a alcançar decisões aptas a equalizar todos os interesses e/ou valores em conflito, trazendo harmonia e uma solução segura e justa, ante as múltiplas possibilidades de solução. E isso significa não transgredir a proibição de excesso que ele determina, excesso de ação (Übermassverbot) e de inação (Untermassverbot). Para dizer em termos clássicos, do que se trata é observar a justa medida, o metron, assim evitando a hybris, o pior que se podia fazer, segundo os antigos gregos, acarretando consequências terríveis. É a busca do caminho do meio, para expressar em termos aristotélicos e também budistas, perspectiva que se encontra similar no confucionismo e nas mais diversas sabedorias de todas as épocas e latitudes.

REFERÊNCIAS

Agamben, Giorgio. Altíssima Pobreza. Regras monásticas e forma de vida [homo sacer, IV, 1], trad. Selvino J. Assmann, São Paulo: Boitempo, 2015.

Barry, Brian. Political Argument, Nova York: Routledge & Kegan Paul, 1965.

Bauman, Zygmunt. Legisladores e Intérpretes: sobre modernidade, pós-modernidade e intelectuais, trad. Renato Aguiar, Rio de Janeiro: Zahar, 2010.

Christl, Wolfie. Corporate Surveillance in Everyday Life. How Companies Collect, Combine, Analyze, Trade, and Use Personal Data on Billions. Cracked Labs, 2017. Disponível em: http://crackedlabs.org/en/corporate-surveillance. Acesso em: 06 abr. 2024.

Derian, James der; Wendt, Alexander (eds.). Quantum International Relations. A Human Science for World Politics, Nova York: Oxford University Press, 2022.

Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, Nova York: St. Martin’s Press, 2018.

Kuhn, Thomas S. The Structure of Scientific Revolutions, Chicago: The Chiago University Press, 1962.

Haven, Emmanuel; Khrennikov, Andrei (orgs.). The Palgrave handbook of quantum models in social Science: applications and grand challenges, London: Palgrave Macmillan, 2017.

Hofstadter, Douglas. I am a strange loop, Nova York: Basic, 2007.

Lyotard, Jean François. A Condição Pós-Moderna, 16ª ed., trad. Ricardo Corrêa Barbosa, Rio de Janeiro: José Olympio, 2015.

Magrani, Eduardo. “Exceções e limitações no direito autoral brasileiro: críticas à restritividade da lei brasileira, historicidade e possíveis soluções” in: http://eduardomagrani.com/wp-content/uploads/2019/05/ARTIGO-EXCECOES-E-LIMITACOES-2019.1.pdf. Acesso em: 06 abr. 2024.

Morrone, Andrea. Il bilanciamento nello Stato Costituzionale, Turim: Giapichelli, 2014.

Murris, Karin; Bozalek, Vivienne (eds.). In conversation  with Karen Barad. Doings of Agential Realism, Londres/Nova York: Routledge, 2023.

O’Neil, Cathy. Algoritmos de Destruição em Massa,  trad. Rafael Abraham  Santo André, SP: Editora Rua do Sabão, 2021.

Plotnitsky, Arkady;  Haven, Emmanuel (eds.). The Quantum-Like Revolution: A Festschrift for Andrei Khrennikov, Cham: Springer, 2023.

Rawls, John. A Theory of Justice, Londres: Clarendon/Oxford University Press, 1972.

Roth, Joseph. L’anticristo, int. e trad. Stefania Stefani, ebook: Theoria, 2018.

Sayeg, Ricardo; Guerra Filho, Willis S.; Balera, Wagner, A Odisseia do Direito Quântico, São Paulo: Max Limonad, 2023.

Telles Jr., Goffredo da Silva. O direito quântico, São Paulo: Max Limonad, 1971.

Torre, Massimo La. L’altro giudizio. Diritto e letteratura, Bolonha: DeriveApprodi, 2024.

Tribe, Laurence H. “The curvature of constitutional space: what lawyers can learn from modern physics”, in: Theodore L. Becker (ed.), Quantum politics. Applying quantum theory to political phenomena, New York/Westport/London: Praeger, 1991.

Wachter, Sandra; Mittelstadt, Brent. In: https://www.oii.ox.ac.uk/news-events/no-need-to-wait-for-the-future-the-danger-of-ai-is-already-here/ (2023). Acesso em: 06 abr. 2024.


[1] Professor Titular do Centro de Ciências Jurídicas e Políticas da Universidade Federal do Estado do Rio de Janeiro (UNIRIO). Doutor em Direito (Bielefeld, Alemanha), Comunicação e Semiótica (PUC-SP); Psicologia (PUC-SP).

[2] Doutorado em Filosofia do Direito (Universidade do Salento, Itália), em Direito (PUC-SP) e Filosofia do Direito (PUC-SP). Fundadora e presidente do Instituto EthikAI.

[3] Pós-doutorando em Direito na UNIRIO. Professor Adjunto da Universidade Estadual do Ceará (UECE) e do Centro Universitário Christus (UNICHRISTUS). Doutor em Direito (PUC-SP) e Políticas Públicas (UECE).

Pular para o conteúdo