TropicAI

By Paola Cantarini

Home / TropicAI

Fundamentos epistemológicos da proposta executiva de um ecossistema de IA de uma governança de IA multicamadas multistakeholder, inclusiva e democrática

Paola Cantarini

O debate sobre IA e futuro não se resume a um dilema entre catastrofismo e tecnofilia. Trata-se de repensar as maneiras como imaginamos coletivamente o porvir. A inteligência artificial, ao ampliar as capacidades humanas, nos desafia a construir novos contratos sociais, novas formas de pertencimento e novas linguagens para narrar a vida em comum. Para isso, é imperativo que a técnica seja subordinada à ética, que seja democratizada e inclusiva, e que abra espaço para o incalculável, com base na esperança, no sonho, na criação e na solidariedade. Como recorda Paul Ricoeur, a narrativa é uma maneira de reconfigurar o tempo vivido e projetar horizontes de sentido. Entre a utopia automatizada de Kai-Fu Lee e a crítica existencial de Byung-Chul Han, entre visões utópicas e distópicas, optamos pela terceira via possível, da crítica responsável e fundamentada em pesquisa científica. O futuro é agora e resta-nos a tarefa de imaginar — e construir — um futuro mais humano.

Outro ponto de suma importância é a temática da accountability relacionada com a transparência e responsabilização, como bem aponta o artigo “Algorithmic Accountability: Moving Beyond Audits” da lavra do AI Now Institute (https://ainowinstitute.org/publications/algorithmic-accountability), afirmando a importância da pesquisa independente e da insuficiência da auditoria técnica, “in verbis”: “Por fim, essas propostas devem ser lidas no contexto de um ambiente cada vez mais precário para a pesquisa crítica sobre responsabilização tecnológica, no qual pressões econômicas deixam pesquisadores acadêmicos cada vez mais expostos à influência indevida de atores corporativos”. E continua: “Modos técnicos de avaliação há muito vêm sendo criticados por posicionarem de forma limitada o “viés” como uma falha dentro de um sistema algorítmico que pode ser corrigida e eliminada”.

Embora os apelos da sociedade civil por uma avaliação mais ampla, “sociotécnica”, expandam o escopo de forma necessária, esses esforços não conseguiram dar o salto da teoria para a prática. Tais abordagens são propensas a referências vagas e mal especificadas, e tanto as auditorias técnicas quanto as sociotécnicas colocam o ônus primário da responsabilização algorítmica sobre aqueles com menos recursos. De modo geral, as auditorias correm o risco de consolidar o poder dentro da indústria de tecnologia e de desviar o foco de respostas estruturais mais profundas.

Visa-se, pois, refletir acerca do conceito de governança, e trazer uma proposta de conceito mais amplo, em uma chave interseccional, abrangendo diversas camadas, e trazendo requisitos essenciais de legitimidade e inclusão – participação multistakeholder. Iniciamos, pois, pelo que se entende por governança de IA e atuais propostas de observatórios públicos/propostas de governança de IA – visando preencher um dos gaps existentes, ir da teoria à prática concreta.

A Cúpula da Coreia do Sul de Maio/2024 e sua “Seoul Declaration on AI Safety” embora proponha o fortalecimento da cooperação internacional multilateral, especialmente em torno da segurança de modelos fundacionais e incentiva testes voluntários de segurança (“red-teaming”), representa um exemplo paradigmático da distância entre palavras e práticas, já que não foca em riscos reais e atuais mas quase que totalmente em riscos extremos (existenciais), como “perda de controle da IA, com linguagem vaga e centrada em princípios voluntários e sem exigências regulatórias, ou seja, apostando na autorregulação e com participação desproporcional de empresas como OpenAI, Google DeepMind, Microsoft e Amazon indicando possível captura corporativa dos processos decisórios. Em sentido semelhante a declaração “Frontier AI Safety Commitments” assinada por 16 empresas, prometendo implementar boas práticas de segurança nos modelos mais avançados. Contudo, sem mecanismos de responsabilização vinculantes. Ainda apesar de afirmar cooperação multilateral, não há uma democratização da discussão na ocasião já que contou com a presença  irrisória de países do Sul Global e da sociedade civil, sobretudo indígenas, negros e membros LGBTQ+ (https://www.accessnow.org/ai-safety-summit-2024-seoul/).

Quanto ao requisito de legitimidade destacamos a necessidade de avaliações e conselhos externos de supervisão – Oversight Board e para fins de legitimidade e independência apontamos os seguintes critérios:

Autonomia institucional (não subordinados à empresa auditada ou governo regulado);

Diversidade de composição (representação de grupos sociais, técnicos, éticos e jurídicos);

Transparência (relatórios públicos, critérios de decisão claros);

Capacidade técnica (acesso a dados, especialistas e infraestrutura);

Mandato legal ou social claro (reconhecido por lei, tratado ou estatuto público);

Poder de recomendação ou sanção (ou ambos, conforme estrutura).

Importante também destacar que o sistema de auditoria deverá se tornar obrigatório e procedimentalizado, com requisitos essenciais sendo exigido via legislação, com enforcement, não sendo suficiente, em especial quanto a riscos altos de aplicações de IA, as auditorias algorítmicas de primeira ou segunda parte, sendo essencial que nestes casos sejam exigidas auditorias de terceira parte. As auditorias de primeira parte são internas, conduzidas por equipes dentro da própria organização para revisar ferramentas criadas internamente, sendo que a grande maioria da indústria tecnológica já criou e até licenciou suas próprias ferramentas e mecanismos de auditoria, podendo ser citadas Microsoft, Salesforce, Google, Meta, Twitter, IBM e Amazon; já as auditorias de segunda parte envolvem fornecedores contratados que oferecem “auditoria como serviço”, a exemplo de empresas de consultoria tradicionais como PwC e Deloitte, além de um número crescente de empreendimentos independentes (com ou sem fins lucrativos) especializados em certos tipos de auditoria. Já as auditorias de terceira parte são conduzidas por jornalistas, pesquisadores independentes ou entidades sem relação contratual com o alvo da auditoria, a exemplo da auditoria do ProPublica sobre tecnologias de policiamento preditivo nos EUA – o sistema COMPAS.

Outro ponto fundamental é que apesar de diversos documentos de peso, como ONU, UNESCO, Comissão Europeia, etc. apontarem para a necessidade de diversidade epistêmica nas equipes técnicas e de avaliação e checagem- Oversight Board em uma atividade conjunta e colaborativa entre técnicos e pessoas das áreas das humanidades, tivemos o caso polêmico de Timnit Gebru, que fazia parte da equipe de ética em IA no Google e foi demitida em 2020 após a publicação de um artigo científico que questionava os impactos dos grandes modelos de linguagem (como os LLMs) em termos de viés racial, ecológico e transparência (artigo intitulado“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”), expondo questões como a falta de independência das equipes de ética em IA dentro de grandes empresas; a supremacia das metas comerciais sobre a ciência crítica e a integridade acadêmica; e a ausência de mecanismos internos de proteção à dissidência ética. Após tal fato, mais de 1.400 funcionários do Google e 1.900 outros apoiadores também assinaram uma carta de protesto e  Gebru fundou o DAIR Institute (Distributed AI Research), que se propõe a fazer pesquisa em IA crítica, fora das estruturas corporativas, com base na justiça social e no envolvimento comunitário (https://www.washingtonpost.com/technology/2020/12/03/timnit-gebru-google-ethical-ai/; https://dair-institute.org/). Importantes notícias que comprovam a mesma linha de raciocínio por parte de outras bigtechs destacam a dissolução da equipe de ética e responsabilização da IA do Twitter após a aquisição por Elon Musk, e a demissão da equipe de ética em IA em 03.2023 pela Microsoft (https://www.platformer.news/p/microsoft-just-laid-off-an-ai-ethics; https://www.theverge.com/2022/11/8/23446265/twitter-ethics-ai-team-disbanded-elon-musk-layoffs). A Microsoft demitiu a equipe central de ética e sociedade em sua divisão de IA, pouco tempo depois de anunciar investimentos bilionários na OpenAI. A equipe era responsável por garantir que os princípios de IA responsável fossem integrados no desenvolvimento dos produtos.

Há avanços mas ainda pontuais como o DSADigital Services Act da UE, o primeiro exemplo de uma exigência legal de auditoria algorítmica para a indústria de tecnologia, exigindo auditoria para “riscos sistêmicos aos direitos fundamentais”, embora com ênfase especial nos danos relacionados à manipulação e ao conteúdo ilegal, apesar de falhas como dar uma enorme margem de discricionariedade para que a entidade auditora (a empresa que vende o software ou uma terceira parte) limite o escopo da auditoria àquelas questões menos ameaçadoras aos seus interesses.

Apesar de não haver uniformidade entre os autores sobre o conceito de governança de IA, entendemos que deverá ser compreendida de forma ampla, não se resumindo a propostas regulatórias, já que esta parte seria apenas uma das camadas necessárias em uma proposta de governança multicamadas, participativa, inclusiva e democrática.

O problema de pesquisa que buscamos apontar é que algumas aplicações de IA reproduzem injustiças epistêmicas, extrativismo de dados em bases coloniais e externalidades ambientais, reforçando assimetrias de poder e enfraquecendo estruturas democráticas — especialmente no Sul Global.  É o que apontam autores consagrados desde Ruha Benjamin, Cath O’neil, Shoshana Zuboff, Sasha Constança Chock com o termo data justice, Kate Crawford, Laurie Parsons e Max Fisher que comentam sobre o novo colonialismo de carbono, estratégias de “greenwashing” corporativo, casos de genocídios de populações vulneráveis em países do Sul Global como Índia e Myanmar em razão de fake News e discursos de ódio, com inspiração ainda em autores como Nick Couldry e Ulises Mejías.

O estudo da governança da IA revela-se imprescindível diante da centralidade que o tema ocupa nas agendas corporativas e institucionais. A governança crítica deve ir além de métricas técnicas como acurácia e desempenho, incorporando análises de impacto ético, social e de direitos fundamentais. A mudança de paradigma exige que se considerem os riscos de vieses discriminatórios e violações sistêmicas de direitos, promovendo a confiança e a responsabilidade na cadeia de valor algorítmica. Essa perspectiva é endossada por relatórios internacionais, como o AI and Democratic Values Index (2023) da Carnegie Endowment, o OECD Framework for Classifying AI Systems (2022) e os Relatórios de Ética e Regulação da UNESCO (2021). A implementação de sistemas eficazes de governança algorítmica requer uma compreensão ampliada do próprio conceito de governança, que não é homogêneo nem unívoco. A IA, por sua própria natureza híbrida, exige uma abordagem holística, que reconheça as convergências entre ciências exatas, humanidades e ciências sociais. Como propõe Lucia Santaella, estamos diante de uma dissolução das fronteiras disciplinares, provocada pela natureza disruptiva da IA enquanto tecnologia totalizante.

São temas interligados relacionadas à governança de IA e que devem ser objeto de diálogo e reflexão:

  • Integridade da informação: Os governos têm avançado em políticas de comunicação proativa, alfabetização midiática, e regulamentações voltadas à transparência das plataformas digitais. No entanto, os progressos ainda são lentos frente à rápida expansão da desinformação.
    • Participação e representação democrática: Observa-se um incremento nos mecanismos de participação cidadã e no fortalecimento de estruturas de deliberação pública. Contudo, a institucionalização plena desses mecanismos ainda é incipiente, e há lacunas na representação de minorias e jovens.
    • Igualdade de gênero: Avanços em orçamentos sensíveis a gênero e combate à violência política de gênero são destacados, embora persistam barreiras estruturais e desigualdades persistentes nos espaços de decisão política.
    • Governança global: necessidade de maior cooperação entre democracias para preservar sua resiliência institucional.
    • Governança verde: Há uso crescente de ferramentas como orçamento verde e contratação pública sustentável. No entanto, as democracias enfrentam desafios para garantir legitimidade e apoio social às políticas ambientais.
    • Democracia digital: Iniciativas digitais têm potencializado a participação cívica e a prestação de serviços públicos. Ainda assim, há um descompasso entre os avanços tecnológicos e a capacidade dos governos em regulamentar e aplicar essas tecnologias de forma eficaz e democrática.

A transição de uma abordagem baseada em desempenho técnico para uma governança democrática, ética, multicamadas, multisetorial e pluriparticipativa exige também o desenvolvimento de novas métricas de avaliação algorítmica. Conforme apontam autores como Frank Pasquale (New Laws of Robotics, 2020) e Virginia Eubanks (Automating Inequality, 2018), os impactos sociais da IA devem ser mensurados não apenas em termos de eficiência, mas sobretudo em sua capacidade de promover equidade, inclusão e respeito aos direitos fundamentais.

Essa mudança de paradigma demanda, por conseguinte, a formulação de instrumentos como algorithmic impact assessments (AIAs), que vêm sendo adotados em legislações como o AI Act europeu e propostos por organismos internacionais como a UNESCO e o Council of Europe. Tais avaliações devem ser feitas em perspectiva interseccional, considerando os riscos de perpetuação de desigualdades históricas por meio da replicação de padrões discriminatórios em dados e modelos preditivos (Hildebrandt, 2020; Rouvroy & Berns, 2013).

O momento exige a reconstrução radical dos alicerces democráticos, com prioridade para as seguintes recomendações para uma governança democrática e multilateral da inteligência artificial:

  • Educação e conscientização pública sobre os impactos reais da IA – educação cívica digital e letramento em IA;
  • Regulação preventiva, proativa e transparente, com comitês parlamentares e auditorias algorítmicas e também com fiscalização ex ante;
  • Inclusão social e pluralismo como princípios estruturantes;
  • Soberania informacional, democratização dos dados como bem comum e regras claras sobre sua coleta e uso;
  • Transparência, explicabilidade e contestabilidade dos sistemas algorítmicos, incluindo o direito à revisão humana e auditorias.

Trata-se ainda de propormos uma nova teoria democrática para a era algorítmica com base na justiça como co-criação, conjugando-se as palavras “poeticAI” com “acordAI”, no sentido ainda de devir, porvir, imaginando-se novas possibilidades para uma melhor distribuição dos benefícios da IA, de forma mais equitativa e democrática, e mitigação dos riscos ao invés de socialização destes.

Outros pontos que gostaria de destacar são:

1) o primeiro ponto é o conceito amplo de Governança de IA a ser adotado, partindo do marco teórico de Gasser, Urs, and Virgilio Almeida (“A Layered Model for AI Governance”, 2017, IEEE. Internet Computing); segundo tal modelo há três camadas interdependentes: técnica, ética e social/legal. Um ponto chave da proposta é que a governança deve ser flexível o suficiente para acomodar diferenças culturais e preencher lacunas entre diferentes sistemas jurídicos nacionais e se inspirar em um modelo de governança multiparticipativa do âmbito da Internet, tal como destacamos ser a estrutura adotada pelo NIC.br, e elogiada em todo o mundo. A Camada Técnica inclui algoritmos, infraestrutura, padrões e interoperabilidade, construídos sobre fundamentos técnicos robustos e seguros, promovendo transparência e confiabilidade. A Camada Ética incorpora princípios como justiça, responsabilidade, privacidade e respeito aos direitos humanos. E a Camada Social e Legal engloba estruturas legais, políticas públicas e instituições sociais que regulam e supervisionam o uso da IA, com base no interesse público, responsabilização e governança democrática. Mas devemos ainda conjugar a perspectiva multisetorial com a democrática e inclusiva, e acrescentar outras camadas que foram deixadas de fora como compliance, design, infraestrutura, políticas publicas e educação; ainda deverá ser incluídos importantes valores omitidos tais como dignidade humana, sustentabilidade, inclusão, e respeito aos direitos humanos e fundamentais.

2) O segundo ponto ainda quanto ao conceito de governança é que não adotamos aqui o conceito tal como é apontado por Ignas Kalpokas ao considerar este no sentido dos algoritmos nos governar, algo na linha do que se fala como governamentalidade algorítmica, conceito da lavra de Antoinette Rouvroy e Thomas Berns.

Ignas Kalpokas, em “Algorithmic Governance: Politics and Law in the Post-Human Era” (2019, p. 13 e ss.), argumenta que os regimes contemporâneos de governança algorítmica estão cada vez mais privatizados e mediados por plataformas digitais hegemônicas, que concentram poder e moldam comportamentos, instaurando uma forma de capitalismo de vigilância. Kalpokas caracteriza essa governança como polimórfica e deslocada da agência humana, uma vez que os algoritmos reconfiguram tanto sujeitos quanto objetos no ecossistema digital

3) Apesar dos avanços em termos de uma Estratégia Brasileira de IA – com base nos principais documentos – EBIA e PBIA -“IA para o Bem de Todos”– e a par de pontos positivos há algumas fragilidades. Como pontos positivos destacam-se: o objetivo de posicionar o país como líder global em IA, promovendo avanços em infraestrutura, capacitação, serviços públicos, inovação empresarial e regulação. O documento aponta como desafios: ampliar investimentos em infraestrutura, P&D e inovação; assegurar a interoperabilidade e a robustez de dados. Fortalecer a formação e retenção de talentos e apoiar o processo regulatório e de governança para garantir direitos e promover a inovação. Ainda como pontos fortes e em prol da infraestrutura e soberania há a previsão da aquisição de um supercomputador de alta performance e da criação de modelos de Inteligência Artificial em português, ou seja, incentivando a utilização de dados nacionais que refletem as características culturais e linguísticas do país.

Contudo, há alguns pontos críticos e fragilidades, tais como:

  • desbalanceamento de investimentos, com pouco investimento nos setores de cibersegurança e energia elétrica, podendo comprometer a soberania digital e a resiliência das infraestruturas críticas;
  • falta de metas claras e Indicadores: ausência de objetivos mensuráveis, prazos definidos e indicadores de sucesso, o que dificulta o monitoramento e a avaliação eficazes das ações propostas;
  • escassez de profissionais qualificados em IA no Brasil;
  • dependência de dados tradicionais como pesquisas e conjuntos de dados disponíveis, o que pode limitar a abrangência e atualidade das análises; quanto ao OBIA por exemplo destacamos a necessidade de ampliação da rede de colaboração, sendo um dos pontos que estamos trabalhando neste momento;

            Dos 9 EIXOS propostos denota-se a ausência de governança de IA, falando-se em: Governança de Dados e Infraestrutura, criação de repositórios abertos, interoperáveis e seguros, promoção da soberania digital e estímulo à utilização de dados públicos + Monitoramento e Avaliação: Implementação de indicadores e metodologias para o acompanhamento contínuo das ações do PBIA.

            Como críticas e pontos de atenção podemos destacar: limitação da participação social –  a consulta pública foi um avanço, mas o engajamento contínuo da sociedade civil, especialmente de grupos vulnerabilizados, ainda é frágil. Desconexão com práticas internacionais de auditoria e avaliação de impacto algorítmico (AIA): O PBIA não inclui ferramentas robustas como o AIA.

4) Da mesma forma outros importantes documentos como a Declaração de Paris de 2025, Declaração de Bletchley de 2023, Declaração de São Luis de 2024, documento conjunto emitido pelos grupos de engajamento do G20 (C20, L20, T20 e W20) sobre Inteligência Artificial (IA), apesar de importantes, não possuem qualquer “enforcement”, e mesmo outra proposta no sentido de ser vinculante, o primeiro tratado internacional juridicamente vinculativo nesta área, a Convenção 4 do Conselho da Europa/2025, IA, direitos humanos, democracia e estado de direito, ainda traz diversas críticas e fragilidades. Há ainda um longo percurso a frente – it is a long way. Por vez, houve alguns avanços no nosso PL 2338 em comparação com a vagueza e abstração do PL 2120 que seria mais como uma carta de princípios e sem fazer qualquer menção a temas urgentes e relevantes como impacto ambiental e necessidade de se tornar obrigatória a avaliação de riscos, e trazer requisitos e procedimentalização para a elaboração do AIA – avaliação de impacto algorítmico, mas ainda sem trazer estes pontos centrais para a AIA. Por isso a necessidade ainda de superar mantras e dogmas, sem amparo na realidade, pois não refletem dados científicos nem estudos científicos, mas com base em mera opinião e/ou informação sem checagem de fonte. A exemplo do que se fala: há um necessário “tradeoff” entre regular e inovar, como se fosse um jogo de soma zero. Destaco as palavras de Glauco Arbix em recente Congresso em homenagem aos diversos anos de existência do CETIC do NICBR realizado em 05.2025 quando afirma que a saúde é uma das áreas mais reguladas, e que mais inova.

5) A proposta executiva de governança multicamadas, multistakeholder, inclusiva e democrática traz, pois, metas claras e objetivas a serem endereçadas, pois não se pode apenas confiar no poder mágico das palavras bonitas e em boas intenções das big techs que iriam colocar interesse público, democratização dos benefícios e não socialização dos custos, acima de interesses de lucro e corporativos, daí a insuficiência de normas técnicas para compliance voluntária, como ISO e NIST, apesar de já ser um começo. Por isso por muito tempo o discurso recorrente era de que sequer seria necessária a regulação da IA, e que apenas a autorregulação seria suficiente, além do perigo da lavagem ética como bem aponta Luciano Floridi.

6) Destacam-se importantes iniciativas dentro do conceito de Governança de IA, como a criação de observatórios a exemplo do OCDE.Ai (policy observatory), e no Brasil com o OBIA, e propostas como a do Global partnership on Ai (GPAI). Nossa sugestão dentro da proposta executiva mencionada é a criação do Observatório Público Brasileiro de Incidentes Algorítmicos e de uma “international policy coordenation on AI”, por meio de plataformas públicas de auditoria de IA, a exemplo de propostas pontuais existentes tais como AI verify – Singapura e da Algorithm watch – Alemanha, com a ampliação das funções do OBIA. Poderá estar dentro das funções dos Observatórios de IA (a exemplo do OCDE – https://incidentdatabase.ai/) a atividade de trazer um “Ai incident data base” (AIID) funcionando como uma base de dados pública mantida com o objetivo de catalogar incidentes decorrentes de sistemas de inteligência artificial que causaram ou têm o potencial de causar danos. Ele é inspirado em modelos como os bancos de dados de incidentes da aviação e da medicina, com a proposta de promover transparência e aprendizado coletivo para melhorar a governança da IA. A base de dados seria alimentada por notícias jornalísticas, relatórios de ONGs, denúncias públicas e contribuições diretas da comunidade em um formato aberto, permitindo que qualquer pessoa possa submeter um caso via formulário online. Os relatos passariam por curadoria e categorização. Visa-se com isso criar uma memória pública para auditorias e fomentar accountability e responsabilização de sistemas algorítmicos.  

Ainda devem ser citados como frutos da Ai Summit Paris de 2025: “Current AI” anunciada por Emmanuel Macron,  uma fundação com um fundo de US$ 400 milhões para apoiar a criação de “bens públicos” de IA, como conjuntos de dados de alta qualidade e ferramentas de código aberto. Conta com o apoio de nove governos, organizações filantrópicas e empresas privadas como Google e Salesforce; ainda a Coalizão para uma IA Sustentável: Liderada pela França, Programa das Nações Unidas para o Meio Ambiente (PNUMA) e União Internacional de Telecomunicações (UIT); a coalizão visa colocar a IA em uma trajetória mais ética e sustentável, com o apoio de 11 países, cinco organizações internacionais e 37 empresas de tecnologia, incluindo EDF, IBM, Nvidia e SAP.

Por sua vez, a Declaração de Bletchley objeto do Ai Summit em UK afirma a necessidade de promoção de uma abordagem colaborativa e baseada em evidências: É enfatizada a necessidade de cooperação internacional para desenvolver uma compreensão científica dos riscos e estabelecer padrões de segurança. Após tal evento destacam-se como iniciativas subsequentes relevantes:

Relatório Internacional sobre Segurança da IA (2025): Comissionado pelos países signatários, este relatório, liderado por Yoshua Bengio, fornece uma análise abrangente dos riscos associados à IA de fronteira e recomendações para mitigá-los. Wikipedia+2GOV.UK+2The Times+2

Institutos de Segurança da IA: Foram estabelecidos centros de pesquisa em países como Reino Unido, EUA e Canadá, visando avaliar e monitorar sistemas de IA avançados.

Tal perspectiva é corroborada pelo livro “Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges – Igor Prégon, Stefaan Verhulst, et al.” trazendo a ênfase em abordagens globais e multissetoriais. Aponta ainda para o desenvolvimento de Normas Internacionais, por meio da criação de padrões globais para orientar o desenvolvimento e a implementação da IA de forma ética e segura. Destaca ainda a colaboração multissetorial: a promoção de parcerias entre governos, setor privado, academia e sociedade civil para abordar os desafios da governança da IA de maneira holística, e implementação de mecanismos que garantam a transparência nas decisões tomadas por sistemas de IA e a responsabilização por seus impactos.

Em sentido complementar é o que aponta também o livro “AI Governance: The New Frontier in Global Policymaking – Jaan Tallinn e outros (Cooperative AI Foundation, CSET) afirmando a necessidade de coordenação internacional para lidar com riscos sistêmicos da IA avançada, de uma Governança Global em razão da natureza transnacional da IA ampliando-se a cooperação multilateral para garantir que a IA beneficie toda a humanidade.

Outro ponto importante é verificar que a própria PBIA dispõe o conteúdo do que entende por governança, ainda falha, por reducionista em seu conceito, devendo ser ampliado no sentido de democratização do conhecimento acerca da IA, e de ser necessário conjugar-se índices quantitativos e qualitativos acerca dos impactos da IA. Neste sentido destacam-se propostas no plano internacional de observatórios públicos de checagem de auditoria algorítmica ou propostas de auditoria comunitária, mas são iniciativas pontuais e incipientes.

7) É importante destacar que a Declaração de Paris trouxe a ênfase nas palavras IA inclusiva e sustentável, com preocupações do impacto ao meio ambiente e proposta de um observatório de impacto ambiental, já em andamento no âmbito internacional, o que também faltaria a ser implementado como ação estratégica ao Brasil, já que temos ainda mais problemas em países do Sul global neste ponto. E no sentido de datasets abertos, no sentido de dados como bem comum. 

8) Não há, pois, um plano B, “there is no turning point” – precisamos conjugar a tecnologia, por meio da governança no sentido de empoderar as pessoas, daí também se destacam importantes iniciativas de descolonização e democratização algorítmica como governanças alternativas, comunitárias, a exemplo das propostas do Canadá e da Nova Zelândia – CARE principles– indigenous AI; AI4D na África, e também de auditorias comunitárias sendo exemplo a iniciativa do Dair Institute de Timnit Gebru.