Marco Civil da IA: colocando as cartas na mesa
image
11 de outubro de 2021

Sem comentários

FONTE: JOTA

PL 21/20

Marco Civil da IA: colocando as cartas na mesa

Texto se concentra em princípios éticos abstratos para a IA e não traz obrigações mínimas de boa governança

JULIANO MARANHÃO

10/10/2021

Crédito imagem: Unsplash

Acaba de ser aprovado na Câmara dos Deputados o texto do Projeto de Lei 21/20, que pretende estabelecer o Marco Civil da Inteligência Artificial no Brasil. O texto, primordialmente, concentra-se em enunciar princípios éticos abstratos e objetivos virtuosos a serem perseguidos pelos desenvolvedores de sistemas de inteligência artificial (IA) e perde a oportunidade de estabelecer com clareza obrigações procedimentais sobre padrões mínimos de governança e melhores práticas no desenvolvimento e emprego de sistemas de IA.

A inteligência artificial, como toda tecnologia, tem natureza dual, com enorme potencial de benefícios à sociedade, mas com determinados riscos – o que torna desaconselhável não só a sua superutilização como também a sua subutilização [1].

Essa dualidade, aliada a seu rápido desenvolvimento e transformação, exige uma abordagem equilibrada, o que aponta para a instituição de regras de governança como meio mais adequado de enfrentar os desafios colocados pela tecnologia.

Ou seja, trata-se de criar mecanismos para que sejam adotadas as melhores práticas de gestão, tanto técnicas quanto organizacionais, desde a idealização de um projeto, até o emprego e monitoramento de uma ferramenta de IA. Existe uma série de abordagens recentes – que trazem parâmetros sobre esse estado da arte – tanto para estimular a boa governança, quanto para certificar sistemas de IA [2].

A questão é como institucionalizar, isto é, gerar comprometimento com as melhores práticas de governança? Há alguns modelos que merecem atenção.

O primeiro deles é o de regulação externa com a imposição de obrigações de conteúdo pelo Estado, instituindo práticas no texto legal a serem seguidas pelos agentes desenvolvedores ou àqueles que empregam a IA, atribuindo responsabilidades pelo descumprimento de práticas por danos decorrentes da utilização da tecnologia. A grande crítica a esse modelo é a falta de flexibilidade, contraproducente quando tratamos de uma tecnologia com acentuada dinâmica de inovação.

O segundo modelo é o de regulação interna ou autorregulação: as próprias empresas e organizações desenvolvedoras estipulam parâmetros e os fiscalizam. É o que vem sendo adotado no vácuo regulatório, no qual assistimos a diversos códigos de conduta criados e conduzidos internamente por empresas. Tal modelo vem sendo criticado pela possibilidade de conflito entre os interesses comerciais das empresas e a efetiva mitigação dos riscos, além do que, há falta de transparência em relação à fiscalização e meios efetivos utilizados para implementar os códigos de princípios éticos divulgados ao público.

Trata-se de “lavagem ética” (ethic washing), apontam os críticos, que funciona como espécie de blindagem para se evitar a regulação [3]. A proposta de regulação chamada principiológica, que elenca princípios éticos sobre a tecnologia, deixa de promover a confiança, e pode trazer insegurança jurídica, pois uma lei apenas com princípios abstratos pode resultar em “regulamentação” por meio de decisões judiciais com interpretações distintas e conflitantes [4].

O terceiro modelo é o de regulação por exemplificação. Nesse modelo o Estado impõe regras de governança da IA vinculantes para os órgãos públicos na expectativa de que instituições privadas passem a empregar os mesmos parâmetros ou sejam elaborados selos de qualidade baseados nas diretrizes públicas.

Embora esse modelo seja questionável sobre o efetivo incentivo para institucionalização pelos agentes privados das melhores práticas, tem o lado positivo de uniformizar e trazer segurança jurídica acerca do que se deve entender por padrões mínimos de governança, fator importante em apurações de responsabilidade.

O quarto modelo é o de regulação por delegação em que a lei atribui competência a órgãos públicos setoriais para regular a IA. Os órgãos delegados, por sua vez, podem adotar diferentes modelos para buscar institucionalizar as melhores práticas de governança no respectivo setor de atuação.

Trata-se do caminho escolhido pela regulação norte-americana, cuja administração pública possui estrutura descentralizada, com diferentes agências reguladoras setoriais detentoras de competências normativas, ou seja, para editar regras e estabelecer ou especificar obrigações comportamentais ou procedimentais nos mais diferentes setores da atividade econômica.

De todo modo, as diretrizes da Casa Branca alinham-se à estratégia norte-americana de evitar trazer qualquer obstáculo à sua pretensão de liderança global na tecnologia, indicando, assim, parcimônia às agências para a imposição de obrigações que possam ser restritivas [5].

Por fim, o quinto modelo é o híbrido, que combina a autorregulação regulada com mecanismos de certificação (selos de qualidade obrigatórios ou voluntários). Nele, o Estado estabelece, por lei, os padrões mínimos de governança a serem observados para assegurar o desenvolvimento de sistemas de IA confiáveis e passa a reconhecer instituições de autorregulação setoriais que sejam capazes de detalhar os padrões mínimos por meio de parâmetros específicos para cada setor e fiscalizar a sua execução.

Essa autorregulação, que pode se pautar por códigos flexíveis e atualizáveis, conforme a evolução da tecnologia, pode também levar à auditoria de processos, de modo a estabelecer selos de qualidade, obrigatórios ou voluntários, capazes de criar referências de confiança no mercado. Foi esse o caminho adotado pela proposta de regulação europeia, o chamado AI Act Europeu [6], que propõe tornar obrigatórios os padrões de governança mínimos para IAs de alto risco e voluntários para IAs de menor risco.

O PL 21/20 situa-se em algum lugar entre uma regulação principiológica e por delegação, que combina um “framework” de princípios nitidamente inspirado na proposta de regulação europeia, baseada em direitos fundamentais, com um fragmento do modelo de “diretrizes” norte-americano, na medida em que o projeto traz algumas poucas indicações de governança para a regulamentação da IA pelo Poder Público (dentre elas, criar normas sobre impacto regulatório, gestão baseada em riscos e normas delimitadoras de responsabilidade).

Não fica claro, porém, a razão pela qual esse “combinado” seria apropriado para o contexto brasileiro. Como há vários modelos de regulação, o primeiro esforço deveria se concentrar na justificação da escolha do modelo mais adequado.

Também não está claro como será exercida a normatização delegada. Isso porque a administração pública brasileira tem organização centralizada, bem diversa da norte-americana, na qual os órgãos públicos, integrantes do Poder Executivo, não possuem competência para criação de novas obrigações. É certo que as agências reguladoras setoriais possuem poderes normativos, porém há duas limitações importantes se o caminho proposto recai sobre elas.

Primeiro, pelo princípio de legalidade estrita, as agências setoriais têm poderes normativos para preencher, conforme sua cognição técnica, os parâmetros ou conceitos indeterminados já estabelecidos genericamente na legislação setorial, formulada por regras na forma de lois cadre.

Ou seja, as molduras obrigacionais já devem estar previstas em lei, o que não se observa no PL 21/20. O segundo problema está no fato de que as agências reguladoras estão concentradas nos setores da economia em que há alguma delegação da execução de serviços públicos à iniciativa privada, infraestrutura e saúde, por exemplo, e estão longe de cobrir todos os campos de atividade econômica nos quais pode haver aplicação de inteligência artificial.

Por exemplo, qual agência reguladora ficaria incumbida de regulamentar as boas práticas de governança para desenvolvimento e produção de veículos autônomos? A atividade, que tem sido alvo de diversas propostas de regulação, não se enquadra em nenhum setor regulado. Órgãos e entidades da Administração Pública, como o Detran ou Ministério da Economia, por exemplo, certamente não têm poderes normativos, tampouco expertise, para estabelecer esse tipo de regulamento. Também não parece fazer sentido que o PL 21/20 queira, com esse apontamento, atribuir a regulação da IA aos estados e municípios.

Com isso, o PL 21/20, ao optar por uma regulação principiológica aliada a uma “delegação normativa” não congênere ao modelo brasileiro de administração pública, merece escrutínio cuidadoso e traz exigências de aperfeiçoamento que se espera sejam concretizadas no curso do trâmite legislativo e à luz do debate público e especializado que deverá informar os parlamentares.

       ——————————-

[1] Ver Floridi, L. et. al. AI4People Ethical Framework for a good AI Society. Em https://www.eismd.eu/wp-content/uploads/2019/11/AI4People%E2%80%99s-Ethical-Framework-for-a-Good-AI-Society_compressed.pdf

[2] Ver, por exemplo, o Ethics Certification Program for Autonomous Intelligent Systems do Institute of Eletrical and Eletronic Engineers-IEEE.

[3] Bietti, Elettra, From Ethics Washing to Ethics Bashing: A View on Tech Ethics from Within Moral Philosophy (December 1, 2019). DRAFT – Final Paper Published in the Proceedings to ACM FAT* Conference (FAT* 2020), Available at SSRN: https://ssrn.com/abstract=3513182

[4] Sobre as críticas à principiologia para a regulação da Inteligência Artificial, ver Maranhão, J. O Debate sobre o Marco Legal da Inteligência Artificial no Brasil, Estadão, Blog Gestão Política e Sociedade, 06.07.2021. Sobre críticas à principiologia em geral e defesa da regulação procedimental para setores de inovação dinâmica, ver Maranhão, Campos, Lei principiológica ou procedimental para fake news? Conjur, 21.07.2020. Sobre a defesa de um modelo de autorregulação regulada e baseada em obrigações gerais de governança, ver Maranhao et. al. Diretrizes para o Aperfeiçoamento do Marco Legal da IA no Brasil, Conjur, 02.09.2021.

[5] Ver White House Guidance for Regulation of Artificial Intelligence Applications, Executive Office of the President (https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf) e National AI Initiative Act of 2020 (https://www.congress.gov/bill/116th-congress/house-bill/6216/text).

[6] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

JULIANO MARANHÃO – Professor da Faculdade de Direito da USP e Membro-Diretor da International Association for Artificial Intelligence and Law

https://www.jota.info/opiniao-e-analise/artigos/marco-civil-da-ia-colocando-as-cartas-na-mesa-10102021

Compartilhe: