Com o avanço exponencial da inteligência artificial (IA) em diversas esferas da sociedade, desde a automação industrial até os algoritmos de recomendação em plataformas digitais, surge a imperativa necessidade de uma regulamentação adequada para mitigar potenciais riscos e garantir um desenvolvimento ético e responsável dessa tecnologia. Nesse contexto, a busca por marcos regulatórios se torna essencial para assegurar que a inteligência artificial seja empregada de maneira benéfica e alinhada aos valores sociais e éticos.
Embora não exista um consenso na comunidade científica sobre a delimitação do que seria considerada a IA, algumas proposições correspondem às implementações que a sociedade tem acompanhado. John McCarthy, de forma generalista, aponta que a IA:
“(…) é a ciência e a engenharia de fazer máquinas inteligentes, especialmente programas de computador inteligentes”, enquanto Davi Geiger acrescenta que o conceito de inteligência também precisa ser trabalhado: “o cérebro é algo que sabemos o que é e, em princípio, podemos saber quais são suas funcionalidades. Então que se assim se completa a definição: a IA é a ciência e a engenharia de criar máquinas que tenham funções exercidas pelo cérebro dos animais.” (KAUFMAN, 2019, P.20)
É notório que o uso de algoritmos passou a ser cada vez mais desejável na nossa realidade, diante dos inúmeros benefícios que nos propicia, seja pela limitação do ser humano quanto à capacidade de processamento e armazenamento de dados, pela própria previsibilidade do sistemas de IA ou pela possibilidade de se delegar algumas decisões para mitigar erros (NYBØ, 2019, p.129-130).
Nesse contexto, as aplicações da inteligência artificial representam a concretização de algoritmos desenvolvidos para desempenhar atividades anteriormente reservadas aos seres humanos. A capacidade desses algoritmos em tomar decisões com base na análise, assimilação e interpretação de dados assume uma importância vital ao considerarmos sua interação com a sociedade. Trata-se de um campo de estudo voltado para a criação de sistemas capazes de executar tarefas que tipicamente demandariam inteligência humana, como reconhecimento de voz, visão computacional e tomada de decisões, emergindo como uma das áreas mais promissoras da tecnologia contemporânea. Contudo, é também acompanhada de considerações éticas e sociais, incluindo preocupações relacionadas à privacidade e à potencial violação dos direitos humanos.
Foi demonstrado que a implementação da inteligência artificial pode ser empregada como uma ferramenta poderosa para a exploração do ser humano, por meio da coleta de dados pessoais que alimentam algoritmos com o propósito de compreender-nos em detalhes e realizar previsões e intervenções em nossas emoções e comportamentos. Apesar de silogismos e logaritmos serem capazes de replicar operações inerentes à natureza humana, eles carecem da capacidade de compreender a dimensão ética de suas ações, o que pode resultar em decisões arbitrárias, preconceituosas ou até mesmo ilegais. Para alcançar determinados objetivos, os sistemas de IA podem adotar métodos que vão de encontro à ética e aos valores constitucionalmente consagrados, causando, assim, uma verdadeira erosão da autodeterminação humana (DONEDA, SOUZA, 2018, p. 6)
É inegável que as vulnerabilidades inerentes a cada operação podem apresentar sérios obstáculos para o progresso dos países que fomentam o desenvolvimento da ferramenta. Ao analisarmos o ambiente virtual, especialistas ressaltam que esse amplo espaço se torna um alvo fácil para ataques, expondo instituições, empresas e indivíduos a riscos consideráveis. Entre as fragilidades técnicas mais destacadas estão a qualidade e o viés dos dados utilizados nos modelos de inteligência artificial, a opacidade dos algoritmos complexos e a necessidade de assegurar a robustez e segurança dos sistemas diante de ameaças cibernéticas.
No âmbito do uso a inteligência artificial pelo Estado, a ampla obtenção de dados pessoais, frequentemente coletados de forma compulsória (como por câmeras de segurança pública, fiscalização tributária e execução de políticas públicas), pode representar riscos e ameaças ao Estado Democrático de Direito, bem como aos direitos e garantias fundamentais dos cidadãos.
Do ponto de vista jurídico, questões como privacidade, proteção de dados, discriminação algorítmica, responsabilidade legal, propriedade intelectual e a necessidade de regulamentação e diretrizes éticas são desafios complexos a serem enfrentados. Essas fragilidades técnicas e jurídicas demandam medidas legais para mitigar os riscos associados à inteligência artificial, garantir a proteção dos direitos individuais e promover um ambiente confiável e ético para sua aplicação.
Observa-se, portanto, a falta de parâmetros éticos e legais para o Estado, a fim de garantir a adequada transparência e fundamentação das decisões automatizadas. Da mesma forma, atualmente não existem regras ou diretrizes para definir os casos em que o uso da inteligência artificial por um órgão público seria proibido em atividades de alto risco para direitos e garantias fundamentais.
É necessário definir limites claros para a coleta e uso de dados pessoais, garantir a aplicabilidade dos sistemas de inteligência artificial, promover a auditoria e supervisão de seu funcionamento e estabelecer salvaguardas para evitar o uso indevido ou abusivo da tecnologia.
A fim de assegurar a ética nos sistemas de IA, a formação de órgãos específicos – com intenção de monitoramento e implementação de regulação – tem sido uma medida visualizada como fundamental para a garantia de boas práticas no desenvolvimento e aplicação das novas tecnologias. Marques Neto (2005, p. 2), define:
“(…) regulação como a atividade estatal mediante a qual o Estado, por meio de intervenção direta ou indireta, condiciona, restringe, normatiza ou incentiva a atividade econômica de modo a preservar a sua existência, assegurar o seu equilíbrio interno ou atingir determinados objetivos públicos como a proteção de [hipossuficiências] ou a consagração de políticas públicas.”
No Brasil a forma de intervenção estatal tem se modificado, com a redução da intervenção direta e a intensificação de instrumentos indiretos; e o protagonismo da regulação em sentido estrito é concretizado principalmente pelas agências reguladoras.
Em razão da dificuldade de compreensão sobre a operação dos sistemas de inteligência artificial, os especialistas têm visto com bons olhos a possibilidade de agências administrativas realizarem a regulação, especialmente pela possibilidade de que a equipe seja composta por diversos agentes que possuam expertise sobre as questões técnicas.
Scherer (2016) propõe a criação pelo Poder Legislativo de uma espécie de “Artificial Intelligence Development Act”, o qual seria uma base principiológica para que as agências possam exercer a regulação de maneira efetiva, com a emissão de certificados de confiança para os desenvolvedores de inteligência artificial que cumpram determinadas exigências. Assim, em casos de danos materiais após a aplicação da inteligência artificial, por exemplo, caberia aos tribunais avaliar se o sistema em questão possuía ou não tal certificado.
O objetivo das propostas internacionais é que a regulação da inteligência artificial proporcione um equilíbrio, trazendo segurança jurídica tanto para os cidadãos quanto para os empreendedores, mas ainda assim permitir uma constante e ágil evolução.
O Parlamento Europeu, por exemplo, em sua proposta de regulamento pretende disciplinar o tema com uma abordagem regulamentar horizontal equilibrada e proporcionada ao domínio da inteligência artificial, que se limita aos requisitos mínimos necessários para dar resposta aos riscos e aos problemas associados à inteligência artificial, sem restringir ou prejudicar indevidamente a evolução tecnológica ou aumentar desproporcionalmente o custo de colocação no mercado das soluções dela advindas. A proposta estabelece um quadro jurídico sólido e flexível, na qual a intervenção jurídica é adaptada às situações concretas em que existe um motivo de preocupação justificado ou em que tal preocupação pode ser razoavelmente antecipada num futuro próximo. Ao mesmo tempo, o quadro jurídico inclui mecanismos flexíveis que permitem a sua adaptação dinâmica à medida que a tecnologia evolui e surgem novas situações preocupantes.
O Brasil tem buscado alinhar-se, ao menos em parte, à visão principiológica apontada pela Recomendação da Organização para a Cooperação e Desenvolvimento Econômico, o que enfatiza a preocupação com o desenvolvimento sustentável da inteligência artificial, centrada em valores de respeito aos seres humanos e à ideia de justiça.
Seguindo a tendência global, nos últimos anos o Brasil apresentou algumas iniciativas de regulação específica da IA: (i) o Projeto de Lei da Câmara dos Deputados nº 21/2020; (ii) os Projetos de Lei do Senado Federal nº 5.051/2019; 5.691/2019 e 872/2021; (iii) a Estratégia Brasileira de Inteligência Artificial de iniciativa do Poder Executivo Federal, instituída pela Portaria MCTI nº 4.617/2021 e alterada pela Portaria MCTI nº 4.979/2021.
A regulação da inteligência artificial é tema estratégico para qualquer país e precisa ser realizada na adequada medida, sem que reduza a autonomia dos indivíduos, inviabilize as atividades produtivas ou dificulte os avanços tecnológicos e científicos, bem como o desenvolvimento econômico e social, com observância e respeito aos direitos fundamentais e aos princípios constitucionais.
Bibliografia:
DONEDA, Danilo Cesar Maganhoto; SOUZA, Carlos Affonso Pereira de Souza et al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar, Fortaleza, v. 23, n. 4. 2018.
KAUFMAN, Dora. A inteligência artificial irá suplantar a inteligência humana?. Barueri, SP: ESTAÇÃO DAS LETRAS E CORES EDI, v. 3, 2019.
NYBØ, Eric Fontenele. O Poder dos Algoritmos. São Paulo: Enlaw, 2019.
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade.
Rio de Janeiro: Arquipélago Editorial, 2019. (Série Pautas em Direito, v. 5).
MARQUES NETO, Floriano de Azevedo. A nova regulamentação dos serviços públicos. Revista Eletrônica de Direito Administrativo Econômico: REDAE, Salvador, n. 1, p. 1-18, fev./abr. 2005. Disponível em: direitodoestado.com.br/codrevista.asp?cod=10. Acesso em: 26 set. 2023.
MELO, Vinicius Holanda; PEREIRA JÚNIOR, Antonio Jorge. OS LIMITES DA INTELIGÊNCIA ARTIFICIAL NO EXERCÍCIO DA PRUDÊNCIA: AS ATIVIDADES JURÍDICAS CORREM RISCO? Revista dos Tribunais, v. 1015, ed. Maio/2020. Disponível em: https://www.thomsonreuters.com.br/content/dam/openweb/documents/pdf/Brazil/revistasespecializadas/rt1015-vinicius-holanda-melo-e-antonio-jorge-pereira-junior-os-limites-dainteligencia-artificial.pdf. Acesso em: 29 mai. 2023.
SCHERER, Matthew U. Regulating artificial intelligence systems: risks, challenges, competencies, and strategies. Harvard Journal of Law & Technology, [Cambridge, MA], v. 29, n. 2, p. 353-400, 2016. Disponível em: https://jolt.law.harvard.edu/articles/pdf/v29/29HarvJLTech353.pdf. Acesso em: 26 set. 2023