A regulamentação da IA varia de país para país, criando desafios para empresas que operam globalmente. A falta de harmonização regulatória pode resultar em obstáculos ao comércio e à inovação
No último mês, o presidente americano Joe Biden assinou uma ordem executiva descrevendo as primeiras regulamentações do governo sobre os sistemas de Inteligência Artificial (IA). A ordem executiva exige testes para evitar que a tecnologia seja usada para armas biológicas ou nucleares e recomenda a adoção de selos para identificar conteúdo gerado pela tecnologia. Enquanto isso, o Brasil enfrenta desafios significativos e caminha a passos lentos na mesma direção.
Atualmente, quatro projetos de lei relacionados ao desenvolvimento, implementação e uso de sistemas de IA estão em tramitação no Congresso Nacional e estão programados para debates ao longo deste ano. O projeto de lei 2338/23, apresentado pelo senador Rodrigo Pacheco (PSD/MG) em maio, se destaca por sua complexidade, uma vez que visa criar um marco legal abrangente para a regulamentação da inteligência artificial no país.
Desde o lançamento do ChatGPT em novembro de 2022, que estabeleceu recordes como a aplicação de consumo de crescimento mais rápido da história, de acordo com um estudo da UBS, a adoção generalizada da Inteligência Artificial generativa tem suscitado preocupações públicas, desencadeado batalhas legais e levantado questões entre os legisladores. Um exemplo foi a polêmica que surgiu dias após a Microsoft integrar o ChatGPT em seu mecanismo de busca, o Bing. A empresa foi criticada pela presença de discursos tóxicos e pela disseminação de conteúdo prejudicial. Além disso, os populares geradores de imagens de IA também foram alvo de críticas devido a viés racial e à propagação de estereótipos.
Gabriela Schirmer, sócia fundadora do Perroni Sanvicente & Schirmer Advogados (PS&S), destaca que não basta regulamentar a IA se não houver pessoas preparadas para executar esse trabalho de fiscalização, garantido que as sanções sejam aplicadas da forma correta, se e quando necessárias. “De nada adiantará punir empresas e corporações, se na prática não existir uma política clara e que realmente priorize e combata qualquer tipo de prejuízo à vida das pessoas com responsabilidade e transparência. A IA assim como as demais tecnologias que existem hoje no mundo são ótimas ferramentas, desde que não afetem os princípios e direitos previstos dentro da nossa Constituição”, diz.
A regulamentação da IA varia de país para país, criando desafios para empresas que operam globalmente. A falta de harmonização regulatória pode resultar em obstáculos ao comércio e à inovação. “O ponto que mais preocupa e tem tirado o sono de empresas e corporações que fazem uso de sistemas de IA é o que tange à responsabilidade civil, sendo o causador pelo dano patrimonial, moral, individual ou coletivo obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. Além disso, as empresas ou responsáveis poderão arcar com multas no valor de até R$50 milhões de reais por infração ou até 2% do faturamento bruto anual. Caso a advertência e a multa não resolvam, a sanção poderá chegar à proibição total do uso de IA”, explica Schirmer.