Aprovada pela Assembleia Legislativa e sancionada pelo governador, a Lei Complementar nº 205/2025 estabelece a Política Estadual de Fomento à Inovação em Inteligência Artificial no Estado de Goiás. A nova norma pretende definir diretrizes para o uso ético e seguro da IA em áreas como educação, saúde, segurança pública e serviços ao cidadão. No entanto, a iniciativa abre espaço para questionamentos jurídicos, principalmente quanto à competência legislativa do estado sobre o tema.
Para o advogado Ivan Pereira Prado, consultor jurídico e sócio da área de Regulação, Governança, Compliance e LGPD do escritório Barreto e Dolabella, a LC 205/25 precisa ser analisada à luz da Constituição Federal. “Preliminarmente, é de se alertar para dúvida razoável em relação à constitucionalidade da LC 205/2025, dado que a Constituição Federal prevê a competência privativa da União para legislar sobre informática, telecomunicações, além da proteção e tratamento de dados pessoais”, afirma. Ele lembra que o Congresso Nacional ainda discute o Projeto de Lei nº 2.338/2023, que trata do uso da inteligência artificial em nível federal.
Embora a legislação estadual e o projeto federal compartilhem princípios semelhantes, como o foco na ética e na proteção de dados, existem divergências significativas no tratamento normativo. “Na lei goiana, há a sensação de proteção da livre iniciativa em prejuízo da ampla ‘análise algorítmica’. Já no PL Nacional, ainda em análise pelos legisladores, há a previsão principiológica de prioridade para os direitos fundamentais e exercício da cidadania em relação ao uso da IA e possíveis vieses”, compara Ivan.
Entre os aspectos positivos da regulamentação em Goiás, o advogado destaca o incentivo à inovação e à eficiência na administração pública. “Melhoria e eficiência nos serviços públicos, busca da inovação aberta e soberania tecnológica do Estado, desenvolvimento local, formação de talentos e a responsabilidade e governança”, enumera. Ele aponta ainda os impactos para o setor privado: “Estímulo à inovação aberta, novas oportunidades de negócios com o Estado e os serviços públicos, como na agropecuária e outras áreas estratégicas do Estado. Concorrência e a possibilidade dos sandboxes regulatórios ou negociais (espaços de testes).”
A lei também inclui diretrizes voltadas à proteção de dados pessoais e à transparência nas decisões automatizadas. “A lei estabelece a 'privacidade, proteção de dados pessoais e autodeterminação informativa' como um dos fundamentos do desenvolvimento, implementação e uso de sistemas de IA no Estado de Goiás”, explica. Segundo ele, compete ao Executivo garantir que as soluções adotadas estejam alinhadas a princípios éticos, de segurança e de transparência.
Sobre o acesso à informação, a norma garante que o cidadão seja informado, de forma clara e acessível, sobre a finalidade e a natureza automatizada das decisões que o afetam. “No uso da IA para decisões automatizadas, fica estabelecido o direito à informação sobre o uso de tais sistemas e sua finalidade, de forma acessível, gratuita, prévia e de fácil compreensão, inclusive sobre o caráter automatizado da interação”, afirma Ivan. No caso de decisões que afetem diretamente direitos ou interesses, há direito à informação sobre as premissas fáticas utilizadas pelo sistema — ainda que isso não inclua o código ou a lógica algorítmica em si.
A auditabilidade também é um pilar da norma, embora com limitações. “As soluções baseadas em IA adotadas pelo poder público estadual deverão assegurar a auditabilidade algorítmica, quando for tecnicamente viável”, afirma o especialista. A lei dá preferência ao uso de softwares abertos e modelos open source, com documentação acessível, salvo justificativas técnicas. Mas Ivan alerta para a restrição prevista: “A auditoria e a análise algorítmica dos sistemas de IA serão limitadas às situações em que esses procedimentos sejam absolutamente necessários aos propósitos de governança e controle, além de se sujeitarem à viabilidade técnica.”
Em relação à responsabilidade civil por erros ou abusos decorrentes de decisões automatizadas, a nova lei não traz dispositivos específicos. “A LC 205/25 não trata diretamente da responsabilidade civil em casos de equívocos ou abusos decorrentes do uso da IA e decisões automatizadas. Contudo, os limites apontados funcionam como indicadores da presença de ilicitude no ato administrativo”, explica. Nestes casos, aplica-se a regra geral: “Busca-se a aplicação das regras gerais de responsabilização civil, especialmente a responsabilidade objetiva da Administração Pública e o direito de regresso da Administração Pública em face do agente público responsável nos casos de dolo ou culpa (negligência, omissão e imperícia).”
Sobre a compatibilidade com a Lei Geral de Proteção de Dados (LGPD), o especialista não vê conflito. “Sim. Conforme ponto anterior, inclusive em relação à preocupação sobre a proteção de dados na saúde pública e o amplo direito à informação sobre as premissas fáticas adotadas nos sistemas de tomadas de decisões.”
Para Ivan, o principal impasse jurídico diz respeito à tentativa da legislação estadual de estabelecer princípios gerais de governança sobre algoritmos, algo que estaria, em sua avaliação, sob a competência legislativa da União. “O problema surge quando se tenta estabelecer princípios gerais de governança e diretrizes sobre a análise e funcionamento dos algoritmos. Esse tipo de regulamentação é mais genérica, relacionada à área de informática como um todo, e aí sim entra na competência legislativa da União.”
Ainda assim, o advogado acredita que a norma pode avançar com ajustes. “Quando falamos sobre a possibilidade de uso da IA pela administração pública – seja em nível estadual ou municipal – e os critérios para essa utilização, não há impedimento legal. A legislação estadual pode sim prever a adoção de IA, inclusive no âmbito de programas de fomento, como já ocorre em Goiás com iniciativas voltadas ao setor agropecuário e outras ações de incentivo.”
Mín. 11° Máx. 27°