Nova legislação do Ceará regula uso de inteligência artificial com supervisão humana

An innovative conference room filled with professionals discussing the implications of a new law regulating the use of artificial intelligence, featuring modern technology and collaborative tools, with a focus on human oversight. no texts on scene. Keywords: photorealistic style, high resolution, 4k details, HDR, cinematic lighting, professional photography, studio lighting, vibrant colors.

Uma nova lei estadual aprovada pela Assembleia Legislativa do Ceará e sancionada pelo governador Camilo Santana (PT) exige que sistemas baseados em inteligência artificial sejam supervisionados por humanos.

A lei 17.611/2021, de autoria do deputado Queiroz Filho (PDT), estabelece responsabilidades e diretrizes para a tecnologia e se aplica tanto a empresas sediadas no Ceará quanto às que tenham sistemas em uso e operação no Estado. Ela foi sancionada em 11 de agosto deste ano.

O texto é curto e traz apenas quatro artigos. A questão da supervisão é tratada no artigo 2º, inciso IV, que traz a seguinte diretriz: “garantir que os sistemas sejam sempre gerenciados por humanos, e a eles submetidos, devendo ser mantida a autonomia e fiscalização humana”.

Em entrevista à TV Assembleia, o parlamentar diz que a lei não é uma regulamentação e, sim, um estabelecimento de princípios e diretrizes de respeito ao ser humano, de não discriminação e de responsabilização.

Associação de empresas aponta insegurança jurídica

O projeto foi criticado pela Associação Brasileira das Empresas de software (Abes). A entidade alega que o texto traz insegurança jurídica e inibe a inovação.

“O risco de uma judicialização deixará o estado menos atrativo para investimentos, especialmente no promissor mercado das startups”, diz Rodolfo Fücher, presidente do grupo, em comunicado. Já Loren Spíndola, coordenadora do grupo de trabalho de IA da Abes, defende que as regulamentações sobre o tema sejam centralizadas pela União.

O comunicado lembra que há dois projetos de lei — o 21/2020, na Câmara, e o 872/2021, no Senado — que já tratam do assunto. Ambos contaram, inclusive, com audiências públicas para debater o tema. A Abes também menciona a Estratégia Brasileira de Inteligência Artificial (EBIA), lançada pelo Governo Federal em abril deste ano.

LGPD previa revisão humana, mas parágrafo foi vetado

A Lei Geral de Proteção de Dados (LGPD) chegou a prever o direito à revisão humana de decisões automatizadas feitas no tratamento de dados. No entanto, o parágrafo que determinava isso foi vetado pelo presidente Jair Bolsonaro em 2019, ao sancionar a criação da Autoridade Nacional de Proteção de Dados (ANPD).

Na ocasião, ele argumentou que a medida contrariava o interesse público por inviabilizar os modelos de negócios de muitas empresas, principalmente as startups, e poderia dificultar a oferta de crédito.

Inteligência artificial pode reproduzir viés

As tentativas de regular a inteligência artificial têm lá seus motivos, por mais que nem sempre encontrem a melhor forma de fazer isso. Afinal, não são poucos os exemplos de como a tecnologia pode ter um efeito inesperado e até mesmo contrário ao pretendido.

Um dos maiores casos é o de um algoritmo usado por planos de saúde nos EUA: na hora de determinar quem deveria ter acesso a programas de cuidados especiais, ele acabou priorizando pacientes brancos mais saudáveis em detrimento de pacientes negros com mais complicações. Isso ocorreu porque o sistema foi treinado para determinar o risco de saúde a partir dos custos, sem levar em consideração que a população negra do país é mais pobre do que a branca e, portanto, não tem como gastar o mesmo em tratamentos.

Recentemente, o Twitter se envolveu em uma polêmica quando usuários perceberam que a ferramenta de recortar imagens da rede sempre destacava rostos brancos. A empresa diz não ter encontrado viés em seus testes, mas tentou resolver o problema aumentando o tamanho das prévias das imagens na interface.

Viés e discriminação

Os impactos de decisões automatizadas mal fundamentadas podem ser bastante sérios. A discriminação pode acontecer não só em áreas sensíveis, como saúde e justiça, mas também em processos de recrutamento e seleção. Sistemas que utilizam IA para selecionar candidatos muitas vezes acabam replicando preconceitos existentes na sociedade, pois são alimentados por dados históricos que refletem essas injustiças.

Por exemplo, pesquisas mostraram que softwares de recrutamento podem desqualificar candidatos com nomes que soam “não tradicionais” ou que têm características que fogem do padrão predominante. Em outras palavras, as máquinas podem não apenas replicar, mas amplificar preconceitos, algo que necessita de regulamentação e supervisão humanas atentas.

Novas abordagens de regulação

Com o avanço acelerado da IA, muitos países estão buscando novas formas de regulamentar essas tecnologias. A ideia é garantir que sistemas não apenas sejam eficientes, mas que também respeitem questões éticas e sociais. Regulações que exigem supervisão humana são um exemplo disso. Países como a União Europeia têm trabalhado em regulamentos que exigem explicabilidade e transparência nas decisões automatizadas.

Nesse sentido, é essencial que empresas desenvolvam não apenas a tecnologia em si, mas também mecanismos de auditoria e supervisão. A educação e a formação continuada para profissionais de tecnologia também são cruciais para que possam entender e mitigar os riscos associados à IA.

Colaboração entre setores

A colaboração entre o setor público, privado e a academia pode ser uma forma eficaz de abordar questões complexas envolvendo IA. A troca de conhecimentos e experiências pode auxiliar na criação de políticas mais robustas e eficazes. Além disso, é fundamental a inclusão de especialistas em ética nas discussões sobre o desenvolvimento de sistemas de IA.

Exemplos internacionais

Pelo mundo, diversas iniciativas têm surgido para lidar com os desafios da IA. Em alguns países, legislações específicas foram criadas para limitar o uso de reconhecimento facial, enquanto outros países adotaram um enfoque mais abrangente, com códigos de ética que orientam o desenvolvimento e a implementação de tecnologias.

O objetivo central dessas iniciativas é garantir que o progresso tecnológico não ocorra à custa dos direitos e das expectativas sociais das populações. Isso implica um compromisso com a equidade, a transparência e a responsabilidade, que são imperativos no atual cenário tecnológico.

Compartilhe nas Redes: