Estados Unidos e União Europeia deram novos passos importantes na regulação de IA nesta última semana, pressionando big techs e startups a seguirem normas mais rígidas de transparência, ética e segurança no uso de inteligência artificial. O movimento global ocorre em meio ao crescimento exponencial de ferramentas de IA generativa, deepfakes e algoritmos que influenciam eleições e a economia digital.
Regulação de IA avança nos EUA com foco em eleições
Nos Estados Unidos, o Congresso debate um projeto que proíbe o uso de IA em deepfakes em propagandas eleitorais e exige que plataformas identifiquem conteúdos gerados por inteligência artificial. O projeto também busca criar penalidades para quem utilizar IA de forma fraudulenta para manipular a opinião pública, ampliando a discussão sobre o papel das redes sociais e das plataformas de geração de conteúdo.
Além disso, a Casa Branca está finalizando diretrizes executivas para regulamentar a inteligência artificial em setores sensíveis, como saúde, educação e segurança pública. Segundo a administração, o objetivo é “incentivar a inovação responsável” ao mesmo tempo em que protege os cidadãos de possíveis abusos.
AI Act da União Europeia entra em fase de testes
Na Europa, a regulação de IA avança com a implementação do AI Act, legislação que estabelece um conjunto de normas para o uso ético da inteligência artificial em toda a União Europeia. O AI Act classifica os sistemas de IA em categorias de risco e impõe requisitos de transparência, explicabilidade e supervisão humana para algoritmos utilizados em áreas como crédito, reconhecimento facial e processos seletivos.
As empresas que atuam na UE terão que adaptar suas ferramentas de IA para cumprir as novas exigências, sob pena de multas que podem chegar a 7% do faturamento anual global, um nível semelhante às penalidades previstas no GDPR. Testes estão sendo realizados em parceria com empresas e órgãos reguladores para medir o impacto econômico e a viabilidade de adequação das startups de IA.
Impacto no mercado e pressão sobre big techs
A regulação de IA nos EUA e na UE está pressionando big techs como Google, Meta, Microsoft e OpenAI a implementar mecanismos de identificação de conteúdos gerados por IA, além de medidas de controle de viés em algoritmos. Startups do setor também enfrentam desafios para equilibrar inovação rápida com conformidade regulatória, principalmente em áreas como geração de imagens, textos e vídeos sintéticos.
As novas regras buscam mitigar riscos relacionados ao uso indevido de IA, incluindo a disseminação de fake news, manipulação de comportamento dos usuários e impactos no mercado de trabalho. Entidades de direitos digitais apoiam a regulação, destacando que a inteligência artificial precisa estar sujeita a regras claras para evitar danos sociais e econômicos.
Brasil observa avanços e discute regulação de IA
O avanço da regulação de IA em grandes mercados influencia também o debate no Brasil, onde a Câmara dos Deputados analisa projetos para regulamentar o uso de algoritmos e IA em setores sensíveis. Especialistas afirmam que, ao se alinhar a tendências internacionais, o Brasil poderá atrair investimentos em IA responsável e evitar barreiras comerciais com a União Europeia e os Estados Unidos no futuro.
O governo federal, no entanto, enfrenta críticas por não avançar em uma proposta unificada que garanta transparência e proteção de dados nos sistemas de IA usados por empresas privadas e pelo setor público. As discussões devem avançar no segundo semestre, acompanhando o cenário global de regulamentação.
Empresas precisarão se adaptar
Empresas que desenvolvem soluções de inteligência artificial precisam, cada vez mais, investir em compliance, auditorias de algoritmos e treinamento de equipes para atender às demandas das novas legislações. Especialistas em tecnologia destacam que a regulação de IA não deverá frear a inovação, mas exigirá maior responsabilidade e rastreabilidade em sistemas que utilizam grandes volumes de dados.
Para startups e pequenas empresas, o desafio será integrar medidas de explicabilidade e mitigação de riscos em seus modelos de negócio, garantindo competitividade em um mercado cada vez mais regulado e observando oportunidades de atuação em nichos que demandam IA responsável.
Leia também nossa análise sobre o Cadastro de DNA sancionado por Tarcísio e o impacto de legislações em políticas públicas no Brasil.
O MIDIAGEM seguirá acompanhando os próximos passos das discussões sobre a regulação de IA e os impactos dessa transformação no mercado, na sociedade e na política internacional.
