Desde segunda-feira 9, está disponível por 20 dólares mensais, para assinantes do ChatGPT nos EUA, o mais novo avanço tecnológico em Inteligência Artificial voltada ao “cidadão comum”. Desenvolvido pela OpenAI e capaz de gerar vídeos realistas a partir de comandos de texto simplificados, o sistema Sora chega ao mercado cercado de polêmica, tantas são as dúvidas sobre o seu impacto em áreas como a produção audiovisual e o jornalismo e os temores quanto ao uso indevido para a disseminação de desinformação política ou atentados contra a honra. Enquanto os cães ladram, a caravana da empresa comandada por Sam Altman acelera o ritmo, de olho na disputa por um mercado que não para de crescer, povoado por dezenas de startups que prometem outras novidades para 2025, quando o mundo poderá conhecer a Inteligência Artificial Geral (AGI, na sigla em inglês), nova fase do desenvolvimento da tecnologia. Líder nessa corrida, a OpenAI recebeu um empurrãozinho de 16 bilhões de dólares dado pela gigante Microsoft para manter sua posição.
Na maioria dos países, a efervescente disputa comercial não é acompanhada na mesma velocidade pelos esforços para regulamentar o uso da nova tecnologia. No Brasil, onde a estagnação do setor de CT&I no governo Bolsonaro fez o País entrar atrasado na discussão, tanto no aspecto científico quanto no legal, a semana trouxe um importante avanço com a votação pelo Senado da lei que regulamenta o uso da IA em território nacional. A aprovação do projeto, que agora segue para a Câmara, coincide com a retomada pelo Supremo Tribunal Federal da discussão de outro aspecto regulatório fundamental: a criação de um arcabouço legal para definir a responsabilização das grandes plataformas, as chamadas big techs, em relação aos conteúdos por elas veiculados.
O texto aprovado prevê remuneração pelo uso de obras protegidas por direitos autorais na construção de ferramentas de IA
No Senado, a aprovação da proposta de regulação da IA apresentada pelo presidente da Casa, Rodrigo Pacheco, do PSD, aconteceu na terça-feira 10, em votação simbólica, após um ano e meio de discussão. Entre outros pontos, o Projeto de Lei define quais tecnologias são consideradas de “alto risco”, com uma “regulamentação reforçada”, e quais são as de “risco excessivo”, que sofrerão proibição. Estão vedados, por exemplo, a “utilização de IA para operação de armas autônomas” e o “uso de ferramentas pelo Poder Público para avaliar, classificar ou ranquear pessoas para acessos a bens ou serviços”. Outro ponto importante do texto determina a remuneração aos autores de qualquer conteúdo utilizado para alimentar e treinar novas ferramentas de IA. Para os que descumprirem as novas regras, o projeto prevê punições que vão desde uma simples advertência até a aplicação de multas que podem chegar a 50 milhões de reais ou 2% do faturamento bruto da empresa punida.
A aprovação pelo Senado foi bem recebida pelo governo, que, por intermédio da Secretaria de Comunicação, trabalhou na articulação entre diferentes órgãos internos e no diálogo com o setor produtivo, a sociedade civil e o Congresso: “Foi aprovado um bom projeto, capaz de proteger direitos e inaugurar no Brasil um marco para a Inteligência Artificial que seja à prova de futuro, ou seja, que não precisa ser atualizado a cada poucos anos porque está baseado em riscos. Embora a tecnologia mude sempre, os riscos não mudam tão frequentemente. É um modelo flexível e que equilibra de forma positiva a proteção de direitos e a preservação da competitividade”, diz João Brant, secretário de Políticas Digitais da Secom.

Acordo. O marco regulatório passou por votação simbólica no plenário da Casa Legislativa – Imagem: Marcos Oliveira/Agência Senado
A nova lei prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). Farão parte do SIA o Comitê de Especialistas e Cientistas de Inteligência Artificial e o Conselho Permanente de Cooperação Regulatória de Inteligência Artificial, este último composto de órgãos do Executivo ainda a serem definidos. “O sistema de governança é positivo porque preserva o papel dos órgãos setoriais e estabelece um órgão central com capacidade de gerenciar e de atuar sobre setores que não têm regulação específica e passarão a ser acompanhados por esse órgão central”, diz Brant. Para o presidente da comissão especial do Senado que analisou o projeto, Carlos Viana, do Podemos, o texto “não tira qualquer liberdade, mas diz aos criadores de IA que eles têm responsabilidades quanto ao uso de suas ferramentas”.
A responsabilização das big techs por aquilo que veiculam é também o norte dos dois julgamentos simultâneos sobre o tema que acontecem no STF. Um deles discute a constitucionalidade do Artigo 19 do Marco Civil da Internet, a estabelecer que um provedor somente deve ser responsabilizado por danos decorrentes do conteúdo divulgado se tiver descumprido uma determinação judicial para retirá-lo do ar. Em voto proferido na semana passada, o relator, ministro Dias Toffoli, apontou a inconstitucionalidade dessa passagem e determinou que, em casos de conteúdos ilegais ou ofensivos, basta uma notificação extrajudicial para que estes tenham de ser obrigatoriamente removidos. Toffoli defendeu ainda a ampliação do artigo 21 do Marco Civil, que prevê a exclusão automática de conteúdos em diversas modalidades, como ameaças ao Estado Democrático de Direito, terrorismo, induzimento ao suicídio e incitação à violência contra vulneráveis, entre outras. “As zonas cinzentas da legislação sempre favoreceram as big techs”, observou o ministro.
A invalidação do Artigo 19 do Marco Civil da Internet reforça o poder das empresas de decidir sobre o que pode ou não ser publicado
Na quarta-feira 11, o relator do segundo julgamento no STF, ministro Luiz Fux, começou a ler seu voto, que também aponta para maior responsabilização das redes, mas ainda não havia finalizado até a conclusão desta reportagem. A expectativa nas entidades representativas da sociedade é positiva, embora lacunas ainda precisem ser preenchidas. O Comitê Gestor da Internet no Brasil, por exemplo, defende a constitucionalidade do Artigo 19, mas sugere que o Supremo estabeleça uma interpretação de acordo com a Constituição para definir mais responsabilidade para as big techs: “Defendemos regras mais rígidas, mas que precisam vir acompanhadas de outros mecanismos para que o Estado e a sociedade impeçam abusos. O voto do ministro Toffoli não levou em consideração a diversidade do ecossistema de aplicações que serão negativamente afetadas com a inconstitucionalidade do Artigo 19. Ao colocar todo mundo na mesma bacia das almas, vai trazer um cenário de insegurança jurídica enorme”, avalia Renata Mielli, coordenadora do CGI.
A jornalista defende a manutenção do previsto no Artigo 19 apenas para os intermediários clássicos de conteúdo e a criação de novas e específicas obrigações para as big techs: “Infelizmente, o voto do Toffoli não veio nesse sentido. Podemos correr o risco de as novas regras de responsabilidade, sem notificação prévia, terem um efeito indesejado de ampliar ainda mais o poder privado das big techs de decidir sobre o que pode ou não circular de conteúdo, de forma totalmente discricionária. Pior, pode haver uma moderação mais ativa ainda, uma vez que o receio de serem responsabilizadas civilmente por conteúdos de terceiros pode gerar um vigilantismo e a remoção de conteúdos legítimos”.

Tendência. O Supremo cogita ampliar leque de situações que ensejam a exclusão automática de conteúdos
Mielli lamenta que o PL 2630, que trata do tema, esteja engavetado no Congresso. “O projeto propõe mais responsabilidade, ao lado de uma série de outras obrigações que precisam ser vistas em conjunto para que de fato pudessem ter o impacto que se buscava. Infelizmente, a Câmara não encontrou ambiente para votá-lo”, afirma a coordenadora do CGI. “A postura da oposição de extrema-direita, que navega nos desvãos legais das plataformas com a habilidade de um argonauta, é o maior empecilho para o andamento do projeto. Os acontecimentos políticos polarizados no Brasil aumentam o clamor para ampliar a responsabilidade dessas empresas.”
Relator do PL 2630 na Câmara, o deputado Orlando Silva, do PCdoB, é outro a lamentar: “Essa regulação deveria ocorrer via Parlamento, que é o lugar natural do debate político e que recebe as legítimas pressões e contrapressões das forças sociais e econômicas que existem na sociedade. Ao decidir pela omissão, o Parlamento abre caminho para que o STF trate o tema, o que se torna inescapável, uma vez que existe uma ADI e o Judiciário precisa dar resposta a ela”. No