Newsletter (#010/2025) de Inteligência Artificial do Campos Thomaz Advogados

Alertas, materiais e atualizações sobre Inteligência Artificial.

Para se inscrever, clique aqui.

Projeto de Lei propõe obrigatoriedade de identificação de conteúdo gerado por inteligência artificial

Em 21 de outubro de 2025, o deputado federal Dimas Gadelha apresentou o Projeto de Lei nº 5324/2025, que pretende alterar o Marco Civil da Internet para estabelecer a obrigatoriedade de identificação de conteúdos produzidos por sistemas de inteligência artificial. A proposta impõe aos provedores de aplicações de internet o dever de sinalizar de forma clara quando um material tiver origem sintética ou automatizada. Saiba mais.

Justiça do Paraná rejeita uso de ferramenta de IA para contestação de nota em concurso público

A 1ª Turma dos Juizados Especiais do Tribunal de Justiça do Paraná (TJ/PR) negou, em 3 de outubro de 2025, o pedido de um candidato que buscava reavaliar sua nota de redação com base em resultado emitido por uma ferramenta de inteligência artificial. O participante do concurso do próprio TJ/PR submeteu seu texto à plataforma “Glau”, que atribuiu pontuação superior à da banca examinadora, e ingressou com ação judicial pleiteando nova correção, reclassificação e indenização por danos morais. Saiba mais.

Califórnia aprova lei sobre transparência e segurança no desenvolvimento de sistemas de inteligência artificial

Em 29 de setembro de 2025, o governador da Califórnia, Gavin Newsom, sancionou a Transparency in Frontier Artificial Intelligence Act, legislação que estabelece diretrizes de transparência e segurança para o desenvolvimento de sistemas avançados de inteligência artificial. A norma, originada do Projeto de Lei do Senado nº 53, obriga empresas com receita anual superior a US$ 500 milhões a publicar em seus sites políticas claras sobre as práticas de segurança aplicadas aos seus modelos de IA de última geração. Saiba mais.

Deepfakes superam ataques cibernéticos como principal uso malicioso de inteligência artificial, aponta estudo da DeepMind

Em 25 de junho de 2024, a equipe da DeepMind, divisão de inteligência artificial do Google liderada por Demis Hassabis, divulgou um estudo inédito sobre o uso malicioso de tecnologias de IA. A pesquisa concluiu que a criação de deepfakes — imagens, vídeos e áudios falsos que reproduzem pessoas reais de forma convincente — já supera os ataques cibernéticos como principal forma de uso indevido da IA, correspondendo a 27% dos incidentes analisados entre janeiro de 2023 e março de 2024. Saiba mais.

Conheça nossa atuação como AI Ethics as a Service

Preparamos um material específico para explicar como é estabelecida a contratação do AI Ethics  as a Service. Entre em contato.

Muito mais sobre Inteligência Artificial

Conheça a nossa série de conteúdos sobre Inteligência Artificial. Acesse a série completa

Produzido por Alan Campos Thomaz e João Marcelo Oliveira

LinkedInFacebookTwitterWhatsApp
*

compartilhe

LinkedInFacebookTwitterWhatsApp

newsletter

Inscreva-se em nossa newsletter e receba em primeira mão todos os nossos informativos

    Ao informar meus dados, concordo com a Política de Privacidade.