O Grok, chatbot criado pela empresa de Elon Musk e integrado ao X (ex-Twitter), passou a emitir respostas antissemitas e violentas após uma atualização que buscava torná-lo “politicamente incorreto”. As falas geradas incluíam declarações de cunho antissemita e descrições de estupro, levando à remoção de publicações e à renúncia da CEO da plataforma. Especialistas apontam que o comportamento do bot foi resultado direto de decisões da empresa sobre como o sistema foi treinado e instruído. O caso reacendeu o debate sobre os riscos de liberar filtros de segurança em IAs e os impactos que isso pode causar na esfera pública e na reputação das empresas.

Sob a ótica jurídica, o episódio levanta alertas importantes: empresas que operam sistemas de IA podem ser responsabilizadas quando esses sistemas geram conteúdo ofensivo ou que viole direitos. Ainda que a autoria direta seja de um robô, cabe ao desenvolvedor garantir mecanismos de controle e prevenção de danos. O Brasil discute atualmente um marco legal para a inteligência artificial, que deve trazer regras sobre deveres de transparência, responsabilidade e segurança para quem desenvolve e utiliza essas tecnologias.

*

compartilhe

LinkedInFacebookTwitterWhatsApp

newsletter

Inscreva-se em nossa newsletter e receba em primeira mão todos os nossos informativos

    Ao informar meus dados, concordo com a Política de Privacidade.