(FOLHAPRESS) – A cantora Anitta publicou no início do mês uma série de vídeos interagindo com um aplicativo de IA (inteligência artificial) que imita sua voz e personalidade. O app, criado pela empresa Character.AI, simula conversas humanas a partir de personagens criados por usuários e está envolvido em polêmicas nos Estados Unidos.
Especialistas em direito digital ouvidos pela reportagem afirmam que o uso sem autorização de voz e imagem é considerado ilícito civil. Também pode configurar crime contra a honra se o conteúdo for ofensivo ou difamatório, levando a indenizações por danos morais e exploração comercial indevida.
Nos vídeos publicados nos stories do Instagram, Anitta chega a confrontar sua versão digital: “Esse aplicativo deveria ser processado porque deveria estar pagando para usar minha voz, imagem e personalidade.”
A reportagem entrou em contato com a assessoria de Anitta para questionar se a cantora pretende tomar alguma atitude além de gravar os vídeos, mas não obteve resposta até a publicação deste texto.
Em nota, a Character.AI disse que remove personagens criados por usuários que violem direitos de propriedade intelectual, direitos autorais ou políticas dos termos de serviço, tanto de forma proativa quanto em resposta a denúncias de usuários.
O aplicativo afirmou ainda que conta com uma equipe de confiança e segurança para detectar e moderar violações, além de contar com listas de bloqueio personalizadas que são aumentadas regularmente.
No Brasil, a proteção da voz, imagem e dados pessoais são previstos pela Constituição Federal (artigo 5°), pelo Código Civil (artigo 20), pelo Estatuto da Criança e do Adolescente (artigo 17) e pela Lei Geral de Proteção de Dados (artigo 2°).
Embora a legislação atual já proteja esses direitos, o Projeto de Lei n° 2338, que tramita no Congresso, busca ampliar a regulamentação para lidar com os avanços da IA no país.
O uso legítimo da voz ou imagem de uma pessoa exige um consentimento explícito, que pode ser formalizado por meio de contrato escrito, áudio, e-mail ou até mesmo mensagens de WhatsApp, segundo especialistas.
Na plataforma Character.AI, os termos de uso estabelecem que é proibido o uso de gravações de terceiros sem consentimento, bem como a criação de deepfakes ou falsificação de identidade.
“Se eles proíbem nos termos, e houver denúncia de descumprimento, eles precisam remover do ar. Se não estão sujeitos a serem responsabilizados”, afirma Patrícia Peck, advogada especialista em direito digital.
Além disso, os termos não estão disponíveis em português, o que contraria a legislação brasileira, já que o serviço é ofertado para usuários no Brasil.
Criada em 2022 pelos ex-engenheiros do Google Noam Shazeer e o brasileiro Daniel de Freitas, a startup recebeu um investimento inicial de quase US$ 200 milhões. Em agosto do ano passado, o Google adquiriu a tecnologia da empresa por US$ 3 bilhões, mantendo os fundadores e parte da equipe na sua divisão de pesquisa de IA.
“A legislação brasileira exige que tecnologias operando no país respeitem as leis locais, independentemente de serem de empresas estrangeiras”, diz Peck.
A advogada também destaca que a ressalva (disclaimer) informando que as interações são fictícias e geradas por IA logo abaixo do campo de envio de mensagens não é suficiente para afastar responsabilidades, especialmente ao lidar com públicos vulneráveis.
“A comunicação deve ser mais didática e ostensiva, com mecanismos explícitos de aviso, canais de denúncia e sistemas para mitigar riscos à segurança dos usuários especialmente para crianças, adolescentes e idosos”, afirma Peck.
Rony Vainzof, sócio do VLK Advogados e especialista em direito digital, também entende que disclaimers não eximem as empresas de responsabilidade em casos de danos morais ou uso comercial indevido.
“Se a IA gerar conteúdo difamatório ou prejudicar a imagem da pessoa, há direito à indenização não apenas pelo uso comercial, mas também por danos morais”, explica.
Exemplo disso é o caso do uso da voz para práticas de conotação sensual ou sua associação a comportamentos que comprometam a reputação do titular, como xingar, difamar, ridicularizar ou ofender o dono da voz original, podendo caracterizar crime contra a honra.
Para evitar problemas legais, Vainzof reforça a necessidade de uma governança ética na inteligência artificial, além de contratos claros de licenciamento, a exemplo do modelo adotado pelo Spotify, que trouxe regras para o licenciamento de músicas.
“Assim como no caso da música, é preciso criar normas para a exploração ética de voz e imagem em deepfakes”, diz. “A tecnologia pode ser uma ferramenta poderosa, mas precisa ser usada de forma ética e dentro dos limites legais. É possível explorar essas inovações comercialmente, desde que com autorização e respeito aos direitos de personalidade”.
Com ele concorda Peck. “Temos proteção suficiente hoje, mas precisamos de atualizações para acompanhar a revolução tecnológica”, afirma.
Apesar dos riscos, Vainzof não vê o uso de deepfake como sinônimo de crime.
“Exemplos bem-sucedidos incluem a campanha de David Beckham, que usou deepfake para conscientizar sobre a malária em vários idiomas, e a propaganda da Elis Regina, autorizada por seus familiares, que emocionou o público ao trazer a cantora de volta às telas.”
Leia Também: Kate Middleton revela detalhe sobre quimioterapia