
Por William Rocha – Sócio do escritório Terra Rocha Advogados, Diretor de Inclusão Digital e Inovação da OAB-RJ – Colunista convidado.
A transformação digital trouxe ganhos inegáveis à sociedade, mas também remodelou a dinâmica dos ilícitos.
O recente aumento das denúncias de crimes cibernéticos no Brasil indica não apenas maior conectividade, mas uma mudança qualitativa nas práticas criminosas. Entre elas, destaca-se o uso de imagens e conteúdos gerados por inteligência artificial como instrumento de fraude, extorsão e desinformação.
A imagem, historicamente percebida como elemento de veracidade, passa a ser vetor de engano. Ferramentas de IA permitem criar rostos inexistentes, simular falas, reproduzir expressões e montar situações que jamais ocorreram.
A imagem, historicamente percebida como elemento de veracidade, passa a ser vetor de engano. Ferramentas de IA permitem criar rostos inexistentes, simular falas, reproduzir expressões e montar situações que jamais ocorreram.
O resultado é a erosão de um dos pilares da confiança digital: A evidência visual.
No campo dos golpes, a aplicação é direta: Perfis falsos com fotos hiper-realistas, simulação de familiares ou de executivos solicitando valores, uso indevido de imagem de figuras públicas para conferir credibilidade a fraudes e montagens com conteúdo íntimo para extorsão.
No campo dos golpes, a aplicação é direta: Perfis falsos com fotos hiper-realistas, simulação de familiares ou de executivos solicitando valores, uso indevido de imagem de figuras públicas para conferir credibilidade a fraudes e montagens com conteúdo íntimo para extorsão.
Trata-se de engenharia social potencializada por tecnologia de alta escala.
Do ponto de vista jurídico, muitas dessas condutas encontram enquadramento em tipos já existentes, como estelionato, falsa identidade e crimes contra a honra. Contudo, a IA altera escala, velocidade e alcance do dano, tensionando a suficiência das respostas tradicionais.
Do ponto de vista jurídico, muitas dessas condutas encontram enquadramento em tipos já existentes, como estelionato, falsa identidade e crimes contra a honra. Contudo, a IA altera escala, velocidade e alcance do dano, tensionando a suficiência das respostas tradicionais.
O desafio não é criar um novo tipo penal para cada inovação, mas interpretar o ordenamento à luz das novas materialidades tecnológicas.
A matéria também dialoga com a proteção de dados pessoais.
A matéria também dialoga com a proteção de dados pessoais.
A imagem é dado pessoal quando permite identificar alguém. Seu uso fraudulento pode violar princípios da LGPD, como finalidade e adequação, além de ensejar responsabilidade civil e administrativa. Ainda que a lei não trate expressamente de deepfakes, seus fundamentos oferecem base relevante de proteção.
Nenhuma resposta, porém, será eficaz se restrita à repressão. A prevenção passa por educação digital e letramento informacional. É preciso difundir a noção de que imagens podem ser sintéticas, vozes podem ser clonadas e vídeos podem ser fabricados. A cultura da verificação deve substituir a presunção de autenticidade.
Também é essencial a coordenação institucional entre os canais de denúncia acessíveis, e a cooperação com plataformas, capacitação investigativa e incentivo às tecnologias de detecção de conteúdo sintético. A confiança digital tornou-se ativo coletivo.
A IA não é, em si, o problema. É ferramenta. O risco reside no uso malicioso. O crescimento de golpes com imagens sintéticas revela um momento de inflexão: Proteger a verdade passa a ser proteger pessoas e instituições.
O Direito não deve temer a inovação, mas compreendê-la. A tarefa contemporânea é assegurar que a evolução tecnológica caminhe com responsabilidade, proteção de direitos e segurança jurídica. Na era da IA, a tutela da confiança digital torna-se dimensão central da própria cidadania.
Nenhuma resposta, porém, será eficaz se restrita à repressão. A prevenção passa por educação digital e letramento informacional. É preciso difundir a noção de que imagens podem ser sintéticas, vozes podem ser clonadas e vídeos podem ser fabricados. A cultura da verificação deve substituir a presunção de autenticidade.
Também é essencial a coordenação institucional entre os canais de denúncia acessíveis, e a cooperação com plataformas, capacitação investigativa e incentivo às tecnologias de detecção de conteúdo sintético. A confiança digital tornou-se ativo coletivo.
A IA não é, em si, o problema. É ferramenta. O risco reside no uso malicioso. O crescimento de golpes com imagens sintéticas revela um momento de inflexão: Proteger a verdade passa a ser proteger pessoas e instituições.
O Direito não deve temer a inovação, mas compreendê-la. A tarefa contemporânea é assegurar que a evolução tecnológica caminhe com responsabilidade, proteção de direitos e segurança jurídica. Na era da IA, a tutela da confiança digital torna-se dimensão central da própria cidadania.



