Segundo a IBM, 20% dos vazamentos de dados registrados em 2025 foram causados pelo uso não supervisionado de IA por funcionários, elevando os prejuízos médios em mais de US$ 670 mil
O uso de ferramentas de inteligência artificial tem se expandido rapidamente em empresas, muitas vezes de forma espontânea e sem o controle total das equipes de TI. Isso reforça a importância de políticas claras e tecnologias avançadas para o uso responsável da IA, que minimizem riscos e estimulem a inovação segura. À medida que a adoção da IA cresce, aumenta também a necessidade de construir ambientes digitais que mantenham a proteção.

De acordo com o relatório de 2025 da IBM, 20 % das organizações pesquisadas sofreram violação de dados via “shadow AI” (o uso não autorizado de ferramentas de IA) o que resultou no aumento do custo médio das violações para cerca de US$ 670 mil. Além disso, 13 % dos ocorridos envolveram modelos legítimos de IA, principalmente via APIs ou plug-ins; desses casos, 60 % resultaram em comprometimento de dados e 31 % em interrupções operacionais.
“A proteção de dados não pode ser tratada como uma etapa adicional; ela deve estar incorporada desde a concepção de qualquer sistema de IA. Nossa empresa assume princípios de governança, desde políticas internas até o consentimento dos usuários.” Diz Giovanni La Porta, CEO da Vortice.ai.
No Brasil, a atuação da Autoridade Nacional de Proteção de Dados (ANPD) tem fortalecido a conformidade regulatória, como no caso da suspensão da política de privacidade da Meta relacionada ao uso de dados pessoais para treinamento de IA, com multa diária de R$ 50 mil em caso de descumprimento. Essa medida potencializa o compromisso com a proteção dos direitos dos cidadãos e incentiva as empresas a implementarem processos transparentes e éticos.
A Lei Geral de Proteção de Dados (LGPD) é peça-chave, definindo princípios como finalidade, adequação, transparência e segurança no tratamento de dados pessoais, inclusive no contexto da tecnologia.
A legislação garante aos titulares o direito de acesso, correção, portabilidade e exclusão dos seus dados, além de exigir que os modelos sejam treinados com dados anonimizados e que haja consentimento para usos específicos. O projeto de lei 2.338/2023, cria um marco legal para a IA no Brasil, reforça a necessidade do desenvolvimento dessas tecnologias com ética, segurança e transparência desde o início.
Com esse avanço da inteligência artificial no Brasil e no mundo, torna-se essencial que as organizações se posicionem de forma preventiva para garantir a proteção dos dados e a confiança dos usuários. A conformidade com a LGPD e outras regulamentações assegura a legalidade e equilibra a tecnologia e a responsabilidade.
“Nossa ferramenta, o Deep Reflection, utiliza um sistema que garante rastreabilidade total dos dados. O treinamento da IA personalizada ou Reflection é realizado diretamente pelo próprio usuário, utilizando seu conteúdo, e cada resposta é acompanhada pela fonte original, comprovando a origem da informação. Essa rastreabilidade é reforçada pela Deep Reflection Signature, uma assinatura digital que assegura identidade, autoria e propriedade sobre os dados. Vale destacar que, a qualquer momento, o criador pode revisar, editar, pausar ou encerrar o seu reflexo na plataforma.” Complementa.
Muitas empresas já operam com esse tipo de segurança, o que reforça a importância de sempre conhecer e entender a plataforma que você está utilizando. A inteligência artificial veio para ajudar, complementar e facilitar. É assim que deve ser utilizada, com segurança e ética.