• Conheça nosso jeito de fazer contabilidade

    Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vestibulum sit amet maximus nisl. Aliquam eu metus elit. Suspendisse euismod efficitur augue sit amet varius. Nam euismod consectetur dolor et pellentesque. Ut scelerisque auctor nisl ac lacinia. Sed dictum tincidunt nunc, et rhoncus elit

    Entenda como fazemos...

Notícia

O uso consciente da Inteligência Artificial e a Proteção de Dados

Uso da Inteligência Artificial com responsabilidade: proteção de dados e riscos legais no ambiente corporativo.

Você já parou para pensar sobre o que acontece com as informações que são inseridas em ferramentas de Inteligência Artificial?

Nos últimos anos, a Inteligência Artificial (IA) deixou de ser apenas uma tendência futurista para se tornar uma ferramenta indispensável no dia a dia de profissionais de diversas áreas. Seja para redigir documentos, otimizar tarefas repetitivas ou até mesmo aprimorar o atendimento ao cliente, soluções como o ChatGPT oferecem praticidade e eficiência. No entanto, junto com essas facilidades, surgem também desafios importantes — e um dos mais críticos diz respeito à segurança da informação e à proteção de dados.

Em meio à crescente dependência dessas tecnologias, entender os riscos envolvidos e saber como utilizá-las de maneira responsável tornou-se essencial. Afinal, o que acontece com os dados que inserimos nessas ferramentas? Eles são armazenados? Podem ser acessados por terceiros? E, mais importante, como garantir a conformidade com normas como a Lei Geral de Proteção de Dados (LGPD)?

Embora plataformas como o ChatGPT sejam extremamente úteis, é preciso atenção ao que é compartilhado. Um dos pontos de alerta está na política de privacidade da OpenAI, criadora da ferramenta, que estabelece que os conteúdos digitados podem ser armazenados por até 30 dias, mesmo que o usuário os exclua posteriormente. Além disso, os dados inseridos são mantidos em servidores internacionais, o que pode representar desafios em relação à conformidade com a LGPD e outras legislações de proteção de dados.

Agora, imagine situações do cotidiano profissional:

  • Um advogado utilizando IA para revisar um contrato pode, sem perceber, compartilhar informações estratégicas sobre seus clientes;
  • Um profissional de RH pode inserir dados sensíveis sobre candidatos ou colaboradores em uma ferramenta de IA para elaborar um parecer;
  • Um analista financeiro pode recorrer à IA para calcular projeções, expondo informações confidenciais da empresa.

Em cada um desses exemplos, há um risco real de que informações sejam armazenadas e, potencialmente, acessadas por terceiros. O problema se agrava quando se trata de dados pessoais sensíveis, como informações de saúde, convicções religiosas, sindicais ou sexuais, histórico financeiro de clientes e parceiros.

A confiança dos clientes e parceiros pode ser comprometida caso dados confidenciais sejam expostos. O vazamento de informações estratégicas pode resultar em prejuízos financeiros e até mesmo na perda de vantagens competitivas no mercado.

O uso inadequado dessas ferramentas pode ter consequências sérias. A LGPD, em seu artigo 52, prevê multas de até 2% do faturamento anual da empresa, limitadas a R$ 50 milhões por infração. Além disso, podem ocorrer processos por danos morais e materiais, afetando tanto a reputação da empresa quanto a dos profissionais envolvidos.

Segundo um relatório da IBM Security, o custo médio global de um vazamento de dados em 2023 foi de US$ 4,45 milhões, um aumento de 15% em três anos. Além disso, 51% dos vazamentos tiveram como principal causa o erro humano ou falhas em práticas de segurança.

A magnitude das possíveis consequências negativas do uso inadequado da IA ressalta a importância da responsabilidade, tanto individual quanto corporativa, na adoção dessas tecnologias. É fundamental que cada profissional esteja ciente dos riscos envolvidos e que as empresas implementem políticas claras de proteção de dados e promovam a capacitação de seus colaboradores. Conscientes dos desafios, podemos agora nos voltar para as soluções e boas práticas que nos permitirão usufruir dos benefícios da IA de forma segura e ética.

Se a sua empresa já disponibiliza soluções internas de IA, priorize essas ferramentas. Organizações de grande porte têm investido cada vez mais no desenvolvimento de plataformas próprias, garantindo maior controle e conformidade com a legislação.

Se esse não for o caso, avalie plataformas que ofereçam políticas de privacidade transparentes e reforcem a proteção dos dados inseridos.

A Inteligência Artificial pode ser uma aliada poderosa para otimizar processos e aumentar a produtividade, mas o seu uso exige cautela. O futuro da IA no ambiente corporativo depende da forma como a utilizamos hoje. Portanto, antes de inserir qualquer informação em uma ferramenta de inteligência artificial, reflita: essa ação protege os dados da minha empresa e dos meus clientes? Adotar uma postura responsável não é apenas uma exigência legal, mas um diferencial competitivo. Seja um agente de proteção de dados no seu ambiente de trabalho!

Como já dizia o Tio Ben: “Com grandes poderes vêm grandes responsabilidades.” Utilizar a IA de forma consciente e segura é um compromisso com a ética, a privacidade e a segurança da informação.

Alisson Damascena, Advogado especializado em compliance e proteção de dados pessoais, DPO as a Service e Mestrando pela Universidade Federal de Ouro Preto

Catiucia Silveira, Advogada, DPO, Consultora em Privacidade e Proteção de Dados, Presidente da Comissão de Diversidade e Equidade do Instituto Nacional de Proteção de Dados (INPD)