Inteligência artificial impõe novos riscos e exige cautela no uso

Imagine que, em um certo dia, você decide comprar um robô aspirador de pó para te ajudar nas tarefas domésticas mas, sem saber, coloca um espião dentro da sua casa. Foi o que aconteceu com milhares de consumidores de equipamentos da marca DJI.

A denúncia foi publicada pelo site Popular Science no sábado, 21. Segundo a notícia, um homem, que trabalha com engenharia de software, decidiu utilizar a Inteligência Artificial para comandar seu robô aspirador com um controle de videogame. O que ele não esperava era que, ao conseguir acesso ao seu próprio equipamento, poderia, também, acessar transmissões de câmera ao vivo, áudio de microfone, mapas e dados de status de quase sete mil outros aspiradores em 24 países.

Por sorte, o homem optou por não aproveitar a brecha, que permitiria que uma pessoa má intencionada vigiasse a casa dos donos dos robôs aspiradores. A falha de segurança foi denunciada à empresa que, em contato com a Popular Science, afirmou que o problema foi resolvido.

A publicação também alertou sobre a possibilidade de que invasões a equipamentos conectados à internet se tornem cada vez mais comuns com a ajuda da IA, que permite que até pessoas com pouco conhecimento técnico consigam explorar falhas de software.

Vazamento de dados e exposição de informações

Inteligência artificial impõe  novos riscos e exige cautela no uso

Foto: Freepik

O avanço acelerado da inteligência artificial tem transformado rotinas pessoais e profissionais, ampliando produtividade e acesso à informação. No entanto, junto com os benefícios, crescem também os alertas sobre segurança, ética e responsabilidade no uso dessas ferramentas. Para o professor mestre em Administração e especialista em inteligência artificial, Gustavo Tato, a falta de conhecimento sobre os limites da tecnologia pode gerar prejuízos significativos.

Segundo ele, o debate sobre os riscos do uso da inteligência artificial precisa ganhar espaço, especialmente diante da popularização das plataformas e do uso cotidiano por pessoas e empresas.

De acordo com o especialista, um dos principais riscos está relacionado à segurança da informação. “Um dos principais riscos é o vazamento de dados, assim como em qualquer sistema eletrônico. Ataques cibernéticos podem ser direcionados aos sistemas de IA, expondo informações pessoais que você achava que estavam protegidas”, afirma.

Além de ataques externos, Tato destaca o uso indevido das informações pelos próprios provedores das ferramentas. Ele chama atenção para o compartilhamento excessivo de dados pessoais, muitas vezes sem que o usuário compreenda os termos de uso aceitos ao utilizar plataformas gratuitas. “Tem gente fazendo terapia no chat de IA e isso é perigosíssimo. Você está usando uma ferramenta baseada em estatística para resolver problemas humanos”, alerta.

Para ele, além da limitação técnica, há o risco de essas informações serem utilizadas posteriormente para fins comerciais. “As IAs indexam pesquisas como mecanismos de busca. Aquele usuário que contou todas as suas questões pessoais pode ser o primeiro a ser bombardeado com produtos e serviços relacionados àquela situação”, observa. A recomendação é clara: evitar inserir dados pessoais identificáveis, informações de clientes ou segredos empresariais nas plataformas.

Desinformação, golpes e conteúdos falsos

Invasão de eletrodomésticos não é o único problema ligado ao uso de IA. No começo do mês, um estudo realizado pelo Observatório Lupa, intitulado Panorama da Desinformação no Brasil, apontou que a divulgação de conteúdos falsos criados com inteligência artificial mais do que triplicaram entre 2024 e 2025 no Brasil, apresentando um crescimento de 308%.

Segundo o estudo, mais de três quartos dos conteúdos gerados com IA que circularam em 2025 exploraram a imagem ou a voz de pessoas conhecidas, principalmente de lideranças políticas. Com ferramentas capazes de criar vídeos e imagens realistas, o especialista acredita que a circulação de materiais manipulados tende a crescer. “A primeira dica é sempre duvidar daquele vídeo ou foto que você recebeu em grupos de mensagens ou redes sociais. Procure agências de verificação antes de sair repostando”, orienta.

Tato também alerta para golpes digitais, como phishing e fraudes por mensagens. “Sempre desconfie de mensagens pedindo para clicar em links, digitar sua senha ou fornecer dados pessoais. Bancos nunca pedem esse tipo de informação por esses canais”, destaca. Ele lembra que sites falsos podem ser praticamente idênticos aos originais, o que exige atenção redobrada do usuário.

Alucinações da IA enecessidade de validação

Entre os riscos técnicos, o professor explica o fenômeno conhecido como “alucinação da IA”, quando a ferramenta gera respostas falsas por não possuir dados confiáveis suficientes. “As ferramentas simplesmente inventam quando não têm dados para preencher lacunas. É assim que as IAs funcionam, por estatística”, explica.

Ele compara o erro a uma previsão do tempo equivocada, mas ressalta que o impacto pode ser muito maior quando decisões empresariais ou jurídicas são tomadas com base em informações incorretas. Por isso, a supervisão humana é considerada indispensável. “A IA deve apoiar, não substituir o humano. Fazer revisão, validação e correção por pessoas é essencial”, reforça. Segundo ele, conteúdos produzidos por inteligência artificial devem sempre ser checados em fontes confiáveis e, quando possível, comparados com outras ferramentas.

Gustavo Tato. Foto: Arquivo Pessoal

Viés algorítmico e desafios jurídicos

Outro desafio apontado é o viés algorítmico. Como as ferramentas são treinadas com grandes volumes de dados, podem reproduzir inclinações culturais, sociais ou ideológicas presentes nessas bases. “Você pode estar reproduzindo a visão de alguém sobre determinado assunto e não a realidade de fato”, afirma. Para reduzir esse risco, o especialista recomenda cruzar informações e manter postura crítica diante das respostas fornecidas.

Questões relacionadas a direitos autorais e regulamentação também estão no centro do debate. Segundo Tato, ainda há lacunas jurídicas sobre a autoria de conteúdos gerados por IA e sobre a responsabilidade em casos de danos causados por informações incorretas.

Uso corporativo exige ainda mais cuidado

As pessoas jurídicas também podem ser afetadas pelo mau uso da IA. Segundo levantamento feito pela seguradora corporativa do Grupo Allianz, a inteligência artificial é a principal preocupação do setor de negócios no Brasil. Apesar de ser vista como alavanca estratégica para os negócios, a tecnologia também é entendida como uma fonte crescente de riscos operacionais, legais e reputacionais, superando a capacidade das empresas de estruturar governança, acompanhar a regulação e preparar adequadamente suas equipes.

O especialista recomenda evitar o uso de plataformas gratuitas para tratar dados estratégicos. “Quando você usa IA gratuita, concorda com termos e condições que nem sempre protegem sua empresa. Você pode estar entregando dados importantíssimos para grandes empresas que se nutrem exatamente de dados”, ressalta.

Ele também demonstra preocupação com ferramentas que possuem autonomia para acessar sistemas internos, ampliando o risco de exposição de bases de dados corporativas.

Para Gustavo Tato, o avanço da tecnologia é irreversível, mas deve ser acompanhado de responsabilidade e educação digital. “Menos dados sensíveis compartilhados é igual a mais segurança”, resume.

O especialista conclui que prudência, verificação constante e supervisão humana são medidas fundamentais para reduzir os riscos do uso da inteligência artificial em um cenário cada vez mais conectado e dependente da tecnologia.

Possui alguma sugestão?

Clique aqui para conversar com a equipe de O Comércio no WhatsApp e siga nosso perfil no Instagram para não perder nenhuma notícia!

Voltar para matérias