Um funcionário de uma grande multinacional recebe um e-mail a pedir que envie dinheiro. O e-mail aparenta vir do diretor financeiro (CFO) da empresa. O funcionário desconfia, mas a dúvida desaparece quando é convidado para uma videochamada. Na reunião estão presentes o CFO, colegas e alguns participantes externos — ou assim parece. Mas as pessoas aparentemente reais são apenas versões geradas por IA. Os burlões terão descarregado previamente vídeos e usado inteligência artificial para adicionar vozes falsas na videoconferência. Conseguem convencer o funcionário a realizar 15 transferências num total de 200 milhões de dólares de Hong Kong (cerca de 40 milhões de dólares norte-americanos) para contas bancárias locais, ao longo de uma semana. Parece ficção científica? Não — isto aconteceu mesmo no início de 2024, em Hong Kong, China.

Ciberataques com base em IA, como este que envolveu deepfakes, estão a aumentar. Segundo um estudo da Deep Instinct, realizado em 2023, 75% dos profissionais de segurança testemunharam um aumento nos ataques nos últimos 12 meses, sendo que 85% atribuíram esse crescimento à utilização de IA generativa por agentes maliciosos. O Microsoft Digital Defence Report 2024 destaca a IA como uma das ameaças atuais e emergentes para a segurança informática.

Os perigos dos ciberataques potenciados por IA são evidentes. Estes ataques tendem a ser mais sofisticados, direcionados e persistentes do que aqueles conduzidos por humanos até agora, tornando-os muito mais difíceis de detetar e combater. Isto aumentará a frequência com que os atacantes se infiltram em redes corporativas e dificultará ainda mais a sua deteção. Com a crescente automatização e dependência de IA em infraestruturas críticas, o risco aumenta. À medida que mais dispositivos se ligam à internet (Internet das Coisas), as superfícies de ataque que os cibercriminosos podem explorar expandem-se. Os sistemas de IA podem ser usados em diversos ataques perigosos, incluindo ransomware e malware baseados em IA, quebra de palavras-passe, phishing, vishing e deepfakes.

É essencial que todas as organizações conheçam as potenciais ameaças baseadas em IA e garantam que têm o apoio especializado e os sistemas adequados para as gerir de forma eficaz.

Principais ameaças de IA por cibercriminosos – Ataques que visam a infraestrutura de TI

  1. Malware e ransomware potenciados por IA

    A IA pode ser usada para adaptar continuamente malware e ransomware, de modo a que deixem de ser reconhecidos como maliciosos pelo software de segurança. Investigadores identificaram recentemente o “BlackMamba”, uma nova estirpe de malware alimentado por IA que usa machine learning para escapar à deteção. Este ataque, que regista as teclas digitadas (keylogging), consegue contornar a maioria das soluções de deteção e resposta de endpoint (EDR) existentes. 

  2. Descoberta e exploração automatizada de vulnerabilidades

    Sistemas de IA podem analisar redes e aplicações em busca de falhas de segurança (exploits) muito mais rápido e de forma mais completa do que métodos tradicionais — e explorá-las automaticamente antes que defensores humanos consigam reagir. O maior perigo está nos “zero-day exploits”, ou seja, falhas desconhecidas pelos fabricantes de software. 

  3. Ataques de evasão contra sistemas de machine learning

    À medida que as empresas dependem cada vez mais da IA para segurança, os atacantes encontram formas de enganar estes sistemas. Ao alterar dados de entrada, conseguem que os sistemas classifiquem mal ou ignorem ameaças — por exemplo, modificando assinaturas de malware para escapar a antivírus baseados em machine learning ou alterando padrões de tráfego de rede para evitar sistemas de deteção de intrusões. 

  4. Quebra de palavras-passe

    Os cibercriminosos estão constantemente a desenvolver métodos cada vez mais sofisticados para decifrar palavras-passe. Atualmente, é possível quebrar palavras-passe simples sem grande esforço recorrendo à inteligência artificial. A solução de IA PassGAN conseguiu decifrar mais de metade das palavras-passe comuns introduzidas no seu sistema em menos de 60 segundos. Ferramentas avançadas de quebra de palavras-passe baseadas em IA conseguem decifrar 81% das palavras-passe comuns em menos de um mês e a maioria destas sequências encriptadas num único dia. Os atacantes podem realizar diversas atividades criminosas com as informações obtidas através da quebra de palavras-passe. Isto inclui, por exemplo, o roubo de dados bancários ou a utilização das informações para roubo de identidade e fraude. 

Principais ameaças de IA por cibercriminosos – Ataques que visam pessoas

  1. Phishing

    O phishing é uma forma de engenharia social em que o hacker se faz passar por um contacto de confiança e engana a vítima para que esta revele informações confidenciais, como palavras-passe ou dados de contas bancárias. São gerados e-mails, SMS ou outras mensagens. No passado, os e-mails de phishing podiam ser mal escritos, mas o surgimento de ferramentas como o ChatGPT tornou mais fácil para os hackers enviarem mensagens fraudulentas convincentes que imitam de forma muito próxima o tom, a linguagem e a aparência de mensagens legítimas.

    Os cibercriminosos também podem usar IA para personalizar e-mails maliciosos com base em dados dispersos no domínio público através da internet, tornando-os mais realistas e difíceis de detetar. Investigação da SoSafe demonstra que os ciberataques gerados por IA são extremamente bem-sucedidos: quase 80% das pessoas abrem e-mails de phishing escritos por IA. Em dezembro de 2023, hackers orquestraram uma campanha de phishing direcionada contra a Activision, a empresa de videojogos criadora da série Call of Duty. Usando IA, os atacantes conseguiram comprometer a Activision ao criar mensagens de phishing por SMS específicas, enganando um membro do departamento de recursos humanos que caiu no esquema.

  2. Vishing 

    O vishing (voice phishing) é uma subforma de phishing realizada através de chamadas telefónicas, nas quais os cibercriminosos tentam ganhar a confiança das vítimas e persuadi-las a realizar uma ação ou a revelar informações confidenciais. Os ataques de vishing são potencialmente mais perigosos do que os ataques de phishing tradicionais, pois estabelecem uma ligação pessoal com a vítima, tornando o cenário muito mais credível.

    Também aqui, a evolução da IA está a conduzir a métodos de fraude cada vez mais insidiosos e credíveis. Os ataques tradicionais de vishing utilizam gravações de voz automáticas e chamadas robóticas, mas um atacante que recorra à IA pode clonar vozes e comunicar em direto com as vítimas. Por exemplo, o motor de voz da OpenAI pode clonar a voz de outra pessoa usando apenas um simples clip de áudio de 10 a 15 segundos. O ciberataque à MGM Resorts, que causou cerca de 100 milhões de dólares em prejuízos, foi realizado através de uma chamada de vishing, na qual o atacante se fez passar por um funcionário comum e telefonou para a linha de apoio da MGM para obter credenciais.

  3. Deepfakes 

    Um deepfake é uma imagem, vídeo ou gravação de áudio gerada digitalmente. A IA generativa tornou fácil para agentes mal-intencionados criar deepfakes com relativamente pouco esforço. Como parecem incrivelmente reais, estes conteúdos podem levar as pessoas a revelar informações sensíveis ou a realizar transações monetárias, como no exemplo referido no início deste artigo.

    O número total de vídeos deepfake na internet em 2023 foi de 95.820, um aumento de 550% em comparação com 2019. Os burlões que recorrem ao vishing também utilizam cada vez mais deepfakes sob a forma de conteúdos de áudio falsos.

    Os deepfakes também podem ser usados para desinformação, com o objetivo de espalhar informações falsas, falsos testemunhos, falsas aprovações de fornecedores ou propaganda. Por exemplo, uma imagem deepfake do ator de Hollywood Tom Hanks foi usada, em 2024, para promover uma burla relacionada com produtos dentários. 

  4. Impersonation (Roubo de identidade)

    Quando os burlões enganam as suas vítimas para que estas entreguem dados sensíveis e criam deepfakes ou clones de voz — que depois utilizam, por exemplo, em ataques de vishing —, recorrem frequentemente a identidades roubadas, que recriam de forma enganadoramente realista com a ajuda da IA, produzindo conteúdos de vídeo e áudio assustadoramente verosímeis. Isto pode basear-se em pessoas do círculo próximo ou em organizações de confiança, como bancos ou entidades governamentais. O realismo aprimorado destes roubos de identidade torna cada vez mais difícil para as vítimas distinguirem entre conteúdos reais e falsos, deixando-as vulneráveis a várias formas de fraude e manipulação.

Legislação em evolução para lidar com as ameaças

A União Europeia está a levar estas ameaças muito a sério e reagiu com várias regulamentações.

A 1 de agosto de 2024, foi introduzido o Regulamento Europeu da Inteligência Artificial (AI Act). Este diploma visa promover o desenvolvimento responsável da IA na UE e aborda riscos potenciais para a saúde, segurança e direitos fundamentais dos cidadãos.

A 10 de outubro de 2024, a UE adotou o Cyber Resilience Act, relativo à proteção de produtos com elementos digitais (incluindo câmaras domésticas, eletrodomésticos, televisores e brinquedos), garantindo que são seguros contra ciberataques antes de chegarem ao mercado.

Além disso, a diretiva NIS2 entrou em vigor a 16 de janeiro de 2023, aplicando-se a setores com infraestruturas críticas. A sua relevância foi sublinhada por vários ciberataques espetaculares contra redes elétricas, sistemas de abastecimento de água e transportes.

A corrida ao armamento digital

O acesso a sistemas de IA por parte de fornecedores de segurança e cibercriminosos cria uma “corrida ao armamento” contínua.

A revista Forbes discutiu recentemente como os ataques potenciados por IA são mais perigosos do que os ciberataques tradicionais em vários aspetos fundamentais. A IA permite a automatização de processos de ataque complexos, possibilitando aos cibercriminosos iniciar e gerir ataques numa escala sem precedentes. Os sistemas de IA também podem aprender com tentativas anteriores, melhorando continuamente a sua eficiência e capacidade de evitar a deteção. Ao mesmo tempo, a IA avançada pode processar grandes volumes de dados para detetar vulnerabilidades e padrões nos sistemas-alvo de forma mais eficaz do que atacantes humanos, e o uso do Processamento de Linguagem Natural permite aos cibercriminosos lançar ataques de phishing e de engenharia social mais convincentes, mais difíceis de identificar pelas vítimas. Os hackers continuarão a desenvolver técnicas ainda mais sofisticadas e automatizadas, capazes de analisar software e organizações para identificar os pontos de entrada mais vulneráveis. Um estudo recente da Forrester concluiu que 88% dos especialistas em segurança esperam que os ataques impulsionados por IA se tornem comuns — é apenas uma questão de tempo.


Isto significa que os analistas de cibersegurança e os especialistas de TI só conseguirão derrotar os atacantes compreendendo como a IA será transformada em arma, podendo assim confrontar diretamente os cibercriminosos e desenvolver e implementar medidas de segurança adequadas.

Olhando mais adiante, a UE também está focada em encriptação resistente à computação quântica, para salvaguardar contra riscos futuros da computação quântica. A Comissão Europeia publicou recentemente uma Recomendação sobre Criptografia Pós-Quântica para encorajar os Estados-Membros a desenvolver e implementar uma abordagem harmonizada, à medida que a UE transita para a criptografia pós-quântica. Isto foi concebido para ajudar a garantir que as infraestruturas e serviços digitais da UE se mantenham seguros na próxima era digital.


Konica Minolta

Combater IA com IA

Different security measures must be taken to defend against attacks depending on which targets – technologies or humans – the AI-based attacks are aimed at. 

Conventional cyber security measures are often inadequate when it comes to detecting and defending against AI attacks. They rely heavily on signature-based detection and rule-based systems that are not equipped for the dynamic and evolving nature of AI cyberattacks. 

It therefore makes sense to beat the enemy with its own weapons: AI can serve as a powerful ally in protecting IT assets. Advanced detection mechanisms that utilize machine learning (ML) and AI should be used to detect nuanced anomalies and patterns that may be missed by traditional methods. Tools like Natural Language Processing (NLP) and image recognition detect threats in various languages and formats.  



Sugestões para reforçar defesas e aumentar a segurança da TI com IA: 

  1. Implementar sistemas de defesa potenciados por IA – Incluindo deteção avançada de ameaças, gestão automatizada de patches e monitorização de rede em tempo real. 
  2. Realizar auditorias de segurança e testes de penetração regulares – Incluindo testes potenciados por IA para encontrar vulnerabilidades que métodos tradicionais não detetam. 
  3. Atualizações contínuas – Para dificultar ataques de evasão, adaptando algoritmos de IA a novas técnicas. 
  4. Treino adversarial – Expor sistemas de defesa a exemplos de ataque para aumentar a resiliência. 
  5. Tecnologias de engano (deception) – Criar sistemas e dados falsos para confundir e identificar atacantes. 
  6. Plano específico de resposta a incidentes com IA – Incluir protocolos automáticos e equipas especializadas em forense digital com IA. 
  7. Implementar um modelo de segurança Zero Trust – “Nunca confiar, verificar sempre”, validando todos os utilizadores, dispositivos e ligações.
  8. Utilizar autenticação multifator – Obrigar a confirmação de identidade de duas formas distintas.
  9. Partilha colaborativa de inteligência sobre ameaças – Integrar redes de partilha de informação para antecipar ataques emergentes.  

Reforçar a formação e sensibilização dos colaboradores

Independentemente do nível tecnológico, o maior risco de segurança continua a ser o fator humano. Onde há manipulação emocional e engano para ganhar confiança e obter dados sensíveis, mesmo as tecnologias mais avançadas têm limites.

Por isso, é essencial que os colaboradores conheçam as formas de ataque e recebam formação regular para reconhecer e reportar potenciais ameaças. Devem verificar cuidadosamente todos os contactos (e-mail, SMS, chamadas), confirmar a identidade do remetente e questionar o contexto — especialmente em transações financeiras, onde o contacto presencial ou uma chamada direta ajudam a confirmar a autenticidade. 

Medidas adicionais incluem: 

  • Adaptar filtros de e-mail e URL; 
  • Solicitar remoção de sites fraudulentos e hosts maliciosos;

  • Comunicar números de telefone usados em ataques às operadoras;

  • Reportar dados bancários de criminosos, contas intermediárias ou e-mails legítimos comprometidos às entidades competentes.

Partilhar:

Avaliar o artigo