O “lado negro” da Inteligência Artificial
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma […]

Ana Rita Almeida
Um em cada quatro consumidores compra online em Portugal
Inscrições para o Prémio Ecotrophelia Portugal 2025 terminam a 21 de maio
Milaneza lança campanha “Integral pela Saúde, Aveia pelo Sabor” para promover gama saudável
Torrestir reforça posicionamento global com presença na Transport Logistic 2025
Quinta do Crasto Touriga Nacional eleito ‘Melhor do Ano’ no Concurso Vinhos de Portugal
Sabor do Ano lança imagem renovada e abre inscrições para a edição de 2026
Armazém industrial de 3.640 m² em Matosinhos está em leilão por 3M€
Arrancou oficialmente a 5.ª edição do Programa Bairro Feliz
Sete empresas portuguesas na maior feira da América Latina com apoio da AEP
Tarelo reforça identidade do terroir açoriano com entrada do enólogo Tiago Macena
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma preocupação para os especialistas.
Em poucos meses, o ChatGPT tornou-se no assunto do momento. Desde o seu lançamento, em novembro passado, que a procura deste chatbot da OpenAI cresceu exponencialmente. Deste e dos que se seguiram porque desde o investimento da Microsoft, às “rivais” como a Google que também criaram as suas soluções de IA generativa, foi fenómeno exponencial.
A verdade é que a curiosidade é muita e todos querem perceber o que é isto da IA generativa que promete revolucionar a forma como as pessoas trabalham ou encontram informações online.
Em menos de uma semana após o lançamento, ainda em versão beta, em novembro do ano passado, o ChatGPT conquistou um milhão de utilizadores. Desde então, a popularidade do chatbot da OpenAI cresceu exponencialmente. Hoje são milhões de utilizadores que o procuram.
Mas têm estas soluções um “lado negro” e vão ser aproveitadas para os ciberataques? De acordo com dados de um estudo da BlackBerry, onde foram inquiridos 1.500 profissionais de TI e cibersegurança dos Estados Unidos, Reino Unido e Austrália, 51% acreditam que o ChatGPT poderá ser utilizado em ciberataques nos próximos 12 meses.
Javier Castro Bravo, Associate Director e Global Leader CoE Cibersecurity da Stratesys, avança que a ransomware continua a ser a maior ameaça para as empresas devido ao seu potencial impacto operacional (perda de serviço), económico e reputacional. “Mas o aparecimento de modelos generativos de Inteligência Artificial (IA) utilizados intencionalmente de forma ‘maliciosa’, como o ChatGPT, pode facilitar a criação de códigos maliciosos avançados por grupos cibercriminosos, o que é previsível que aumente a frequência, âmbito e nível de risco de ataques em 2023” confirma.
No entanto, o especialista acredita que “ao mesmo tempo, a utilização de inteligência artificial na cibersegurança pode também ajudar a melhorar as ferramentas de deteção, proteção e resposta. Os mecanismos de identificação de ameaças, baseados na aprendizagem automática, podem ajudar a melhorar a deteção precoce de comportamentos anómalos em ambientes corporativos e a prevenção ou resposta a certos tipos de ataques”.
Para Javier Castro Bravo, o mundo da cibersegurança “é uma corrida entre dois campos: grupos de cibercriminosos e profissionais da cibersegurança. É fundamental que as empresas destinem parte do seu orçamento para a cibersegurança. Só assim estarão preparadas para as ameaças atuais e futuras, uma vez que o roubo de identidade e phishing, assim como os ataques, tanto de engenharia social como de exploração de vulnerabilidades, com recurso a sistemas autónomos e IA, se tornarão cada vez mais frequentes e eficazes. Temos de estar preparados”.
Paulo Pinto, Business Development Manager da Fortinet, lembra que à medida que os cibercriminosos se tornam mais sofisticados, também as ferramentas de segurança de uma organização devem evoluir.
“Os dados apurados no relatório de ameaças da FortiGuard Labs mostram que o tempo médio de permanência – o tempo que um atacante está presente na rede antes de agir ou de ser descoberto – é de cerca de seis meses. Esta é uma enorme ameaça para as organizações, que obriga a apostar em ferramentas inovadoras para, não só prevenir, mas detetar possíveis ameaças” explica.
“Isto inclui tecnologia de engano, mas também inteligência artificial e machine learning para correlacionar e extrair informações de possíveis ameaças dos dados recolhidos pelas ferramentas de cibersegurança atuais. Qualquer organização beneficiará da utilização de soluções que potenciem a IA e modelos de machine learning para detetar ameaças conhecidas e desconhecidas, bem como tomar decisões rápidas num cenário de ameaças em constante mudança” reforça.
O Business Development Manager da Fortinet frisa no entanto, que não existem “balas de prata”. “À semelhança de quem protege, também quem ataca recorre a este tipo de tecnologias para aperfeiçoar as táticas de ataque, procurando possíveis falhas nos sistemas de segurança. Tendo em conta estas duas faces da moeda no que diz respeito à IA e machine learning, importa definir alguns princípios básicos, como estar ciente de que podem haver entradas de adversários nos dados que suportam os algoritmos AI/ML; bem como perceber que os algoritmos estão a tornar-se mais inteligentes, mas os especialistas são mais importantes, especialmente porque há uma clara tendência em exigir explicações sobre as saídas dos algoritmos de IA” conclui.