O “lado negro” da Inteligência Artificial
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma […]

Ana Rita Almeida
Auchan apresenta coleção de livros para os mais pequenos aprenderem a gerir as emoções
Takis lança Blue Heat em Portugal e reforça aposta em sabores ousados
Primeiro vinho do Douro da Casa Ermelinda Freitas eleito o melhor tinto no Citadelles Du Vin 2025
Continente vai plantar mais de 115 mil árvores para ajudar a reflorestar Portugal
Ricardo García López é o novo Diretor Financeiro da Adecco Portugal
II Edição do Go Green reforça importância de pequenas ações com grande impacto
Vinho na Vila regressa a Vila Alva com mais produtores, experiências e cultura alentejana
QSP SUMMIT 2025 arranca com cerimónia exclusiva no Palácio da Bolsa
Pingo Doce abre nova loja em Albufeira
Estudo Prioridades 2025 da TouchPoint: crescimento da marca própria e polarização do consumo entre preço e experiência são prioridades
O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma preocupação para os especialistas.
Em poucos meses, o ChatGPT tornou-se no assunto do momento. Desde o seu lançamento, em novembro passado, que a procura deste chatbot da OpenAI cresceu exponencialmente. Deste e dos que se seguiram porque desde o investimento da Microsoft, às “rivais” como a Google que também criaram as suas soluções de IA generativa, foi fenómeno exponencial.
A verdade é que a curiosidade é muita e todos querem perceber o que é isto da IA generativa que promete revolucionar a forma como as pessoas trabalham ou encontram informações online.
Em menos de uma semana após o lançamento, ainda em versão beta, em novembro do ano passado, o ChatGPT conquistou um milhão de utilizadores. Desde então, a popularidade do chatbot da OpenAI cresceu exponencialmente. Hoje são milhões de utilizadores que o procuram.
Mas têm estas soluções um “lado negro” e vão ser aproveitadas para os ciberataques? De acordo com dados de um estudo da BlackBerry, onde foram inquiridos 1.500 profissionais de TI e cibersegurança dos Estados Unidos, Reino Unido e Austrália, 51% acreditam que o ChatGPT poderá ser utilizado em ciberataques nos próximos 12 meses.
Javier Castro Bravo, Associate Director e Global Leader CoE Cibersecurity da Stratesys, avança que a ransomware continua a ser a maior ameaça para as empresas devido ao seu potencial impacto operacional (perda de serviço), económico e reputacional. “Mas o aparecimento de modelos generativos de Inteligência Artificial (IA) utilizados intencionalmente de forma ‘maliciosa’, como o ChatGPT, pode facilitar a criação de códigos maliciosos avançados por grupos cibercriminosos, o que é previsível que aumente a frequência, âmbito e nível de risco de ataques em 2023” confirma.
No entanto, o especialista acredita que “ao mesmo tempo, a utilização de inteligência artificial na cibersegurança pode também ajudar a melhorar as ferramentas de deteção, proteção e resposta. Os mecanismos de identificação de ameaças, baseados na aprendizagem automática, podem ajudar a melhorar a deteção precoce de comportamentos anómalos em ambientes corporativos e a prevenção ou resposta a certos tipos de ataques”.
Para Javier Castro Bravo, o mundo da cibersegurança “é uma corrida entre dois campos: grupos de cibercriminosos e profissionais da cibersegurança. É fundamental que as empresas destinem parte do seu orçamento para a cibersegurança. Só assim estarão preparadas para as ameaças atuais e futuras, uma vez que o roubo de identidade e phishing, assim como os ataques, tanto de engenharia social como de exploração de vulnerabilidades, com recurso a sistemas autónomos e IA, se tornarão cada vez mais frequentes e eficazes. Temos de estar preparados”.
Paulo Pinto, Business Development Manager da Fortinet, lembra que à medida que os cibercriminosos se tornam mais sofisticados, também as ferramentas de segurança de uma organização devem evoluir.
“Os dados apurados no relatório de ameaças da FortiGuard Labs mostram que o tempo médio de permanência – o tempo que um atacante está presente na rede antes de agir ou de ser descoberto – é de cerca de seis meses. Esta é uma enorme ameaça para as organizações, que obriga a apostar em ferramentas inovadoras para, não só prevenir, mas detetar possíveis ameaças” explica.
“Isto inclui tecnologia de engano, mas também inteligência artificial e machine learning para correlacionar e extrair informações de possíveis ameaças dos dados recolhidos pelas ferramentas de cibersegurança atuais. Qualquer organização beneficiará da utilização de soluções que potenciem a IA e modelos de machine learning para detetar ameaças conhecidas e desconhecidas, bem como tomar decisões rápidas num cenário de ameaças em constante mudança” reforça.
O Business Development Manager da Fortinet frisa no entanto, que não existem “balas de prata”. “À semelhança de quem protege, também quem ataca recorre a este tipo de tecnologias para aperfeiçoar as táticas de ataque, procurando possíveis falhas nos sistemas de segurança. Tendo em conta estas duas faces da moeda no que diz respeito à IA e machine learning, importa definir alguns princípios básicos, como estar ciente de que podem haver entradas de adversários nos dados que suportam os algoritmos AI/ML; bem como perceber que os algoritmos estão a tornar-se mais inteligentes, mas os especialistas são mais importantes, especialmente porque há uma clara tendência em exigir explicações sobre as saídas dos algoritmos de IA” conclui.