Homepage Newsletter Ponto de Venda

O “lado negro” da Inteligência Artificial

Por a 14 de Março de 2023 as 17:10
cibersegurança

O potencial do ChatGPT para a criação de emails de phishing, assim como de novos tipos de malware e de ameaças e ataques mais sofisticados é cada vez mais uma preocupação para os especialistas.

Em poucos meses, o ChatGPT tornou-se no assunto do momento. Desde o seu lançamento, em novembro passado, que a procura deste chatbot da OpenAI cresceu exponencialmente. Deste e dos que se seguiram porque desde o investimento da Microsoft, às “rivais” como a Google que também criaram as suas soluções de IA generativa, foi fenómeno exponencial.

A verdade é que a curiosidade é muita e todos querem perceber o que é isto da IA generativa que promete revolucionar a forma como as pessoas trabalham ou encontram informações online.

Em menos de uma semana após o lançamento, ainda em versão beta, em novembro do ano passado, o ChatGPT conquistou um milhão de utilizadores. Desde então, a popularidade do chatbot da OpenAI cresceu exponencialmente. Hoje são milhões de utilizadores que o procuram.

Mas têm estas soluções um “lado negro” e vão ser aproveitadas para os ciberataques? De acordo com dados de um estudo da BlackBerry, onde foram inquiridos 1.500 profissionais de TI e cibersegurança dos Estados Unidos, Reino Unido e Austrália, 51% acreditam que o ChatGPT poderá ser utilizado em ciberataques nos próximos 12 meses.

Javier Castro Bravo –  Associate Director – Stratesys  Global Leader CoE Cibersecurity Javier Castro Bravo, Associate Director e Global Leader CoE Cibersecurity da Stratesys, avança que a ransomware continua a ser a maior ameaça para as empresas devido ao seu potencial impacto operacional (perda de serviço), económico e reputacional. “Mas o aparecimento de modelos generativos de Inteligência Artificial (IA) utilizados intencionalmente de forma ‘maliciosa’, como o ChatGPT, pode facilitar a criação de códigos maliciosos avançados por grupos cibercriminosos, o que é previsível que aumente a frequência, âmbito e nível de risco de ataques em 2023” confirma.

No entanto, o especialista acredita que “ao mesmo tempo, a utilização de inteligência artificial na cibersegurança pode também ajudar a melhorar as ferramentas de deteção, proteção e resposta. Os mecanismos de identificação de ameaças, baseados na aprendizagem automática, podem ajudar a melhorar a deteção precoce de comportamentos anómalos em ambientes corporativos e a prevenção ou resposta a certos tipos de ataques”.

Para Javier Castro Bravo, o mundo da cibersegurança “é uma corrida entre dois campos: grupos de cibercriminosos e profissionais da cibersegurança. É fundamental que as empresas destinem parte do seu orçamento para a cibersegurança. Só assim estarão preparadas para as ameaças atuais e futuras, uma vez que o roubo de identidade e phishing, assim como os ataques, tanto de engenharia social como de exploração de vulnerabilidades, com recurso a sistemas autónomos e IA, se tornarão cada vez mais frequentes e eficazes. Temos de estar preparados”.

Paulo Pinto, Business Development Manager, Portugal, FortinetPaulo Pinto, Business Development Manager da Fortinet, lembra que à medida que os cibercriminosos se tornam mais sofisticados, também as ferramentas de segurança de uma organização devem evoluir.

“Os dados apurados no relatório de ameaças da FortiGuard Labs mostram que o tempo médio de permanência – o tempo que um atacante está presente na rede antes de agir ou de ser descoberto – é de cerca de seis meses. Esta é uma enorme ameaça para as organizações, que obriga a apostar em ferramentas inovadoras para, não só prevenir, mas detetar possíveis ameaças” explica.

“Isto inclui tecnologia de engano, mas também inteligência artificial e machine learning para correlacionar e extrair informações de possíveis ameaças dos dados recolhidos pelas ferramentas de cibersegurança atuais. Qualquer organização beneficiará da utilização de soluções que potenciem a IA e modelos de machine learning para detetar ameaças conhecidas e desconhecidas, bem como tomar decisões rápidas num cenário de ameaças em constante mudança” reforça.

O Business Development Manager da Fortinet frisa no entanto, que não existem “balas de prata”. “À semelhança de quem protege, também quem ataca recorre a este tipo de tecnologias para aperfeiçoar as táticas de ataque, procurando possíveis falhas nos sistemas de segurança. Tendo em conta estas duas faces da moeda no que diz respeito à IA e machine learning, importa definir alguns princípios básicos, como estar ciente de que podem haver entradas de adversários nos dados que suportam os algoritmos AI/ML; bem como perceber que os algoritmos estão a tornar-se mais inteligentes, mas os especialistas são mais importantes, especialmente porque há uma clara tendência em exigir explicações sobre as saídas dos algoritmos de IA” conclui.

Deixe aqui o seu comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *