Só faltava essa! Os golpes mais comuns dos cibercriminosos agora contam com um apoio poderoso: o da Inteligência Artificial (IA). Bandidos já estão usando o ChatGPT para aprimorar o envio de mensagens que se passam por agências bancárias, serviços de pagamento ou outros.
- “Alexa, tocar minha música favorita!” Conheça a 4ª geração do aparelhinho que é sucesso em vendas no mundo todo. Clique aqui para conferir.
Com acesso fácil e gratuito à ferramenta, os golpes se tornaram mais elaborados e com menos erros gramaticais evidentes. Além disso, o uso de chatbots também favorece a construção de e-mails de phishing com propostas convincentes.
Como se precaver?
Portanto, será necessário ter uma atenção redobrada antes de acessar links ou até responder contatos duvidosos. A situação é tão grave que a agência de aplicação da lei da União Europeia (Europol) emitiu um alerta sobre o aumento do uso da IA por golpistas.
“Como as capacidades de LLMs como o ChatGPT estão sendo ativamente aprimoradas, a exploração potencial desses tipos de sistemas de IA por criminosos oferece uma perspectiva sombria”, afirmou o órgão.
As medidas de prevenção continuam as mesmas: evitar links estranhos, conferir se o número da mensagem é o oficial da empresa, se atentar ao conteúdo e não realizar downloads de arquivos que possam ser duvidosos.
ChatGPT é seguro?
Desde o lançamento em novembro, diversas discussões foram levantadas sobre a existência de riscos no uso do chatbot. Bem… Os usuários já apontaram problemas com respostas falsas e até desinformação.
No entanto, a OpenAI afirmou que também é a favor da regulação do recurso, pois pretende manter a integridade de seus usuários.
“Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas de IA, como o ChatGPT, porque queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos particulares”, disse ao The New York Times.
- “Alexa, tocar minha música favorita!” Conheça a 4ª geração do aparelhinho que é sucesso em vendas no mundo todo. Clique aqui para conferir.
Seja o primeiro a comentar