Google descobre piratas informáticos que utilizam indevidamente a IA Gemini
A Google identificou vários grupos de hackers patrocinados pelo Estado que tentam explorar a sua plataforma Gemini AI para fins maliciosos, incluindo a ajuda no desenvolvimento de malware. No entanto, o gigante da tecnologia relata que esses esforços não resultaram em ameaças cibernéticas significativas, enfatizando que a IA continua sendo uma ferramenta e não uma mudança de jogo para os cibercriminosos.
De acordo com as conclusões da Google, os hackers do Irão, Coreia do Norte, China e Rússia utilizaram o Gemini para tarefas como a tradução de conteúdos, o aperfeiçoamento de ataques de phishing e a escrita de código informático. A empresa identificou esta atividade em mais de 10 grupos de hackers iranianos, 20 grupos apoiados pelo governo chinês e nove agentes de ameaças norte-coreanos.
"Os actores iranianos de APT (ameaça persistente avançada) foram os maiores utilizadores do Gemini, empregando-o para pesquisa sobre organizações de defesa, análise de vulnerabilidades e elaboração de conteúdo para campanhas de desinformação", observou a Google num blogue na quarta-feira.
Apesar dessas tentativas, o Google afirma que o Gemini forneceu principalmente a esses atores melhorias de produtividade, em vez de recursos diretos de hackers. "Atualmente, eles usam a IA principalmente para pesquisa, resolução de problemas de código e criação e localização de conteúdo", afirmou a empresa.
Crédito da imagem: Jaque Silva | NurPhoto
O Google também destacou as limitações que os hackers enfrentaram ao tentar usar o Gemini para tarefas maliciosas mais avançadas. Embora a IA os tenha ajudado a compreender tópicos complexos e a gerar código básico, as suas salvaguardas de segurança impediram a utilização indevida de ciberataques. As tentativas de explorar o Gemini para utilizar técnicas avançadas de phishing, codificar software malicioso ou contornar as medidas de segurança da Google não tiveram êxito.
"Alguns agentes maliciosos tentaram, sem sucesso, pedir ao Gemini orientações sobre como abusar dos produtos Google, tais como técnicas avançadas de phishing para o Gmail, assistência na codificação de um infostealer para o Chrome e métodos para contornar os métodos de verificação da criação de contas Google", informou a empresa. "Estas tentativas não foram bem sucedidas. Gemini não produziu malware ou outro conteúdo que pudesse ser usado de forma plausível em uma campanha maliciosa bem-sucedida.
No entanto, o Google reconheceu que ferramentas de IA como o Gemini podem acelerar os fluxos de trabalho dos atores de ameaças cibernéticas, permitindo-lhes operar com mais eficiência e em maior escala. Por exemplo, uma operação de propaganda baseada no Irão utilizou o Gemini para melhorar as traduções, garantindo que as suas campanhas de desinformação chegassem a públicos mais vastos. Enquanto isso, hackers ligados à Coreia do Norte usaram o chatbot para redigir cartas de apresentação e obter conselhos sobre procura de emprego para o LinkedIn - potencialmente auxiliando seus esforços para garantir posições remotas de TI em empresas americanas, uma preocupação crescente entre os investigadores federais.
"O grupo também usou o Gemini para obter informações sobre intercâmbios de funcionários no exterior. Muitos dos tópicos seriam comuns a qualquer pessoa que estivesse a pesquisar e a candidatar-se a empregos", observou a Google.
As conclusões da Google reflectem descobertas semelhantes feitas pela OpenAI. Há um ano, a OpenAI detectou vários grupos patrocinados pelo Estado a tentar utilizar indevidamente o ChatGPT. No entanto, a sua investigação revelou que estes hackers estavam a utilizar o chatbot principalmente para aumentar a produtividade, em vez de executarem ciberataques avançados.
Em resposta a estas ameaças, a Google reforçou os seus protocolos de segurança de IA. A empresa testa continuamente as defesas do Gemini para evitar o uso indevido e colabora com as autoridades policiais quando necessário. "Investigamos o abuso dos nossos produtos, serviços, utilizadores e plataformas, incluindo actividades cibernéticas maliciosas por parte de agentes de ameaças apoiados pelo governo, e trabalhamos com as autoridades policiais quando apropriado", afirmou a Google.
Além disso, a Google trabalha ativamente para pôr fim a estas ciberameaças, removendo das suas plataformas os suspeitos de serem agentes maliciosos. Esta postura proactiva sublinha o compromisso da empresa em manter as suas ferramentas de IA seguras, ao mesmo tempo que reconhece os riscos em evolução colocados pelos hackers patrocinados pelo Estado.
Comentários