
Microsoft expõe hackers por trás de explorações de IA
A Microsoft Corp. informou que identificou hackers criminosos dos EUA e do exterior que contornaram as proteções em ferramentas de inteligência artificial generativa — incluindo os serviços Azure OpenAI da empresa — para gerar conteúdo prejudicial, incluindo imagens íntimas não consensuais de celebridades e outros conteúdos sexualmente explícitos.
Os hackers coletaram logins de clientes de fontes públicas e os usaram para acessar serviços de IA generativa, incluindo o Azure OpenAI, o produto de nuvem da Microsoft que permite que os clientes usem os modelos do OpenAI, de acordo com a empresa. Os hackers então mudaram os recursos dos produtos de IA e venderam acesso a outros grupos maliciosos, fornecendo a eles instruções sobre como criar conteúdo prejudicial.

Os hackers identificados pela Microsoft estão sediados no Irã, Reino Unido, Hong Kong e Vietnã. Eles supostamente fazem parte de uma rede global de crimes cibernéticos que a Microsoft chama de Storm-2139. Dois outros membros estão localizados na Flórida e em Illinois, mas a Microsoft disse que não os está nomeando para evitar atrapalhar investigações criminais. A fabricante de software disse que está preparando encaminhamentos criminais para autoridades policiais dos EUA e estrangeiras.
A ação ocorre à medida que a crescente popularidade de ferramentas de IA generativas fomenta preocupações sobre seu uso indevido para gerar imagens ilícitas falsas de figuras públicas e indivíduos comuns, bem como para criar material de abuso sexual infantil. Empresas como a Microsoft e a OpenAI proíbem esse comportamento e tomam medidas tecnológicas para bloqueá-lo, mas grupos maliciosos ainda podem tentar obter acesso não autorizado.
“Levamos muito a sério o uso indevido da IA, reconhecendo os impactos sérios e duradouros das imagens abusivas para as vítimas”,
Steven Masada, conselheiro geral assistente da Unidade de Crimes Digitais da Microsoft, disse na quinta-feira em uma postagem de blog.
“A Microsoft continua comprometida em proteger os usuários incorporando medidas robustas de segurança de IA em nossas plataformas e protegendo nossos serviços de conteúdo ilegal e prejudicial.”
O anúncio da Microsoft ocorre após uma ação judicial movida pela empresa em dezembro no Distrito Leste da Virgínia contra 10 "John Does" em uma tentativa de reunir mais informações sobre o grupo de hackers e interromper suas atividades, disse Masada no blog.
O tribunal emitiu decisões permitindo que a Microsoft apreendesse um site-chave que os hackers estavam usando. Isso, e a revelação de processos judiciais no mês passado, gerou pânico entre o grupo de hackers e fez com que alguns membros apontassem o dedo uns para os outros, o que a Microsoft conseguiu observar para identificar alguns membros, disse a empresa.
A Microsoft se recusou a nomear as celebridades que foram afetadas.
Comentários