Noticias

Terabytes de dados internos sensíveis são expostos pela pesquisa em IA da Microsoft.


Terabytes de dados internos sensíveis são expostos pela pesquisa em IA da Microsoft.
(Foto Reprodução da Internet)

Pesquisadores da Microsoft em inteligência artificial cometeram um erro ao expor diversos terabytes de informações confidenciais ao compartilhar um repositório de armazenamento de dados destinado ao treinamento de código no GitHub. Algumas das informações expostas incluíam chaves privadas e senhas.

Wiz, uma startup de segurança na nuvem, divulgou suas descobertas ao TechCrunch, mostrando que um repositório no GitHub é propriedade da divisão de pesquisa em IA da Microsoft. No âmbito das investigações sobre a exposição involuntária de dados hospedados na nuvem, essa descoberta foi feita.

Aconteceu o que?

Os indivíduos que navegaram pelo GitHub se depararam com o repositório de código aberto e os modelos de IA destinados ao reconhecimento de imagem. Foi recomendado que baixassem os modelos de uma URL que fica no Armazenamento Azure.

No entanto, a Wiz descobriu que essa url estava configurada para conceder permissões a toda a conta de armazenamento, expondo acidentalmente dados privados adicionais.

38 terabytes de informações sensíveis, como backups pessoais de dois computadores pessoais de funcionários da Microsoft, estavam incluídos nesses dados.

Informações pessoais confidenciais como senhas para os serviços da Microsoft, chaves secretas e mais de 30.000 mensagens internas do Microsoft Teams de centenas de funcionários da empresa, também estavam contidas nos dados.

A URL que tornou esses dados acessíveis de acordo com a Wiz estava vulnerável desde 2020 e também foi ajustada erroneamente, possibilitando um “controle total” ao invés de direitos de “apenas leitura”.

Isso implicava que qualquer indivíduo que conhecesse o local em que buscar poderia potencialmente eliminar, substituir e inserir conteúdo malicioso.

A Wiz observou que a conta de armazenamento não estava diretamente exposta. Em vez disso, os desenvolvedores de IA da Microsoft incluíram um token de assinatura de acesso compartilhado (SAS) excessivamente permissivo na URL.

Os tokens SAS são utilizados pelo Azure como um mecanismo para os usuários criarem link compartilhável que permite acessar os dados de uma conta de armazenamento no Azure.

O potencial enorme para empresas de tecnologia é desbloqueado pela IA. Contudo, as imensas quantidades de dados que engenheiros e cientistas de dados manipulam no êxodo para desenvolver novas soluções de IA requer salvaguardas e verificações de segurança adicionais. Dado que muitas equipes de desenvolvimento precisam manipular volumes grandes de dados, compartilhá-los com colegas ou colaborar em projetos públicos de código aberto, vigilância e prevenção estão se tornando cada vez mais complexas em casos como o da Microsoft.

A Microsoft recebeu a informação.

Em 22 de junho, a Wiz comunicou suas descobertas para a Microsoft, e dois dias após, em 24 de junho, o token SAS foi revogado pela Microsoft. Em 16 de agosto, a Microsoft declarou que concluiu sua averiguação acerca do impacto potencial na organização.

Em um post no blog compartilhado, o TechCrunch disse ter tido acesso antes da publicação, o Centro de Resposta à Segurança da Microsoft afirmou que “nenhum dado do cliente foi exposto, e nenhum outro serviço interno foi colocado em risco devido a esse problema.”

A empresa Microsoft revelou também que devido ao estudo realizado pelo Wiz, ampliou o serviço do GitHub para acompanhar todas as modificações feitas no código de acesso público aberto para vasculhar por exposições em texto sem formatação de autorizações e outros misterios. Isso inclui qualquer token SAS que possa possuir expirações ou permissões excessivamente grandes.


🔥 Recomendado para voçê 🔥