Google intensifica esforços de segurança: programa de recompensas agora abrange a IA generativa

By | 29/10/2023

O Google anunciou uma expansão de seu programa de recompensas por vulnerabilidades (VRP), visando aprimorar a segurança da inteligência artificial generativa.

A empresa tem como objetivo incentivar pesquisas que abordem os desafios de segurança e proteção nesse campo, a fim de tornar a IA mais segura para todos os usuários.

O programa de recompensas por vulnerabilidades, também conhecido como “bug bounty”, oferece pagamentos a hackers éticos que descobrem e reportam falhas de segurança de forma responsável.

Com o avanço da IA generativa, surgiram novas preocupações relacionadas a questões como viés injusto e manipulação de modelos. Diante disso, o Google decidiu repensar a categorização e o relato de bugs nesse contexto específico.

Para auxiliar nessa iniciativa, o Google está contando com a colaboração de sua recém-criada Equipe de Segurança de IA.

Esse grupo de especialistas em segurança cibernética e hackers éticos simula diferentes tipos de adversários, desde nações e grupos apoiados por governos até ativistas e insiders maliciosos.

O objetivo é identificar possíveis vulnerabilidades nas tecnologias de IA generativa, como o ChatGPT e o Google Bard.

A equipe de segurança descobriu que os grandes modelos de linguagem (LLMs) são suscetíveis a ataques de injeção de prompt, nos quais um hacker cria prompts adversários para influenciar o comportamento do modelo.

Além disso, foram identificados ataques de extração de dados de treinamento, que permitem que hackers reconstruam exemplos de treinamento para extrair informações pessoalmente identificáveis ou senhas.

Esses tipos de ataques estão agora contemplados no escopo do programa de recompensas expandido do Google. Em 2022, a empresa pagou mais de $12 milhões em recompensas a pesquisadores de segurança.

(Googledisovery)