BusinessTimes

ChatGPT vai pagar até US$ 20 mil para quem encontrar falhas em sistema

11 abr 2023, 15:59 - atualizado em 11 abr 2023, 15:59
ChatGPT OpenAI
O programa, chamado de OpenAI Bug Bounty Program, ou programa de recompensas de bugs da OpenAI, é uma parceria com a empresa Bugcrowd (Imagem: OpenAI/Reprodução)

A OpenAI, empresa por trás do ChatGPT, anunciou nesa terça-feira (11) um programa de recompensas para quem encontrar falhas e vulnerabilidades em sua inteligência artificial. As recompensas vão de US$ 200 até US$ 20 mil dependendo da gravidade do problema.

A iniciativa, chamada de OpenAI Bug Bounty Program, ou programa de recompensas de bugs da OpenAI, é uma parceria com a empresa Bugcrowd. As falhas de segurança devem ser relatadas pelo site da empresa parceira, segundo a empresa. 

CONTINUA DEPOIS DA PUBLICIDADE
  • Entre para o Telegram do Money Times! Acesse as notícias que enriquecem seu dia em tempo real, do mercado econômico e de investimentos aos temas relevantes do Brasil e do mundo. Clique aqui e faça parte!

ChatGPT e bugs no sistema: que comecem os jogos

A iniciativa convida a comunidade hacker e de programadores a encontrar de boa fé falhas no sistema com objetivo de fortalecer a segurança do aplicativo.

Ao tentar acessar a plataforma, o Money Times se deparou com a mensagem de que o ChatGPT está congestionado. A superlotação pode ser atrelada aos caçadores de falha, que podem utilizar o próprio sistema para auxiliar na busca.

“Acreditamos que a transparência e a colaboração são cruciais para lidar com essa realidade. É por isso que estamos convidando a comunidade global de pesquisadores de segurança, hackers éticos e entusiastas de tecnologia para nos ajudar a identificar e solucionar vulnerabilidades em nossos sistemas”, diz a OpenAI. 

As regras definidas pela OpenAI são a fim de distinguir um participante do programa de um ataque malicioso. Confira os termos de participação e regras da “caça aos bugs”.

  • Você está autorizado a realizar testes em conformidade com esta política.
  • Siga esta política e quaisquer outros acordos relevantes. Em caso de inconsistência, esta política tem precedência.
  • Relate prontamente as vulnerabilidades descobertas.
  • Evite violar a privacidade, interromper sistemas, destruir dados ou prejudicar a experiência do usuário.
  • Use o programa Bugcrowd da OpenAI para comunicação relacionada a vulnerabilidades.
  • Mantenha os detalhes da vulnerabilidade em sigilo até que seja autorizado para liberação pela equipe de segurança da OpenAI, que visa fornecer autorização em até 90 dias após o recebimento do relatório.
  • Teste apenas os sistemas dentro do escopo e respeite os sistemas fora do escopo.
  • Não acesse, modifique ou use dados pertencentes a terceiros, incluindo dados confidenciais da OpenAI. Se uma vulnerabilidade expor tais dados, interrompa o teste, envie um relatório imediatamente e exclua todas as cópias das informações.
  • Interaja apenas com suas próprias contas, a menos que autorizado pela OpenAI.
  • A divulgação de vulnerabilidades ao OpenAI deve ser incondicional. Não se envolva em extorsão, ameaças ou outras táticas para obter uma resposta sob coação. OpenAI nega Safe Harbor por divulgação de vulnerabilidade realizada sob tais circunstâncias.