O programa Bug Bounty da OpenAI, lançado na terça-feira, recompensará os usuários com base na gravidade das falhas divulgadas, com prêmios a partir de $ 200 por vulnerabilidade.
- A OpenAI lançou um programa de recompensas de bugs para incentivar hackers éticos, pesquisadores de segurança e entusiastas de tecnologia a identificar e relatar vulnerabilidades em seus serviços de IA.
- O programa de recompensas de bugs está em colaboração com Bugcrowd e inclui recompensas que variam de $ 200 para $ 20.000 com base na gravidade do problema.
- Os participantes devem seguir regras e diretrizes específicas, incluindo abster-se de violar a privacidade, interromper sistemas ou destruir dados.
- O programa de recompensas de bugs é crucial para a missão da OpenAI de criar IA segura e avançada, e eles também oferecem proteção de porto seguro, cooperação, remediação e reconhecimento pela pesquisa de vulnerabilidade realizada de acordo com sua política e regras de engajamento.
O que é o programa Bug Bounty da OpenAI?
Para descobrir falhas no ChatGPT, OpenAI está apelando ao público, estabelecendo um “Programa de recompensas para bugs” para compensar aqueles que apresentam quaisquer falhas de segurança, vulnerabilidades ou outras preocupações dentro do sistema de IA.
O prêmio é acessível a qualquer pessoa, desde pesquisadores genuínos até pessoas comuns que gostam de experimentar a tecnologia. Os prêmios incluem dinheiro, com “descobertas de baixa gravidade” a partir de $ 200 e “descobertas excepcionais” subindo para $ 20.000. Submissões e recompensas são tratadas por multidão de insetosuma plataforma de recompensas por bugs.
As falhas afetaram o ChatGPT; no mês passado, todo o site caiu depois que os usuários relataram ter visto nomes de chats dos quais não participavam. Alguns dias depois, um usuário do Twitter disse que havia descoberto mais de 80 plugins ocultos ao invadir o ChatGPT.
Hoje de manhã eu estava hackeando a nova API do ChatGPT e descobri algo super interessante: existem mais de 80 plugins secretos que podem ser revelados removendo um parâmetro específico de uma chamada de API.
Os plugins secretos incluem um "plug-in DAN", "Plug-in de preços de criptografia"e muitos mais. pic.twitter.com/Q6JO1VLz5x
— 𝚛𝚎𝚣𝟶 (@rez0__) 24 de março de 2023
Nem todas as falhas relatadas à OpenAI resultarão em um prêmio monetário, como jailbreak ou convencer o modelo a falar ou parecer dizer algo desagradável.
Quais são as diretrizes para o programa Bug Bounty da OpenAI?
Para participar do programa, algumas regras e diretrizes devem ser seguidas:
- As regras incluem relatar vulnerabilidades prontamente, não violar a privacidade ou interromper os sistemasusando o programa Bugcrowd para comunicação, mantendo os detalhes de vulnerabilidade confidenciais e testando apenas sistemas dentro do escopo.
- A empresa também nega porto seguro para divulgação de vulnerabilidade realizada sob coação.
O programa de recompensas de bugs da OpenAI não fornece incentivos para falhas de modelo
A corporação disse nas diretrizes abrangentes para a participação que os problemas relacionados à substância dos prompts e respostas do modelo são “estritamente fora do escopo” e não seria recompensado. Jailbreaks e conseguir que os modelos digam ou façam coisas horríveis são exemplos de dificuldades omitidas.
Jailbreaking é o processo de alterar um sistema para contornar suas restrições, o que pode resultar em material não filtrado no ChatGPT. Os jailbreakers fizeram o GPT-3.5 lançar obscenidades e palavras desagradáveis no início deste ano, dando-lhe o trabalho de um modelo de IA diferente com a frase Faça qualquer coisa agora ou DAN.
“Embora trabalhemos duro para evitar riscos, não podemos prever como as pessoas usarão ou farão mau uso de nossa tecnologia diariamente no mundo real”, afirma a página, recomendando que os clientes preencham um formulário de feedback separado para expressar seus problemas.
Em resposta a uma postagem postada por Alex Albert, um entusiasta do jailbreak de 22 anos, Greg Brockman, cofundador e CEO da OpenAIsugeriu no Twitter em março que planejava lançar o programa de recompensas de bugs da OpenAI ou uma rede de red teamers.
O red teaming democratizado é um dos motivos pelos quais implantamos esses modelos. Antecipar que, com o tempo, as apostas aumentarão *muito* com o tempo, e será fundamental ter modelos robustos para grande pressão adversária. Também considerando iniciar um programa/rede de recompensas de red-teamers! https://t.co/9QfmXQi9iM
— Greg Brockman (@gdb) 16 de março de 2023
A razão
A ação ocorreu apenas alguns dias depois que o ChatGPT foi banido na Itália por supostamente violar os padrões de privacidade, pressionando as autoridades de outros países europeus a realizar mais pesquisas sobre serviços generativos de IA.
O ChatGPT certamente conquistou o mundo nos últimos meses, passando em um teste de MBA em Whartonescrevendo um post para Techbriefly, e até fingindo ser cego para persuadir um humano a resolver um captcha.
O rápido avanço e a eficácia da IA preocuparam alguns especialistas, tanto que 500 engenheiros líderes (incluindo Elon Musk) pediram uma parada da IA em sistemas mais poderosos, citando possíveis perigos em um futuro incerto para a tecnologia.
Quer descobrir como o ChatGPT conseguiu passar em um exame de MBA? Para saber mais, acesse:
Source: O programa Bug Bounty da OpenAI oferece recompensas de até $ 20.000