TechBriefly PT
  • Tech
  • Business
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
No Result
View All Result
TechBriefly PT
No Result
View All Result
Home Tech
O programa Bug Bounty da OpenAI oferece recompensas de até $ 20.000

O programa Bug Bounty da OpenAI oferece recompensas de até $ 20.000

byUtku Bayrak
13/04/2023
in Tech
Reading Time: 5 mins read
Share on FacebookShare on Twitter

O programa Bug Bounty da OpenAI, lançado na terça-feira, recompensará os usuários com base na gravidade das falhas divulgadas, com prêmios a partir de $ 200 por vulnerabilidade.

  • A OpenAI lançou um programa de recompensas de bugs para incentivar hackers éticos, pesquisadores de segurança e entusiastas de tecnologia a identificar e relatar vulnerabilidades em seus serviços de IA.
  • O programa de recompensas de bugs está em colaboração com Bugcrowd e inclui recompensas que variam de $ 200 para $ 20.000 com base na gravidade do problema.
  • Os participantes devem seguir regras e diretrizes específicas, incluindo abster-se de violar a privacidade, interromper sistemas ou destruir dados.
  • O programa de recompensas de bugs é crucial para a missão da OpenAI de criar IA segura e avançada, e eles também oferecem proteção de porto seguro, cooperação, remediação e reconhecimento pela pesquisa de vulnerabilidade realizada de acordo com sua política e regras de engajamento.
Programa de recompensas de bugs da OpenAI
“O programa Bug Bounty da OpenAI é uma forma de reconhecermos e recompensarmos os valiosos insights de pesquisadores de segurança que contribuem para manter nossa tecnologia e empresa seguras”, de acordo com o site da empresa.

O que é o programa Bug Bounty da OpenAI?

Para descobrir falhas no ChatGPT, OpenAI está apelando ao público, estabelecendo um “Programa de recompensas para bugs” para compensar aqueles que apresentam quaisquer falhas de segurança, vulnerabilidades ou outras preocupações dentro do sistema de IA.

O prêmio é acessível a qualquer pessoa, desde pesquisadores genuínos até pessoas comuns que gostam de experimentar a tecnologia. Os prêmios incluem dinheiro, com “descobertas de baixa gravidade” a partir de $ 200 e “descobertas excepcionais” subindo para $ 20.000. Submissões e recompensas são tratadas por multidão de insetosuma plataforma de recompensas por bugs.

As falhas afetaram o ChatGPT; no mês passado, todo o site caiu depois que os usuários relataram ter visto nomes de chats dos quais não participavam. Alguns dias depois, um usuário do Twitter disse que havia descoberto mais de 80 plugins ocultos ao invadir o ChatGPT.

Hoje de manhã eu estava hackeando a nova API do ChatGPT e descobri algo super interessante: existem mais de 80 plugins secretos que podem ser revelados removendo um parâmetro específico de uma chamada de API.

Os plugins secretos incluem um "plug-in DAN", "Plug-in de preços de criptografia"e muitos mais. pic.twitter.com/Q6JO1VLz5x

— 𝚛𝚎𝚣𝟶 (@rez0__) 24 de março de 2023

Nem todas as falhas relatadas à OpenAI resultarão em um prêmio monetário, como jailbreak ou convencer o modelo a falar ou parecer dizer algo desagradável.

Quais são as diretrizes para o programa Bug Bounty da OpenAI?

Para participar do programa, algumas regras e diretrizes devem ser seguidas:

  • As regras incluem relatar vulnerabilidades prontamente, não violar a privacidade ou interromper os sistemasusando o programa Bugcrowd para comunicação, mantendo os detalhes de vulnerabilidade confidenciais e testando apenas sistemas dentro do escopo.
  • A empresa também nega porto seguro para divulgação de vulnerabilidade realizada sob coação.
Programa de recompensas de bugs da OpenAI
O programa Bug Bounty da OpenAI é uma iniciativa louvável da empresa para incentivar o hacking ético e identificar possíveis vulnerabilidades em seus serviços de IA

O programa de recompensas de bugs da OpenAI não fornece incentivos para falhas de modelo

A corporação disse nas diretrizes abrangentes para a participação que os problemas relacionados à substância dos prompts e respostas do modelo são “estritamente fora do escopo” e não seria recompensado. Jailbreaks e conseguir que os modelos digam ou façam coisas horríveis são exemplos de dificuldades omitidas.

Jailbreaking é o processo de alterar um sistema para contornar suas restrições, o que pode resultar em material não filtrado no ChatGPT. Os jailbreakers fizeram o GPT-3.5 lançar obscenidades e palavras desagradáveis ​​​​no início deste ano, dando-lhe o trabalho de um modelo de IA diferente com a frase Faça qualquer coisa agora ou DAN.

Programa de recompensas de bugs da OpenAI
O programa de recompensas de bugs da OpenAI é crucial para a missão de criar uma IA segura e avançada

“Embora trabalhemos duro para evitar riscos, não podemos prever como as pessoas usarão ou farão mau uso de nossa tecnologia diariamente no mundo real”, afirma a página, recomendando que os clientes preencham um formulário de feedback separado para expressar seus problemas.

Em resposta a uma postagem postada por Alex Albert, um entusiasta do jailbreak de 22 anos, Greg Brockman, cofundador e CEO da OpenAIsugeriu no Twitter em março que planejava lançar o programa de recompensas de bugs da OpenAI ou uma rede de red teamers.

O red teaming democratizado é um dos motivos pelos quais implantamos esses modelos. Antecipar que, com o tempo, as apostas aumentarão *muito* com o tempo, e será fundamental ter modelos robustos para grande pressão adversária. Também considerando iniciar um programa/rede de recompensas de red-teamers! https://t.co/9QfmXQi9iM

— Greg Brockman (@gdb) 16 de março de 2023

A razão

A ação ocorreu apenas alguns dias depois que o ChatGPT foi banido na Itália por supostamente violar os padrões de privacidade, pressionando as autoridades de outros países europeus a realizar mais pesquisas sobre serviços generativos de IA.

O ChatGPT certamente conquistou o mundo nos últimos meses, passando em um teste de MBA em Whartonescrevendo um post para Techbriefly, e até fingindo ser cego para persuadir um humano a resolver um captcha.

O rápido avanço e a eficácia da IA ​​preocuparam alguns especialistas, tanto que 500 engenheiros líderes (incluindo Elon Musk) pediram uma parada da IA ​​em sistemas mais poderosos, citando possíveis perigos em um futuro incerto para a tecnologia.

Quer descobrir como o ChatGPT conseguiu passar em um exame de MBA? Para saber mais, acesse:

Source: O programa Bug Bounty da OpenAI oferece recompensas de até $ 20.000

Related Posts

Kodiak AI faz parceria com a Bosch em sistemas autônomos de semi-caminhões

Kodiak AI faz parceria com a Bosch em sistemas autônomos de semi-caminhões

Teradar revela sensor Summit terahertz na CES 2026

Teradar revela sensor Summit terahertz na CES 2026

Google apresenta recursos Gemini AI para Google TV

Google apresenta recursos Gemini AI para Google TV

Amazon entra no mercado de TV de estilo de vida com Ember Artline de US$ 899

Amazon entra no mercado de TV de estilo de vida com Ember Artline de US$ 899

Kodiak AI faz parceria com a Bosch em sistemas autônomos de semi-caminhões
Tech

Kodiak AI faz parceria com a Bosch em sistemas autônomos de semi-caminhões

Teradar revela sensor Summit terahertz na CES 2026
Tech

Teradar revela sensor Summit terahertz na CES 2026

Google apresenta recursos Gemini AI para Google TV
Tech

Google apresenta recursos Gemini AI para Google TV

Amazon entra no mercado de TV de estilo de vida com Ember Artline de US$ 899
Tech

Amazon entra no mercado de TV de estilo de vida com Ember Artline de US$ 899

Amazon leva Alexa para a web com lançamento de Alexa.com na CES 2026
Tech

Amazon leva Alexa para a web com lançamento de Alexa.com na CES 2026

TechBriefly PT

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.