A OpenAI revelou que a violação de dados do ChatGPT foi causada por uma fraqueza no código Código aberto framework em seu chatbot, que foi corrigido rapidamente e aparentemente com consequências mínimas, mas o incidente pode ser um prenúncio de futuras ameaças a chatbots e usuários, e OpenAI está tomando precauções para evitar futuras violações de dados no aplicativo.
Quando ChatGPT e outros chatbots inicialmente se tornaram publicamente disponível, o cíber segurança A comunidade estava preocupada sobre como a tecnologia de IA pode ser explorada para conduzir ataques cibernéticos. Não demorou muito para que os agentes de ameaças descobrissem como contornar as verificações de segurança e utilizar ChatGPT para escrever código malicioso.
A mesa parece ter virado. Em vez de empregar o ChatGPT para induzir desastres cibernéticos, os invasores agora ativaram a própria tecnologia. De acordo com Semana da Segurança, OpenAI, a empresa que criou o chatbot, revelou uma violação de dados do ChatGPT no sistema causada por uma falha na estrutura de código aberto do código. A violação de dados do ChatGPT deixou o serviço offline até que pudesse ser reparado.
A popularidade do ChatGPT era óbvia desde o momento em que foi lançado no final 2022. Todos queriam brincar com o chatbot, desde autores até profissionais de software. Apesar de suas falhas (parte de sua prosa era desajeitada ou plagiada), o ChatGPT rapidamente se tornou o aplicativo de consumo de crescimento mais rápido da história, com mais de 100 milhões mensais Usuários por Janeiro. Dentro de um mês de seu lançamento, aproximadamente 13 milhões de pessoas usaram a tecnologia AI diariamente. Em comparação, TikTokoutro aplicativo extremamente popular, levou nove meses para atingir números de usuários comparáveis.
Violação de dados do ChatGPT
É apenas uma questão de tempo até que um aplicativo ou tecnologia popular seja alvo de ameaças. No caso da violação de dados do ChatGPT, a exploração foi possível por meio de uma falha no código aberto Redis biblioteca. Os usuários agora podem visualizar o histórico de conversas de outros usuários atuais.
De acordo com Pesado.IAbibliotecas de código aberto são usadas para “desenvolver interfaces dinâmicas armazenando rotinas e recursos prontamente acessíveis e usados com frequência, como classes, dados de configuração, documentação, dados de ajuda, modelos de mensagem, código pré-escrito e sub-rotinas, especificações de tipo e valores .”
O Redis é usado pelo OpenAI para armazenar informações do usuário para recuperação e acesso mais rápidos. Como milhares de colaboradores criam e usam código-fonte aberto, as vulnerabilidades podem surgir facilmente e passar despercebidas. Como os agentes de ameaças estão cientes disso, os ataques a bibliotecas de código aberto aumentaram em 742% desde 2019.
O ChatGPT a vulnerabilidade era pequena no esquema maior das coisas, e a OpenAI corrigiu a falha poucos dias após sua descoberta. No entanto, mesmo pequenos incidentes cibernéticos podem causar danos significativos.
No entanto, isso foi apenas um incidente menor. Os pesquisadores de violação de dados do ChatGPT se aprofundaram e descobriram que a mesma vulnerabilidade provavelmente era responsável pela visibilidade das informações de pagamento por algumas horas antes de o ChatGPT ser colocado offline.
“Alguns usuários podem ver o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, últimos quatro dígitos de um número de cartão de crédito (somente) e data de validade do cartão de crédito.” “Nenhum número completo de cartão de crédito foi exposto”, disse a OpenAI em um comunicado sobre o incidente.
Chatbots, IA, segurança cibernética e violação de dados ChatGPT
A violação de dados do ChatGPT foi corrigida rapidamente e aparentemente com consequências mínimas, com clientes pagantes impactados respondendo por menos de 1% de seus usuários. No entanto, o incidente pode ser um prenúncio de futuras ameaças a chatbots e usuários.
Já existem problemas de privacidade em relação ao uso de chatbots. Mark McCreary, co-presidente da Raposa Rothschild LLP’s prática de privacidade e segurança de dados, disse CNN que ChatGPT e chatbots são análogos à caixa preta em um avião. A tecnologia AI acumula grandes quantidades de dados e, em seguida, utiliza esses dados para produzir respostas a consultas e solicitações. Além disso, qualquer coisa na memória do chatbot fica disponível para outros usuários.
Os chatbots, por exemplo, podem capturar as notas de um único usuário sobre qualquer tópico e, em seguida, resumir ou buscar mais detalhes. No entanto, se essas notas contiverem dados confidenciais – como propriedade intelectual de uma organização ou informações confidenciais do cliente – elas serão adicionadas ao chatbot biblioteca. O usuário perdeu o controle das informações.
As restrições de IA estão sendo reforçadas
Algumas empresas e países inteiros estão reprimindo as preocupações com a privacidade. JP Morgan Perseguir, por exemplo, limitou o uso do ChatGPT por seus funcionários devido às restrições da empresa sobre software e aplicativos de terceiros, mas também há preocupações com a segurança das informações financeiras inseridas no chatbot. E a Itália citou a proteção de dados dos cidadãos como o motivo para bloquear temporariamente o programa em todo o país. Funcionários afirmaram que a preocupação decorre de RGPD conformidade.
Atores de ameaças também devem empregar o ChatGPT para enviar mensagens sofisticadas e phishing realista e-mailsde acordo com especialistas. Linguagem inadequada e construção de frases estranhas não são mais indicadores de um esquema de phishing. Os chatbots agora irão emular falantes naturais enviando mensagens personalizadas. O ChatGPT é capaz de traduzir idiomas sem falhas, o que mudará o jogo para inimigos de outros países.
O uso de IA para produzir desinformação e campanhas de conspiração é uma técnica igualmente prejudicial. As consequências dessa prática podem se estender além dos perigos cibernéticos. Pesquisadores utilizaram ChatGPT para criar um artigo de opinião que se parecesse com qualquer coisa vista em InfoWars ou outros sites conhecidos que promovem teorias da conspiração.
Ameaças estão sendo tratadas pela OpenAI
O desenvolvimento de violação de dados do chatbot trará novos riscos cibernéticos, seja por meio de habilidades linguísticas mais complexas ou por sua popularidade. Como resultado, a tecnologia é um alvo principal para um vetor de ataque. Para isso, a OpenAI está tomando precauções para evitar futuras violações de dados no aplicativo. Ele pagará uma recompensa por bug de até $ 20.000 para quem encontra vulnerabilidades anteriormente desconhecidas.
No entanto, de acordo com As notícias do hacker, “o programa não cobre problemas de segurança ou alucinação do modelo, em que o chatbot é solicitado a gerar código malicioso ou outras saídas defeituosas”. Portanto, parece que a OpenAI deseja fortalecer a tecnologia contra ataques externos, fazendo pouco para evitar que o chatbot se torne uma fonte de ataques cibernéticos.
O ChatGPT e outros chatbots serão os principais atores no campo da segurança cibernética. Só o tempo dirá se a tecnologia será alvo de ataques ou geradora deles.
Vazamentos de dados e ataques cibernéticos estão entre os problemas mais sérios da atualidade. Você não concorda? Dê uma olhada nestes:
- Violação de dados da T-Mobile: 37 milhões de contas afetadas
- Violação de dados do Twitter: 400 milhões de usuários afetados
Source: Violação de dados do ChatGPT: OpenAI confirma vulnerabilidade na biblioteca de código aberto