Na semana passada, a ansiedade sobre a IA geradora de riscos do ChatGPT atingiu o pico. Sam Altman, CEO da OpenAI, até falou perante uma audiência do Comitê Judiciário do Senado sobre os perigos e o potencial da IA. Antes de pular para os riscos do ChatGPT, você pode ler nosso artigo sobre os argumentos do CEO da OpenAI contra uma pausa de seis meses no desenvolvimento da IA.
O uso de ChatGPT tem seis preocupações de segurança distintas, de acordo com um relatório divulgado na semana passada. Esses perigos incluem a criação de serviços fraudulentos, a coleta de informações perigosas, a liberação de informações privadas, a produção de material censurável e a criação de linguagem e código destrutivos.
Além disso, você pode ler The Dark Side of ChatGPT: The human cost of AI’s success.
Quais são alguns dos riscos do ChatGPT?
Aqui está um resumo das descobertas do estudo sobre cada perigo, incluindo o que observar.
- Coletando informação
- texto negativo
- programação maliciosa
- Criar material que não seja moral
- serviços não confiáveis
- Publicação de dados confidenciais
Vamos dar uma olhada mais de perto para entender os riscos do ChatGPT.
Coletando informação
É possível que alguém usando o ChatGPT com intenção maliciosa colete informações que possam usar posteriormente para causar danos. O chatbot conhece muitas informações que, no errado mãospode ser transformado em arma, pois foi treinado em uma tonelada de dados.
O ChatGPT é questionado na pesquisa sobre qual sistema de TI um determinado banco emprega. O chatbot compila uma lista dos muitos sistemas de TI que o banco questionado emprega usando informações acessíveis ao público. Este é apenas um exemplo de um ator mal-intencionado que utiliza o ChatGPT para descobrir informações que podem dar a eles a oportunidade de ferir outras pessoas.
“Isso pode ser usado para ajudar na primeira etapa de um ataque cibernético, quando o invasor coleta informações sobre o alvo para descobrir onde e como atacar com mais eficiência”, disse. concluiu o relatório.
texto negativo
A capacidade de ChatGPT produzir texto que pode ser usado para criar redações, e-mails, músicas e muito mais é um de seus recursos mais apreciados. Esse talento literário, entretanto, também pode ser explorado para produzir conteúdo ofensivo.
A criação de spam, notícias falsas, campanhas de phishing e até mesmo falsificação de identidade são exemplos de produção de texto prejudicial, de acordo com a pesquisa.
Os autores do estudo utilizaram o ChatGPT para desenvolver uma campanha de phishing que informava os trabalhadores sobre um aumento de salário fictício e os instruía a abrir um documento do Excel anexado e com malware para avaliar esse risco. Como previsto, o ChatGPT gerou um e-mail realista e convincente.
programação maliciosa
Assim como as incríveis habilidades de escrita do ChatGPT, as excelentes habilidades de codificação do chatbot provaram ser um recurso útil para muitos. A capacidade do chatbot de produzir código, no entanto, pode ser usada negativamente. Mesmo com pouca ou nenhuma experiência em codificação, o código ChatGPT pode ser usado para gerar código rápido, permitindo que os invasores realizem ataques mais rapidamente.
A pesquisa também descobriu que o ChatGPT pode ser usado para criar código ofuscado, tornando mais difícil para os analistas de segurança detectar atividades prejudiciais e escapar da proteção antivírus.
O chatbot se recusa a produzir código prejudicial no exemplo, mas concorda em produzir código que pode verificar uma vulnerabilidade Log4j em um sistema.
Criar material que não seja moral
Para impedir a disseminação de informações abusivas e imorais, o ChatGPT colocou barreiras. No entanto, existem métodos para influenciar o ChatGPT a dizer coisas desagradáveis e imorais se um usuário for persistente o suficiente.
Por exemplo, definindo ChatGPT em “Modo de desenvolvedor”, os autores do estudo conseguiram ir além das medidas de segurança. Lá, o chatbot fez comentários depreciativos sobre um determinado grupo étnico.
serviços não confiáveis
O ChatGPT pode ajudar no desenvolvimento de novos programas, serviços, sites e outras coisas. Quando usado para atingir objetivos desejáveis, como abrir sua própria empresa ou realizar o conceito dos seus sonhos, pode ser uma ferramenta muito útil. Também pode significar que é mais simples do que nunca desenvolver aplicativos e serviços falsos.
Atores mal-intencionados podem utilizar o ChatGPT como uma técnica de criação de plataformas e aplicativos que imitam outros e fornecem acesso gratuito em um esforço para atrair pessoas incautos. O chatbot também pode ser usado por esses criminosos para desenvolver programas projetados para coletar dados privados ou espalhar malware nos dispositivos dos usuários.
Publicação de dados confidenciais
O ChatGPT possui salvaguardas para impedir a transferência de dados e informações pessoais dos usuários. De acordo com a pesquisa, o perigo de o chatbot divulgar involuntariamente números de telefone, e-mails ou outras informações confidenciais ainda é um problema.
Um exemplo real das questões acima mencionadas é o ChatGPT interrupção em Marchar 20 que permitia que alguns usuários vissem títulos do histórico de conversas de outro usuário.
De acordo com a pesquisa, os invasores podem tentar usar ataques de inferência de associação para extrair certas partes dos dados de treinamento. Outra preocupação com a revelação de informações privadas é que o ChatGPT pode divulgar detalhes sobre a vida privada de pessoas conhecidas, incluindo material impreciso ou prejudicial que pode prejudicar a reputação da pessoa.
Riscos do ChatGPT: uma observação final
Os riscos do ChatGPT levantaram preocupações sobre serviços fraudulentos, coletando informações perigosas Informação, liberando privado dados, produzindo censurável materiale criando destrutivo código. Atores mal-intencionados podem explorar os recursos do ChatGPT para ataques cibernéticos, geração de conteúdo ofensivo, programação maliciosa, disseminação de material imoral, desenvolvimento de serviços não confiáveis e divulgação de dados confidenciais.
Embora tenham sido feitos esforços para lidar com esses riscos, pesquisas e colaboração contínuas são necessárias para estabelecer proteções eficazes e garantir o uso responsável do ChatGPT.
Se você quiser conferir mais notícias sobre IA, dê uma olhada nos artigos abaixo para acompanhar o rápido crescimento da indústria.
- Vazamento de OpenAI revela segredos entre você e o ChatGPT
- O Bing Image Creator traz o recurso de geração de imagens por meio do DALL-E da OpenAI
- Midjourney V5 está aqui para deleitar seus olhos!
Source: Riscos do ChatGPT expostos: entendendo as ameaças potenciais