O OpenAI, o laboratório de pesquisa de IA, divulgou recentemente uma declaração abordando as preocupações de segurança em torno de seus produtos. A declaração vem em resposta a várias controvérsias que surgiram nas últimas semanas, incluindo um pedido de líderes da indústria para interromper o desenvolvimento de modelos como o GPT-4, a proibição do ChatGPT na Itália e uma reclamação à Comissão Federal de Comércio sobre os riscos. de desinformação perigosa, especialmente para crianças.
O compromisso de segurança da OpenAI visa garantir ao público que seus produtos são seguros, admitindo que ainda há espaço para melhorias. A empresa enfatizou que trabalha para garantir que a segurança seja incorporada em seus sistemas em todos os níveis e está comprometida em colaborar com os formuladores de políticas e partes interessadas para criar um ecossistema de IA seguro.
No entanto, a declaração carece de detalhes sobre como a OpenAI planeja mitigar riscos, aplicar suas políticas ou trabalhar com reguladores.
Elon Musk e Steve Wozniak publicaram uma carta aberta pedindo uma pausa de seis meses
Um híbrido de refutação e pedido de desculpas divulgado na quinta-feira procurou tranquilizar o público de que os produtos da empresa são seguros e reconhecer que há espaço para crescimento.
A promessa de segurança da OpenAI soa como uma reação maluca a todas as controvérsias recentes. Só na semana passada, o ChatGPT foi totalmente banido na Itália, Elon Musk e Steve Wozniak publicaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de modelos como o GPT-4, e uma reclamação foi feita à Federal Trade Commission alegando que ChatGPT apresenta riscos perigosos de desinformação, especialmente para crianças.
Ah, e havia aquela falha que permitia que as comunicações de bate-papo e as informações privadas dos usuários fossem vistas por qualquer pessoa.
De acordo com OpenAI, ele tenta “garantir que a segurança seja incorporada ao nosso sistema em todos os níveis”. Antes de lançar o GPT-4, a OpenAI passou mais de seis meses “testando rigorosamente” e disse que está procurando alternativas de verificação para implementar sua exigência de idade acima de 18 anos.
A empresa enfatizou que não vende informações confidenciais e as utiliza apenas para aprimorar os modelos de IA. Ele também declarou sua prontidão para trabalhar com os legisladores e continuar trabalhando com as partes interessadas em IA “para criar um ecossistema de IA seguro”.
A OpenAI admitiu quase no meio da promessa de segurança que a criação de um LLM seguro requer feedback do mundo real. Ele afirma que aprender com o feedback do público tornará os modelos mais seguros e permitirá que o OpenAI monitore o uso indevido.
“O uso no mundo real também nos levou a desenvolver políticas cada vez mais diferenciadas contra comportamentos que representam um risco real para as pessoas, ao mesmo tempo em que permitem as muitas aplicações benéficas de nossa tecnologia”.
OpenAI oferecido “detalhes sobre abordagem de segurança”, mas, além da promessa de investigar a verificação de idade, a maior parte da declaração soa como clichês padrão. Houve pouca informação sobre como pretende reduzir o risco, implementar políticas ou colaborar com as autoridades.
A OpenAI tem prazer em criar produtos de IA de maneira transparente, mas o anúncio oferece poucos detalhes sobre o que planeja fazer agora que sua IA está à solta.
Qual é a lógica por trás do OpenAI?
De acordo com OpenAI, seu modelo ChatGPT, que foi ensinado usando o Reinforcement Learning from Human Feedback (RLHF) método de aprendizado de máquina, pode simular o diálogo, responder a perguntas de acompanhamento, confessar erros, desafiar premissas incorretas e recusar solicitações inadequadas.
Inicialmente, os professores de IA humana forneciam ao modelo interações nas quais agiam tanto como cliente quanto como assistente de IA. A versão de teste público do bot tenta compreender as consultas e respostas do usuário com respostas detalhadas que se assemelham a um texto escrito por humanos em um formato de conversação.
Se você ainda não experimentou o ChatGPT, pode fazê-lo agora mesmo clicando aqui.