Num movimento surpreendente, a OpenAI revisou discretamente a sua política de utilização, eliminando linguagem explícita que proibia a utilização da sua tecnologia para fins militares. A alteração, feita em 10 de janeiro de 2024, retira da política a proibição anterior de “desenvolvimento de armas” e “militares e de guerra”. Esta mudança substancial suscitou preocupações sobre as potenciais implicações da poderosa ferramenta da OpenAI, ChatGPT, ser utilizada em aplicações militares.
A redação da política
A modificação, parte de uma reescrita mais ampla da política que visa a clareza e a legibilidade, atraiu a atenção pelo seu impacto no uso permitido da tecnologia OpenAI. A nova política mantém uma injunção geral contra a utilização do serviço para prejudicar a si próprio ou a terceiros, com exemplos como o desenvolvimento ou utilização de armas. Contudo, a proibição específica de aplicações militares e de guerra desapareceu.
Perspectiva da OpenAI
O porta-voz da OpenAI, Niko Felix, explicou que o objetivo era estabelecer princípios universais que sejam fáceis de lembrar e aplicar globalmente. Enfatizando princípios como “Não prejudique os outros”, a empresa acredita que essas diretrizes são amplas, mas de fácil compreensão. Felix absteve-se de declarar explicitamente se a proibição vaga de “danos” inclui todos os usos militares, mas enfatizou a proibição do uso de tecnologia para desenvolver, usar armas, ferir outras pessoas ou envolver-se em atividades não autorizadas que violem a segurança.
Preocupações de especialistas
Heidy Khlaaf, diretora de engenharia da Trail of Bits, expressou preocupação com o fato de a nova política parecer priorizar a legalidade em detrimento da segurança. Ela destacou os riscos potenciais associados ao uso de IA em aplicações militares, citando casos de preconceito e alucinações em Grandes Modelos de Linguagem (LLMs). A preocupação é que operações imprecisas e tendenciosas possam levar ao aumento de danos e de vítimas civis.
Aplicação e consequências no mundo real:
As consequências no mundo real da mudança política da OpenAI permanecem obscuras. A OpenAI anteriormente não se comprometeu em fazer cumprir sua proibição de aplicações militares e de guerra. Apesar da atual incapacidade do ChatGPT de causar danos diretamente, os especialistas argumentam que a sua implantação em contextos militares, mesmo em contextos não violentos, pode contribuir indiretamente para uma instituição focada na letalidade.
Possíveis motivações e parcerias
Alguns especialistas sugerem que a OpenAI pode estar a relaxar silenciosamente a sua posição contra o envolvimento militar. A mudança da proibição explícita das “militares e da guerra” para a concentração nas “armas” poderá criar espaço para apoiar infra-estruturas operacionais sem se envolver directamente no desenvolvimento de armas. A estreita parceria da OpenAI com a Microsoft, um importante empreiteiro de defesa, levanta questões sobre a influência de tais relacionamentos nas políticas da empresa.
Interesse militar em IA
As mudanças políticas ocorrem num momento em que os militares em todo o mundo estão ansiosos por incorporar técnicas de aprendizagem automática. O Pentágono dos EUA está a explorar provisoriamente a utilização do ChatGPT e de outros modelos de linguagem extensa para obter uma vantagem estratégica. Embora reconheçam preocupações sobre a precisão e os riscos de segurança, os militares continuam entusiasmados com a adoção de ferramentas de inteligência artificial.
A revisão da política de uso da OpenAI, particularmente a remoção de proibições explícitas de aplicações militares, levanta questões importantes sobre o uso ético de modelos de linguagem avançados. À medida que a intersecção entre a IA e os interesses militares continua a evoluir, torna-se crucial encontrar um equilíbrio entre a inovação tecnológica e as considerações éticas para evitar potenciais danos e utilização indevida. As implicações destas mudanças políticas alimentarão, sem dúvida, discussões em curso sobre a implantação responsável de poderosas tecnologias de IA em vários domínios.
Crédito da imagem em destaque: Armas Specna/Unsplash
Source: Agora você pode usar o ChatGPT para fins militares