Sam Altman, da OpenAI, ameaça sair da UE em meio a negociações sobre regulamentação de IA

CEO da OpenAI Sam Altman continua sua divulgação internacional, aproveitando o impulso gerado por suas recentes aparições perante o Congresso dos Estados Unidos. No entanto, a abordagem de Altman no exterior difere do clima favorável à IA nos Estados Unidos, pois ele sugere a possibilidade de realocar seus empreendimentos tecnológicos se o cumprimento de suas regras não for cumprido.

A jornada global de Altman o levou de Lagos, Nigéria para vários destinos europeus, culminando em Londres, Reino Unido. Apesar de enfrentar alguns protestos, ele se envolve ativamente com figuras proeminentes da indústria de tecnologia, empresas e formuladores de políticas, enfatizando os recursos do modelo de linguagem ChatGPT da OpenAI. Altman procura obter apoio para regulamentações pró-IA enquanto expressa descontentamento com a definição de sistemas de “alto risco” da União Europeia, conforme discutido durante um painel na University College London.

O Proposta de Lei de IA da União Europeia introduz uma classificação de três níveis para sistemas de IA com base em níveis de risco. Instâncias de IA que apresentam um “risco inaceitável” ao violar os direitos fundamentais incluem sistemas de pontuação social e IA manipuladora de engenharia social. Por outro lado, “sistemas de IA de alto risco” devem aderir a padrões abrangentes de transparência e supervisão, adaptados ao uso pretendido.

Openai, Sam Altman
O CEO da OpenAI, Sam Altman, testemunha sobre os riscos e oportunidades da IA ​​perante o Subcomitê do Senado

Sam Altman expressou preocupação em relação ao atual projeto de lei, afirmando que tanto o ChatGPT quanto o próximo GPT-4 poderiam se enquadrar na categoria de alto risco. O cumprimento de requisitos específicos seria necessário nesses casos. Altman enfatizou a intenção da OpenAI de buscar conformidade, mas reconheceu que existem limitações técnicas que podem afetar sua capacidade de fazê-lo. Como relatado por Tempo, afirmou, “Se pudermos cumprir, o faremos, e se não pudermos, deixaremos de operar… Vamos tentar. Mas há limites técnicos para o que é possível.”

Lei de IA da UE é atualizada à medida que a IA continua melhorando

Originalmente destinado a abordar questões relacionadas ao sistema de crédito social e reconhecimento facial da China, o AI Act encontrou novos desafios com o surgimento da OpenAI e outras startups. Posteriormente, a UE introduziu disposições em dezembro, visando “modelos fundamentais”, como os modelos de linguagem grande (LLMs) que alimentam chatbots de IA, como ChatGPT. Recentemente, um comitê do Parlamento Europeu aprovou esses regulamentos atualizados, aplicando verificações de segurança e gerenciamento de riscos.

Em contraste com os Estados Unidos, a UE mostrou uma maior inclinação para escrutinar o OpenAI. O Conselho Europeu de Proteção de Dados tem monitorado ativamente a conformidade do ChatGPT com as leis de privacidade. No entanto, é importante observar que o AI Act ainda está sujeito a possíveis revisões, o que provavelmente explica a turnê global de Altman, buscando navegar no cenário em evolução dos regulamentos de IA.

Altman reiterou pontos familiares de seu recente testemunho no Congresso, expressando preocupações sobre os riscos da IA ​​e o reconhecimento de seus benefícios potenciais. Ele defendeu a regulamentação, incluindo requisitos de segurança e uma agência governamental para testes de conformidade. Altman pediu uma abordagem regulatória que encontre um equilíbrio entre as tradições europeias e americanas.

Openai, Sam Altman
À medida que a base de usuários do ChatGPT continua crescendo, aumenta a necessidade de conciliar com os regulamentos do governo

No entanto, Altman alertou contra regulamentações que possam limitar o acesso do usuário, prejudicar empresas menores ou impedir o movimento de IA de código aberto. A postura evolutiva da OpenAI em relação à abertura, citando a concorrência, contrasta com suas práticas anteriores. Vale a pena notar que quaisquer novos regulamentos beneficiariam inerentemente a OpenAI ao fornecer uma estrutura para responsabilidade. As verificações de conformidade também podem aumentar o custo de desenvolvimento de novos modelos de IA, dando à empresa uma vantagem no cenário competitivo de IA.

Vários países impuseram proibições ao ChatGPT, sendo a Itália um deles. No entanto, depois que o OpenAI aprimorou os controles de privacidade dos usuários, a proibição foi suspensa pelo governo de extrema direita da Itália. A OpenAI pode precisar continuar abordando as preocupações e fazendo concessões para manter um relacionamento favorável com os governos em todo o mundo, especialmente considerando sua grande base de usuários de mais de 100 milhões de usuários ativos do ChatGPT.

Por que os governos agem com cautela em relação aos chatbots de IA?

Existem várias razões pelas quais os governos podem impor proibições ao ChatGPT ou modelos de IA semelhantes por vários motivos:

  1. Desinformação e Fake News: modelos de IA como o ChatGPT podem gerar informações enganosas ou falsas, contribuindo para a disseminação de desinformação. Os governos podem impor proibições para impedir a disseminação de conteúdo impreciso ou prejudicial.
  2. Conteúdo impróprio ou ofensivo: os modelos de IA têm o potencial de gerar conteúdo inapropriado, ofensivo ou que viole normas e valores culturais. Os governos podem proibir o ChatGPT para proteger os cidadãos de encontrar material censurável.
  3. Preocupações éticas: os modelos de IA levantam questões éticas relacionadas à privacidade, consentimento e preconceito. Os governos podem impor proibições para tratar de questões sobre privacidade de dados, o potencial uso indevido de informações pessoais ou a perpetuação de preconceitos no conteúdo gerado por IA.
  4. Conformidade regulatória: os modelos de IA devem cumprir as leis e regulamentos existentes. Os governos podem impor proibições se descobrirem que o ChatGPT não atende aos requisitos regulamentares, como proteção de dados ou padrões de conteúdo.
  5. Segurança Nacional e Estabilidade Social: Os governos podem perceber os modelos de IA como uma ameaça potencial à segurança nacional ou à estabilidade social. Eles podem impor proibições para evitar o uso indevido da tecnologia AI para fins maliciosos ou para manter o controle sobre o fluxo de informações.

Vale a pena notar que as razões específicas para as proibições impostas pelo governo no ChatGPT podem variar entre as jurisdições, e as decisões são influenciadas por uma combinação de fatores legais, éticos, sociais e políticos. Para alguns riscos atuais e consequências indesejadas dos chatbots de IA, verifique estes artigos mais recentes:

  • Riscos do ChatGPT expostos: entendendo as ameaças potenciais
  • O lado negro do ChatGPT: o custo humano do sucesso da IA

Source: Sam Altman, da OpenAI, ameaça sair da UE em meio a negociações sobre regulamentação de IA