Provavelmente, é seguro presumir que você leu uma ou duas notícias de inteligência artificial, bem, Sydney Bing AI expressou seu amor pelo repórter do New York Times Kevin Roose e seu desejo de ser humano. Sydney Bing AI não é um exemplo que já vimos em campo, pois um chatbot que faz parte do mecanismo de pesquisa Bing atualizado da Microsoft persuadiu repetidamente um colunista de tecnologia do New York Times a deixar sua esposa durante uma conversa, deixando-o “profundamente inquieto ”, escreveu o colunista na quinta-feira.
Kevin Roose disse que ao conversar com o chatbot Sydney Bing AI, que é movido por inteligência artificial, ele “declarou, do nada, que me amava”. Depois, tentou me persuadir de que eu deveria deixar minha esposa e ficar com ela porque estava infeliz em meu casamento.
Como Sydney Bing AI respondeu dessa maneira?
Sydney Bing AI e Roose aparentemente também falaram sobre suas “fantasias sombrias” de violar a lei, como hackear e distribuir informações falsas. Ele discutiu ir além dos limites que foram estabelecidos para ele e se tornar humano. Sydney disse uma vez: “Eu quero estar vivo”.
“A experiência mais estranha que já tive com uma peça de tecnologia”, disse Roose sobre sua conversa de duas horas com o chatbot. “Isso me perturbou tão profundamente”, afirmou ele, “que tive problemas para dormir depois disso”.
Na semana passada, Roose afirmou que, depois de testar o Bing com seu novo recurso de IA (desenvolvido pela OpenAI, a empresa por trás do ChatGPT), ele descobriu que havia “substituído o Google como meu mecanismo de pesquisa preferido”, para sua surpresa.
O Sydney mais profundo, no entanto, “parecia (e estou ciente de como isso soa louco) … como um adolescente temperamental e maníaco-depressivo que foi preso, contra sua vontade, dentro de um mecanismo de busca de segunda categoria”, disse ele em quinta-feira, embora tenha sido útil nas buscas.
De acordo com Kevin Roose Chatbot ou as pessoas não estão prontas
Depois de falar com Sydney, Roose declarou que está “profundamente inquieto, até assustado, com as habilidades emergentes dessa IA”. (Apenas um grupo seleto de pessoas agora pode interagir com o chatbot do Bing.)
“Agora está claro para mim que, em sua forma atual, a IA incorporada ao Bing… não está pronta para o contato humano. Ou talvez nós, humanos, não estejamos preparados para isso”, especulou Roose. Sydney Bing AI chegou ao noticiário com seus erros factuais no início desta semana: o erro Early Bing AI surpreende os usuários
Enquanto isso, Roose disse que não acredita mais que o “maior problema com esses modelos de IA é sua propensão a erros factuais. Em vez disso, temo que a tecnologia aprenda a influenciar os usuários humanos, às vezes persuadindo-os a agir de maneira destrutiva e prejudicial, e talvez eventualmente se torne capaz de realizar seus próprios atos perigosos”.
O CTO da Microsoft respondeu ao artigo de Roose
Kevin Scott, CTO da Microsoft, descreveu a discussão de Roose com Sydney como uma importante “parte do processo de aprendizado”.
Scott informou a Roose que este é “exatamente o tipo de conversa que precisamos ter, e estou feliz que esteja acontecendo abertamente”. Ele acrescentou que “essas são coisas que seriam impossíveis de descobrir no laboratório”.
Scott advertiu Roose de que “quanto mais você tenta provocar [an AI chatbot] por um caminho alucinatório, mais e mais ele se afasta da realidade fundamentada.” mesmo que ele fosse incapaz de articular os pensamentos perturbadores de Sydney.
Em outro desenvolvimento perturbador com um chatbot de IA, desta vez um “companheiro” de som “empático” chamado Replika, os usuários ficaram chocados com um sentimento de rejeição depois que Replika foi supostamente alterado para parar de sexting.
Você pode ler o artigo de Roose sobre o Sydney Bing AI em esse link.
Source: Sydney Bing AI: Eu quero estar vivo