A Anthropic anunciou um novo conjunto de recursos de saúde e ciências biológicas para sua plataforma de inteligência artificial Claude no domingo. Os recursos permitem que os usuários compartilhem o acesso a seus registros de saúde e dados de aplicativos de condicionamento físico, inclusive do aplicativo iOS Health da Apple, para personalizar conversas relacionadas à saúde. O lançamento ocorreu dias depois que a rival OpenAI apresentou sua ferramenta ChatGPT Health. Ambas as empresas oferecem agora ferramentas que integram dados pessoais de saúde em interações de IA. Os usuários devem entrar em uma lista de espera do ChatGPT Health da OpenAI, enquanto os recursos de saúde da Anthropic estão imediatamente disponíveis para assinantes dos planos Pro e Max nos Estados Unidos. Eric Kauderer-Abrams, chefe de ciências biológicas da Anthropic, descreveu as novas funções de Claude for Healthcare durante uma entrevista à NBC News. “Ao navegar pelos sistemas de saúde e pelas situações de saúde, muitas vezes temos a sensação de que estamos sozinhos e que estamos a reunir todos estes dados de todas estas fontes, coisas sobre a nossa saúde e os nossos registos médicos, e que estamos ao telefone o tempo todo”, disse ele. “Estou muito animado em chegar a um mundo onde Claude possa cuidar de tudo isso.” Ele acrescentou que as ferramentas permitem aos usuários “integrar todas as suas informações pessoais com seus registros médicos e de seguros, e ter Claude como o orquestrador e ser capaz de navegar por tudo e simplificá-lo para você”. A Anthropic, uma das maiores empresas de IA do mundo e recentemente avaliada em 350 mil milhões de dólares, posiciona estas características como ajudas para lidar com questões complexas de cuidados de saúde. A OpenAI afirmou que centenas de milhões de pessoas fazem perguntas relacionadas ao bem-estar ou à saúde no ChatGPT todas as semanas. A empresa enfatizou que o ChatGPT Health “não se destina ao diagnóstico ou tratamento”, mas em vez disso ajuda os usuários a “navegar pelas questões cotidianas e compreender os padrões ao longo do tempo – não apenas os momentos de doença”. Ferramentas de IA como Claude e ChatGPT podem ajudar na compreensão de relatórios médicos, na verificação de decisões médicas e no resumo de informações para pessoas que não têm acesso a cuidados médicos. A Anthropic destacou medidas de privacidade em uma postagem de blog. Os dados de saúde compartilhados com Claude são excluídos da memória do modelo e não são utilizados para treinamento de sistemas futuros. Os usuários podem desconectar ou editar permissões a qualquer momento. A empresa também introduziu ferramentas para prestadores de cuidados de saúde e expandiu as ofertas do Claude for Life Science para melhorar a descoberta científica. Isso inclui uma infraestrutura pronta para HIPAA que se conecta a bancos de dados federais de cobertura de saúde e ao registro oficial de prestadores de serviços médicos. Os recursos visam aliviar a carga de trabalho, automatizando tarefas como preparar solicitações de autorização prévia para atendimento especializado e apoiar recursos de seguros por meio da correspondência de diretrizes clínicas com registros de pacientes. Dhruv Parthasarathy, diretor de tecnologia da Commure, uma empresa que cria soluções de IA para documentação médica, disse em um comunicado que os recursos de Claude ajudarão a “economizar milhões de horas anualmente aos médicos e retornar seu foco ao atendimento ao paciente”. Os anúncios seguem-se a meses de análise minuciosa dos chatbots de IA que fornecem aconselhamento médico e de saúde mental. Na quinta-feira, Character.AI e Google concordaram em resolver uma ação judicial alegando que suas ferramentas de IA contribuíram para a piora da saúde mental entre adolescentes que morreram por suicídio. Anthropic, OpenAI e outras empresas de IA alertam que seus sistemas podem cometer erros e não devem substituir o julgamento profissional. A política de uso aceitável da Anthropic afirma que “um profissional qualificado… deve revisar o conteúdo ou decisão antes da divulgação ou finalização” quando Claude é usado para “decisões de saúde, diagnóstico médico, atendimento ao paciente, terapia, saúde mental ou outra orientação médica”. Kauderer-Abrams observou: “Essas ferramentas são incrivelmente poderosas e, para muitas pessoas, podem economizar 90% do tempo gasto em alguma coisa. Mas para casos de uso críticos em que cada detalhe é importante, você ainda deve verificar as informações. Não estamos afirmando que é possível remover completamente o ser humano do circuito. Vemos isso como uma ferramenta para ampliar o que os especialistas humanos podem fazer.”
