A Anthropic anuncia nesta terça-feira,22, duas novas ferramentas de inteligência artificial: o lançamento do Claude 3.5 Sonnet atualizado e o novo modelo Claude 3.5 Haiku. Ambos representam avanços significativos no desempenho de IA, especialmente em tarefas de seleção e automação. Além disso, a empresa revelou um recurso inovador que permite que a IA interaja diretamente com computadores, atualmente disponível em beta público.
O Claude 3.5 Sonnet atualizado é uma versão aprimorada que traz melhorias significativas, especialmente em ocasiões. O modelo agora alcança 49% no benchmark SWE-bench Verified, superando outros modelos de IA disponíveis publicamente, como o OpenAI o1-preview. Também apresentou avanços no uso de ferramentas, aumentando seu desempenho no TAU-bench, um teste de uso de ferramentas de agentes nos setores como varejo e aviação.
O Claude 3.5 Haiku é uma evolução do modelo rápido da Anthropic, projetado para oferecer acessibilidade e desempenho avançado com baixa latência. Ele supera o Claude 3 Opus, o maior modelo da geração anterior, em vários testes de inteligência, sendo especialmente eficaz em tarefas de compromisso. O Haiku será lançado até o final do mês.
Um dos recursos mais inovadores anunciados pela Anthropic é o uso de computador pelo Claude 3.5 Sonnet. Esse recurso permite que o modelo de IA interaja com computadores de maneira semelhante aos humanos — movendo o cursor, clicando em botões e preenchendo formulários. Essa habilidade está em fase beta e já está sendo explorada por empresas como Replit, que está desenvolvendo recursos para avaliar aplicativos automaticamente.
Embora ainda seja uma tecnologia emergente e propensa a erros, a expectativa é de que o uso do computador evolua rapidamente com o feedback dos desenvolvedores. Essa capacidade abre possibilidades para automatizar processos complexos, como a pesquisa de dados e a interação com softwares comuns, prometendo transformar a maneira como as empresas utilizam.
Preocupada com os riscos, a Anthropic implementou medidas de segurança para mitigar potenciais abusos dessa nova funcionalidade, como o uso indevido para desinformação ou fraude. A empresa está colaborando com institutos de segurança, como o US AI Safety Institute.